Inteligência ArtificialSoftware

Meta e Microsoft se juntam a nova estrutura para uso responsável de IA

À medida que as ferramentas de IA generativas continuam a proliferar, mais questões são levantadas sobre os riscos desses processos e quais medidas regulatórias podem ser implementadas para proteger as pessoas contra violação de direitos autorais, desinformação, difamação e muito mais.

E, embora a regulamentação governamental mais ampla seja o passo ideal, isso também requer cooperação global, que, como vimos em aplicativos de mídia digital anteriores, é difícil de estabelecer devido às abordagens e opiniões variadas sobre as responsabilidades e ações necessárias.

Como tal, provavelmente caberá a grupos menores da indústria e empresas individuais implementar medidas e regras de controle para mitigar os riscos associados às ferramentas generativas de IA.

É por isso que este pode ser um passo significativo – hoje, a Meta e a Microsoft, que agora é um dos principais investidores na OpenAI , assinaram a parceria em  Práticas Responsáveis ​​de IA (PAI) para a iniciativa de Mídia Sintética, que visa estabelecer um acordo da indústria sobre práticas responsáveis ​​no desenvolvimento, criação e compartilhamento de mídia criada por meio de IA generativa.

De acordo com o PAI :

Google, Facebook e Microsoft vivem mau momento no mercado de ações: o que  está acontecendo com as 'big techs'? | Tecnologia | G1

“ A primeira estrutura desse tipo foi lançada em fevereiro pela PAI e apoiada por um grupo inaugural de parceiros de lançamento, incluindo Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS e startups de mídia sintética Synthesia, D-ID e Respeecher. Os parceiros da estrutura se reunirão no final deste mês no Fórum de parceiros de 2023 da PAI para discutir a implementação da estrutura por meio de estudos de caso e criar recomendações práticas adicionais para o campo de IA e integridade da mídia”.

A PAI diz que o grupo também trabalhará para esclarecer suas orientações sobre a divulgação responsável de mídia sintética, ao mesmo tempo em que aborda as implicações técnicas, legais e sociais das recomendações sobre transparência.

Leia:   YouTube lança mudanças no Studio Analytics para reduzir a pressão da comparação de dados

Conforme observado, esta é uma área de importância em rápido crescimento, que os senadores dos EUA também estão procurando dominar antes que fique grande demais para ser regulamentada.

Hoje cedo,  o senador republicano Josh Hawley e o senador democrata Richard Blumenthal  introduziram uma nova legislação  que removeria as proteções da Seção 230 para empresas de mídia social que facilitam o compartilhamento de conteúdo gerado por IA, o que significa que as próprias plataformas podem ser responsabilizadas por espalhar material nocivo criado por meio de ferramentas de IA. .

Ainda há muito a ser trabalhado nesse projeto de lei, e será difícil ser aprovado. Mas o fato de estar sendo proposto destaca as crescentes preocupações que as autoridades reguladoras têm, particularmente em relação à adequação das leis existentes para cobrir saídas generativas de IA.

A PAI não é o único grupo trabalhando para estabelecer diretrizes de IA. O Google já publicou seus próprios ′ Princípios de IA responsável ’, enquanto LinkedIn e Meta também compartilharam suas regras de orientação sobre o uso do mesmo, com os dois últimos provavelmente refletindo muito do que esse novo grupo estará alinhado, uma vez que eles ′ são ambos (efetivamente) signatários da estrutura.

É uma área importante a ser considerada e, como a desinformação em aplicativos sociais, realmente não deveria se resumir a uma única empresa e a um único executivo, fazendo chamadas sobre o que é e o que não é aceitável, e é por isso que grupos da indústria como este oferecem alguns esperança de consenso e implementação mais abrangentes.

Mas, mesmo assim, levará algum tempo – e ainda nem conhecemos todos os riscos associados à IA generativa. Quanto mais ele for usado, mais desafios surgirão e, com o tempo, precisaremos de regras adaptáveis ​​para lidar com o possível uso indevido e combater o aumento de spam e lixo gerado pelo uso indevido de tais sistemas.

Leia:   Por que tornar a IA segura não é tão fácil quanto você pensa

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button