À medida que as ferramentas de IA generativas continuam a proliferar, mais questões são levantadas sobre os riscos desses processos e quais medidas regulatórias podem ser implementadas para proteger as pessoas contra violação de direitos autorais, desinformação, difamação e muito mais.
E, embora a regulamentação governamental mais ampla seja o passo ideal, isso também requer cooperação global, que, como vimos em aplicativos de mídia digital anteriores, é difícil de estabelecer devido às abordagens e opiniões variadas sobre as responsabilidades e ações necessárias.
Como tal, provavelmente caberá a grupos menores da indústria e empresas individuais implementar medidas e regras de controle para mitigar os riscos associados às ferramentas generativas de IA.
É por isso que este pode ser um passo significativo – hoje, a Meta e a Microsoft, que agora é um dos principais investidores na OpenAI , assinaram a parceria em Práticas Responsáveis de IA (PAI) para a iniciativa de Mídia Sintética, que visa estabelecer um acordo da indústria sobre práticas responsáveis no desenvolvimento, criação e compartilhamento de mídia criada por meio de IA generativa.
De acordo com o PAI :
“ A primeira estrutura desse tipo foi lançada em fevereiro pela PAI e apoiada por um grupo inaugural de parceiros de lançamento, incluindo Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS e startups de mídia sintética Synthesia, D-ID e Respeecher. Os parceiros da estrutura se reunirão no final deste mês no Fórum de parceiros de 2023 da PAI para discutir a implementação da estrutura por meio de estudos de caso e criar recomendações práticas adicionais para o campo de IA e integridade da mídia”.
A PAI diz que o grupo também trabalhará para esclarecer suas orientações sobre a divulgação responsável de mídia sintética, ao mesmo tempo em que aborda as implicações técnicas, legais e sociais das recomendações sobre transparência.
Conforme observado, esta é uma área de importância em rápido crescimento, que os senadores dos EUA também estão procurando dominar antes que fique grande demais para ser regulamentada.
Hoje cedo, o senador republicano Josh Hawley e o senador democrata Richard Blumenthal introduziram uma nova legislação que removeria as proteções da Seção 230 para empresas de mídia social que facilitam o compartilhamento de conteúdo gerado por IA, o que significa que as próprias plataformas podem ser responsabilizadas por espalhar material nocivo criado por meio de ferramentas de IA. .
Ainda há muito a ser trabalhado nesse projeto de lei, e será difícil ser aprovado. Mas o fato de estar sendo proposto destaca as crescentes preocupações que as autoridades reguladoras têm, particularmente em relação à adequação das leis existentes para cobrir saídas generativas de IA.
A PAI não é o único grupo trabalhando para estabelecer diretrizes de IA. O Google já publicou seus próprios ′ Princípios de IA responsável ’, enquanto LinkedIn e Meta também compartilharam suas regras de orientação sobre o uso do mesmo, com os dois últimos provavelmente refletindo muito do que esse novo grupo estará alinhado, uma vez que eles ′ são ambos (efetivamente) signatários da estrutura.
É uma área importante a ser considerada e, como a desinformação em aplicativos sociais, realmente não deveria se resumir a uma única empresa e a um único executivo, fazendo chamadas sobre o que é e o que não é aceitável, e é por isso que grupos da indústria como este oferecem alguns esperança de consenso e implementação mais abrangentes.
Mas, mesmo assim, levará algum tempo – e ainda nem conhecemos todos os riscos associados à IA generativa. Quanto mais ele for usado, mais desafios surgirão e, com o tempo, precisaremos de regras adaptáveis para lidar com o possível uso indevido e combater o aumento de spam e lixo gerado pelo uso indevido de tais sistemas.