Inteligência ArtificialSoftware

O projeto de lei proposto consideraria as plataformas sociais consideradas legalmente responsáveis ​​pela distribuição de conteúdo gerado por IA

Isso pode ser um obstáculo para a tendência crescente de elementos generativos de IA em aplicativos sociais.

Hoje, o senador republicano Josh Hawley e o senador democrata Richard Blumenthal introduziram uma legislaçãoque efetivamente contornaria as proteções da Seção 230 para empresas de mídia social em relação ao conteúdo gerado por IA, o que significaria que as plataformas poderiam ser responsabilizadas por espalhar material nocivo criado por meio de Ferramentas de IA.

De acordo com o site da Hawley :

“ Esta nova legislação bipartidária esclareceria que a imunidade da Seção 230 não se aplicará a reivindicações baseadas em IA generativa, garantindo que os consumidores tenham as ferramentas necessárias para se protegerem de conteúdo prejudicial produzido pelos mais recentes avanços na tecnologia de IA. Por exemplo, ‘deepfakes’ gerados por IA – imagens falsas realistas de indivíduos reais – estão explodindo em popularidade. As pessoas comuns agora podem sofrer consequências destruidoras de vidas por dizerem coisas que nunca disseram ou por fazerem coisas que nunca fariam. As empresas cúmplices desse processo devem ser responsabilizadas judicialmente.”

A Seção 230 fornece proteção para provedores de mídia social contra responsabilidade legal sobre o conteúdo que os usuários compartilham em suas plataformas, esclarecendo que as próprias plataformas não são as editoras ou criadoras das informações fornecidas pelos usuários. Isso garante que as empresas de mídia social sejam capazes de facilitar um discurso mais livre e aberto – embora muitos tenham argumentado, há muitos anos, que isso não é mais aplicável com base na maneira como as plataformas sociais amplificam e distribuem seletivamente o conteúdo do usuário.

UE quer que conteúdo gerado por IA seja identificado como tal - Pplware

Até agora, nenhuma das contestações às proteções da Seção 230, com base na interpretação atualizada, foi mantida no tribunal. Mas, com esse novo impulso, os senadores dos EUA estão tentando se antecipar à onda generativa de IA antes que ela se torne uma tendência ainda maior, o que pode levar a informações falsas e falsificações generalizadas em aplicativos sociais.

Leia:   Muitos subreddits ainda estão fora de ação enquanto o protesto de preços de API do Reddit continua

O que está menos claro na atual redação do projeto de lei é o que exatamente isso significa em termos de responsabilidade. Por exemplo, se um usuário criasse uma imagem em DALL-E ou Midjourney e a compartilhasse no Twitter, o Twitter seria responsável por isso ou os criadores dos aplicativos generativos de IA de onde a imagem se originou?

As especificidades aqui podem ter uma influência significativa sobre quais tipos de ferramentas as plataformas sociais procuram criar, com Snapchat , TikTok , LinkedIn , Instagram e Facebook já experimentando opções integradas de IA generativa que permitem aos usuários criar e distribuir esse conteúdo em cada aplicativo.

Se a lei estiver relacionada à distribuição, cada aplicativo social precisará atualizar seus processos de detecção e transparência para lidar com isso, enquanto se estiver relacionado à criação, isso também poderá interrompê-los em suas trilhas de desenvolvimento na frente da IA.

Parece que será difícil para os senadores aprovar tal projeto de lei, com base nas várias considerações e na evolução das ferramentas generativas de IA. De qualquer forma, o impulso destaca a crescente preocupação entre o governo e os grupos reguladores sobre o impacto potencial da IA ​​generativa e como eles poderão policiar esse avanço.

Nesse sentido, você provavelmente pode esperar muito mais disputas legais sobre a regulamentação da IA ​​no futuro, à medida que lidamos com novas abordagens para gerenciar como esse conteúdo é usado.

Isso também está relacionado a direitos autorais, propriedade e várias outras considerações sobre conteúdo de IA, que não são cobertos pelas leis atuais.

Existem riscos inerentes em não atualizar as leis a tempo de atender a esses requisitos em evolução – mas, ao mesmo tempo, regulamentações reativas podem impedir o desenvolvimento e retardar o progresso.

Leia:   Conheça a Gemma: A mais recente inteligência artificial de código aberto desenvolvida pelo Google.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button