Os especialistas em inteligência artificial geralmente seguem uma das duas escolas de pensamento – ou ela melhorará muito nossas vidas ou destruirá a todos nós. E é por isso que o debate desta semana no Parlamento Europeu sobre como a tecnologia é regulamentada é tão importante. Mas como a IA pode se tornar segura? Aqui estão cinco dos desafios que temos pela frente.
Concordando o que é inteligência artificial
O Parlamento Europeu levou dois anos para definir um sistema de IA – software que pode “para um determinado conjunto de objetivos definidos pelo homem, gerar saídas como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais interagem” .
Esta semana, está votando sua Lei de Inteligência Artificial – as primeiras regras legais desse tipo sobre IA, que vão além dos códigos voluntários e exigem que as empresas o cumpram.
Alcançando um acordo global
O ex-chefe do Escritório de Inteligência Artificial do Reino Unido, Sana Kharaghani, aponta que a tecnologia não respeita fronteiras.
“Precisamos ter colaboração internacional nisso – sei que será difícil”, disse ela à BBC News. “Este não é um assunto doméstico. Essas tecnologias não ficam dentro das fronteiras de um país
Mas ainda não há um plano para um regulador global de IA no estilo das Nações Unidas – embora alguns tenham sugerido isso – e diferentes territórios têm ideias diferentes:
- As propostas da União Europeia são as mais rígidas e incluem a classificação de produtos de IA dependendo de seu impacto – um filtro de spam de e-mail, por exemplo, teria regulamentação mais leve do que uma ferramenta de detecção de câncer
- O Reino Unido está dobrando a regulamentação da IA aos reguladores existentes – aqueles que dizem que a tecnologia os discriminou, por exemplo, iriam para a Comissão de Igualdade
- Os Estados Unidos têm apenas códigos voluntários, com os legisladores admitindo, em uma recente audiência do comitê de IA, preocupações sobre se eles estavam à altura do trabalho.
- China pretende fazer com que empresas notifiquem usuários sempre que um algoritmo de IA estiver sendo usado
Garantindo a confiança do público
“Se as pessoas confiarem nisso, elas o usarão”, disse o chefe de assuntos regulatórios e governamentais da International Business Machines (IBM) Corporation da UE, Jean-Marc Leclerc.
Existem enormes oportunidades para a IA melhorar a vida das pessoas de maneiras incríveis. Já é:
- ajudando a descobrir antibióticos
- fazendo os paralíticos voltarem a andar
- abordando questões como mudanças climáticas e pandemias
Mas e quanto a triagem de candidatos a emprego ou previsão da probabilidade de alguém cometer um crime?
O Parlamento Europeu quer que o público seja informado sobre os riscos associados a cada produto de IA.
As empresas que infringirem suas regras podem ser multadas em € 30 milhões ou 6% do faturamento anual global.
Mas os desenvolvedores podem prever ou controlar como seu produto pode ser usado?
Decidindo quem escreve as regras
Até agora, a IA tem sido amplamente autopoliciada.
As grandes empresas dizem que estão de acordo com a regulamentação do governo – “crítica” para mitigar os riscos potenciais, de acordo com Sam Altman, chefe da OpenAI, criadora do ChatGPT.
Mas eles colocarão os lucros antes das pessoas se se envolverem demais na redação das regras?
Você pode apostar que eles querem estar o mais próximo possível dos legisladores encarregados de estabelecer os regulamentos.
E a Baronesa Lane-Fox, fundadora do Lastminute.com, diz que é importante ouvir não apenas as corporações.
“Devemos envolver a sociedade civil, a academia, as pessoas que são afetadas por esses diferentes modelos e transformações”, diz ela.
Agindo rapidamente
A Microsoft, que investiu bilhões de dólares no ChatGPT, quer que ele “tire o trabalho enfadonho”.
Ele pode gerar prosa humana e respostas de texto, mas, Altman aponta, é “uma ferramenta, não uma criatura”.
Os chatbots devem tornar os trabalhadores mais produtivos.
E em algumas indústrias, a IA tem a capacidade de criar empregos e ser uma assistente formidável.
Mas outros já os perderam – no mês passado, a BT anunciou que a IA substituiria 10.000 empregos.
O ChatGPT entrou em uso público há pouco mais de seis meses.
Agora, ele pode escrever redações, planejar as férias das pessoas e passar em exames profissionais.
A capacidade desses modelos de linguagem em larga escala está crescendo a uma taxa fenomenal.
E dois dos três “padrinhos” da IA - Geoffrey Hinton e o professor Yoshua Bengio – estão entre os que alertam que a tecnologia tem um enorme potencial de danos.
A Lei de Inteligência Artificial não entrará em vigor até pelo menos 2025 – “muito tarde”, diz a chefe de tecnologia da UE, Margrethe Vestager.
Ela está elaborando um código voluntário provisório para o setor, junto com os Estados Unidos, que pode ficar pronto em semanas.