Artigos
Estaria a mentir se dissesse que a Inteligência Artificial não é uma das tecnologias mais fascinantes que vi em toda a minha vida. Vivemos tempos incríveis, que poderão ser um ponto de viragem na história da humanidade. No entanto, estes são também tempos que impõem apreensão e discussão.

O avanço técnico no campo da Inteligência Artificial caminha hoje a uma velocidade exponencial que dificilmente a nossa sociedade conseguirá acompanhar. A mudança em curso é maior do que simples ferramentas que nos permitem criar texto, imagem ou música — que por si já têm um efeito disruptivo no mercado de trabalho ou no mundo da arte. E coloca pressão sobre o ensino, a legislação e, inevitavelmente, a classe política.

O ponto de viragem no campo da Inteligência Artificial que hoje atravessamos representa o início da passagem da chamada Narrow AI (uma inteligência que ultrapassa o desempenho humano num determinado campo) para uma General AI (uma inteligência com capacidade de aprender a aplicar conhecimento em vários domínios em simultâneo). Uma passagem que não deve ser feita de ânimo leve devido aos riscos que traz à própria liberdade, democracia e vida humana.

Nesse sentido, a proposta de se parar por seis meses a investigação dos grandes modelos de Inteligência Artificial, apresentada no recente manifesto “Pause Giant AI Experiments: An Open Letter”, assinado por mais de 22 mil pessoas, entre as quais alguns líderes mundiais de referência (como Elon Musk, Yuval Noha Harari ou Steve Wozniak), traz à discussão esta necessidade urgente de regulamentação e discussão do impacto da Inteligência Artificial na sociedade.

Na “carta” lemos que as decisões do impacto da Inteligência Artificial são de tal ordem que não podem ser delegadas a líderes tecnológicos não eleitos. E este é o ponto principal. A Inteligência Artificial deixou de ser uma questão tecnológica. É uma questão política. E os nossos eleitos não se podem demitir da sua principal função de legislar e regulamentar.

Urge a criação de boas práticas, legislação e mecanismos de fiscalização no campo da Inteligência Artificial. Concordando com os perigos manifestados na “carta”, não podemos deixar que se desenvolvam entidades superiores à capacidade humana sem que estas tenham padrões éticos e valores no seu código. Uma Super AI sem valores humanos é um perigo para a nossa própria existência, quer por ser programada para objetivos maliciosos, quer por ter objetivos meritórios, mas não olhe a meios para os alcançar.

O que seria se uma Super AI programada para preservar o planeta decidisse que a melhor forma de o fazer seria explodir meia dúzia de centrais nucleares? Ou colapsar o sistema financeiro? Bloquear as cadeias de distribuição de medicamentos e alimentos? É fundamental percebermos que as máquinas terão os valores que lhe serão impostos. Sem padrões éticos, existe um risco real de uma Inteligência Artificial ficar fora de controlo. Há o risco de escapar da mão do criador e facilmente nos lesar ou subjugar. Quem nos defende disto? Os líderes tecnológicos? Dificilmente.

Se me perguntam o que penso sobre uma paragem de seis meses, terei de dizer que será impossível de impor ou controlar. Mas a “carta” tem o mérito de trazer o tema para a agenda e pressionar as autoridades competentes a agirem de forma célere. Queremos que sejam os líderes tecnológicos a decidir que ética devem ter as máquinas? Queremos deixar essa decisão à arbitrariedade dos técnicos? A resposta é sempre que não. Devem ser os eleitos a tomar essa decisão. É a sua função.

Terão de ser os governos a assumir uma função regulatória da IA. É por isso que os elegemos. Para que alguns digam o que vale para todos. Existe alguma esperança, dado que a União Europeia já está quase a produzir legislação avançada sobre este tema. Mas, neste ponto de viragem sobre o futuro da humanidade, a classe política não nos poderá falhar. Estará à altura?

 

Artigo publicado na Líder Magazine, a 14 de abril de 2023.

Últimos artigos