Entrevista. Pedro Conceição: “A inteligência artificial apresenta-nos desafios éticos em diferentes vertentes”
O diretor do Gabinete do Relatório de Desenvolvimento Humano considera que um dos desafios éticos da IA é o tipo de informação usada para treinar os modelos e perceber “se não há uma hegemonização” de uma visão do mundo.
“Acho que a inteligência artificial apresenta-nos desafios éticos em diferentes vertentes”, começa por dizer Pedro Conceição, diretor do Gabinete do Relatório de Desenvolvimento Humano do Programa das Nações Unidas para o Desenvolvimento (PNUD), em entrevista à Lusa.
“Quanto a mim, talvez o mais importante tenha a ver com o tipo de informação que é utilizado para treinar os modelos de inteligência artificial e tentar perceber se não há uma hegemonização de uma forma de olhar para o mundo”, prossegue o responsável, que esteve Portugal para participar na conferência do projeto Bridge AI.
Esta forma de olhar para o mundo “vem de um conjunto de sociedades e de (…) pessoas que, tanto historicamente, olhando para a evolução da humanidade, como geograficamente, pode não ser representativa da forma como muita gente olha para o mundo”, refere.
Ou seja, “de que forma é que podemos atribuir o valor moral universal dado que há diferenças culturais e perspetivas diferentes e como é que se concilia essa diversidade com a hegemonia que está associada a muitos” destes modelos, questiona Pedro Conceição.
Por exemplo, há sociedades onde o individualismo e a autonomia individual é o valor mais importante, e em outras o valor da comunidade é que tem mais prevalência. Como se “consegue conciliar esta diversidade, num contexto em que temos estas máquinas que estão a ser utilizadas por todo o mundo”, e em que “aquilo que elas nos estão a dizer não é neutro (…), representa uma perspetiva parcial”, questiona.
Há modelos diferentes relativamente à forma como a IA está a ser utilizada: Em parte da América do Norte “o propósito essencial da inteligência artificial é superar aquilo que os humanos conseguem fazer e tentar encontrar formas de rentabilizar economicamente, por empresas, essas capacidades desta nova tecnologia, quando poderíamos conceber um propósito diferente”, diz.
“Poderíamos tentar perceber um objetivo que seria não superar aquilo que os humanos conseguem fazer, mas tentar encontrar aplicações que expandem aquilo que as pessoas conseguem fazer”, considera.
E dá o exemplo dos media darem “muita ênfase ao facto de uma máquina conseguir ter um desempenho melhor que uma pessoa no jogo de xadrez”, criando manchetes, mas tal não “ajuda necessariamente com pessoas”, ao contrário do que acontece com o uso da IA na biologia.
Aí “está a colmatar lacunas” dos cientistas e este “é um exemplo de uma utilização da inteligência artificial para aumentar aquilo que as pessoas estão a fazer”, ou seja, um propósito diferente.
“Por isso, acho que a forma como se estruturam incentivos, digamos assim, relativamente à direção que a inteligência artificial vai prosseguir, é sujeita a mudar e temos a oportunidade de a mudar na direção de conseguir que” a IA ajude as pessoas a fazerem mais e melhor “e não ter esta obsessão” da IA superar as pessoas.
Qual é o propósito desta ferramenta? “É aumentar o lucro de empresas que têm a capacidade de desenvolver estes algoritmos? É aumentar a capacidade de alguns governos em condicionar o debate público? Todas estas opções são possíveis e estão em cima da mesa e estão a ser perseguidas”, afirma.
A seu ver, isto “tem menos a ver com a tecnologia em si e mais a ver com a persistência destes interesses e destes incentivos que (…) têm vindo a ser utilizados” com outras tecnologias ao longo de décadas, se não séculos, acrescenta.
Isto porque as campanhas de desinformação, envolvendo potencialmente diferentes Estados, “não começaram agora” com as redes sociais e com IA: “Tem décadas”, enfatiza.
A IA pode amplificar ou mitigar os riscos. Pedro Conceição dá o exemplo de um estudo recente que mostra, que na interação com o ChatGPT, se for detetado que alguém acredita em teorias da conspiração, este modelo de IA “começa a desafiar a pessoa nos seus pressupostos”.
Portanto, “depende da forma como a tecnologia é utilizada e também podemos utilizar estas tecnologias de forma que nos ajudem a mitigar estes riscos”, sublinha. À questão se a IA é boa ou má, Pedro Conceição remata: “As duas coisas”.
Por isso “é que este projeto do Bridge AI é tão importante porque (…) a tecnologia em si mesma somos nós, a tecnologia são as pessoas, são as escolhas que as pessoas fazem, por isso são as escolhas que (…) as nossas sociedades vão fazer é que vão determinar se o rumo da tecnologia é bom ou mau”, considera.
O Bridge AI sugere a realização de um inquérito nacional sobre literacia em IA, sendo esta uma das recomendações preliminares para apoiar decisores políticos na aplicação do regulamento europeu de IA (AI Act).
Tal como a fissão nuclear, que pode ser usada para produzir energia ou armas, assim é a IA. Estes debates, prossegue, “não são novos, estão sempre presentes com novas tecnologias”. Agora, “penso que uma das coisas que talvez seja nova com a inteligência artificial – e é um tema que nós estamos a estudar – é que vai ao âmago das interações sociais, da forma como as pessoas partilham informação entre si, da criação de informação e de conhecimento. E, nessa medida, penso que talvez traga problemas com configurações novas”, admite.
Pedro Conceição considera ainda que a abordagem do AI Act “é correta no sentido de ser de certa forma flexível e orientada para a identificação de riscos”.
Agora, “talvez tenha que ser dinâmica e acompanhar o desenvolvimento da tecnologia, mas isso parece-me que é uma atitude, uma abordagem que talvez nos dê a combinação de flexibilidade e celeridade que é necessária para lidar com os riscos, sem deixar cair as oportunidades”, conclui.