Autor Convidado: António Lopes

Inteligência Artificial e o seu impacto na sociedade

Imaginem que vos davam a escolha de viver em qualquer outro ponto da história mundial. Podiam escolher viver entre os dinossauros, podiam explorar os primórdios da civilização humana, podiam testemunhar como seria viver na idade média ou podiam até explorar alguns dos séculos mais recentes. Que época escolheriam?

Esta é naturalmente uma pergunta retórica, porque a verdade é, excluindo a curiosidade de conhecer realmente como seriam esses tempos, que outra razão haveria para escolher viver noutra altura que não agora?

A esperança média de vida é maior e a mortalidade infantil cada vez menor, as populações a viver na pobreza são cada vez menos, a medicina evoluiu ao ponto de conseguirmos eliminar infeções com um comprimido, temos gerações inteiras que felizmente nunca tiveram de testemunhar guerras, temos a liberdade para defendermos as nossas ideias sem medo de perseguição política ou social, e temos acesso a quase todo o conhecimento do planeta num dispositivo que anda connosco no bolso. Talvez não dêmos a importância que devíamos aquilo que temos agora, mas a verdade é que viver no presente parece ser sempre a melhor altura.

Naturalmente, os tempos que vivemos também não são perfeitos, haverá sempre espaço para melhorar. Mas o facto da sociedade estar continuamente melhor, é razão para defender o progresso que resulta da aplicação humanista da ciência e tecnologia. Temos de procurar defender aquilo que efetivamente contribui para o avanço da sociedade como um todo.

Posto isto, também não podemos cair no erro de glorificar a ciência e tecnologia ao ponto de achar que tudo o que daí advém é perfeito para servir a sociedade. Não é, e é importante que todos nós tenhamos essa noção e essencialmente, que tenhamos a visão crítica para definir qual o caminho que queremos e principalmente, o caminho que não queremos. Mas ser capaz de reconhecer esses caminhos possíveis, implica que os consigamos ver e, mais importante ainda, compreender.

A educação desempenha aqui um papel essencial, pois só assim podemos garantir que a sociedade está equipada para tomar estas decisões face aos desafios que lhes são apresentados. E desafios não nos faltam: aquecimento global, desigualdades sociais e económicas e pandemias. Estes são só os desafios evidentes. Mais difícil é lidar com os desafios que não são tão evidentes. E um deles é a Inteligência Artificial (IA).

A IA tornou-se ubíqua na sociedade atual, e por vezes as pessoas não se apercebem da importância e impacto que a IA tem no nosso mundo atual. E não, não estou a falar daquela IA fatalista que tem sido habitualmente retratada no mundo do entretenimento, em que robots do futuro querem destruir a sociedade humana. Quando pensarem em IA, não pensem em robots assassinos, pensem antes em algoritmos.

Photo by mahdis mousavi on Unsplash
Photo by mahdis mousavi on Unsplash

Efetivamente, a base daquilo que hoje em dia se chama de IA não é mais do que um conjunto de algoritmos que, agrupados de certa forma, dão a ilusão de inteligência. E são esses algoritmos que alimentam uma boa parte dos sistemas com que lidamos no dia-a-dia. Algumas dessas instâncias de IA são muito evidentes para nós, como os sistemas que decidem que fotos aparecem quando estão a fazer scroll no instagram, ou as séries que vos são recomendadas no Netflix, ou os anúncios que vos aparecem na internet. Outras não são tão evidentes para a generalidade das pessoas, como os sistemas que ajudam nas decisões de cedência de crédito nos bancos ou os sistemas de reconhecimento facial.

Seja evidente ou não, a preocupação aqui é a frequência com que se vê a IA a invadir tantas facetas da sociedade. E este aviso, vindo de alguém cuja formação é exatamente na área de IA, não pretende ser fatalista. Longe disso. Eu sou um entusiasta de tecnologia e em particular de IA, mas também sei que é importante esclarecer que nem toda a IA será boa para a sociedade. É preciso ter a noção clara das limitações da IA e como nos devemos proteger das mesmas para que a emenda não seja pior que o soneto.

Primeiro, a IA não dá certezas, dá probabilidades. A maioria dos algoritmos que são usados hoje em dia para procurar respostas para um determinado problema, não são mais do que métodos estatísticos (muitos deles com meio século de existência) que usam uma grande quantidade de dados para calcular uma determinada probabilidade de que certas conclusões são verdadeiras. Como o sistema dentro da Netflix que decide recomendar que quem viu a série X, vai gostar da série Y. Isto é o típico sistema que usa os milhões de registos de atividade de utilizadores na plataforma para encontrar relações entre esses dados.

Mas as respostas que o sistema encontra são apenas probabilidades. Nada garante que lá porque eu vi uma determinada série, vou gostar daquela outra série que o Netflix acha que eu vou gostar. E enquanto estamos a falar de sistemas que fazem recomendações do que ver na TV, um erro nessas probabilidades provavelmente não terá impacto na vida da pessoa a não ser fazê-la perder tempo a ver uma série que afinal não é interessante. Mas se estivermos a falar de um sistema que decide se uma pessoa deve ou não receber um crédito bancário para a compra de uma casa, baseada numa probabilidade, já poderá causar um impacto grande na vida da pessoa.

Segundo, a IA só poderá ser tão boa quanto os dados em que se baseia. A ideia de replicar a IA no funcionamento não-simbólico do nosso cérebro levou a que muita investigação fosse baseada naquilo que hoje em dia é conhecido como redes neuronais. Basicamente, são sistemas que são treinados com diversos exemplos daquilo que se pretende que o sistema aprenda a reconhecer (ou a não reconhecer). Um exemplo seria um sistema que deveria ser capaz de, olhando para uma fotografia, identificar se é uma fotografia de um cão. Como é que se treinaria um sistema deste género? Mostram-se milhares de fotos de cão (informando o sistema que essas fotos são de cães) e mostram-se milhares de fotos de outras coisas que não são cães (informando igualmente o sistema que essas fotos não são de cães) e deixa-se o sistema identificar sozinho o que distingue uma coisa de outra.

De forma muito simplista, isto é um pouco como funciona o cérebro de uma criança. Passa anos a ver os adultos a apontar para coisas e a identificá-las de uma certa maneira (“isto é um cão”) e espera-se que a uma dada altura, a criança consiga abstrair o conceito de “cão” dos vários exemplos e a partir daí consiga identificar sozinha o que é um cão quando o vir. Mas tal como a criança, um sistema deste género só será capaz de abstrair corretamente o conceito de “cão” se os exemplos que receber ao longo da “fase de treino” forem representativos da gama imensa de raças de cães que existem. Por exemplo, se um algoritmo for treinado só com cães da raça Chihuahua, muito provavelmente não será capaz de identificar um cão da raça Doberman. Ou então, como já aconteceu, confundir o Chihuahua com um muffin.

Ter um sistema a reconhecer erradamente um muffin como sendo um Chihuahua é relativamente inofensivo e motivo para esboçar um sorriso. Mas quando sistemas deste género não conseguem distinguir entre pessoas de pele escura e gorilas ou quando “detetam” que pessoas asiáticas estão sempre de olhos fechados, o problema é bastante mais grave. E como disse no início, o problema não está tanto nos algoritmos usados mas nos dados que se usam para servir de exemplos. E aqui estamos no fundo a ver a consequência da falta de diversidade no mundo da tecnologia e introdução de preconceitos humanos na concepção da IA.

Terceiro, a IA também pode ser usada como uma arma. O uso de técnicas de IA para fazer a deteção de perfis de utilizadores para melhor servir os anúncios que vêem na internet é uma técnica usada há muitos anos. A motivação capitalista para o fazer é natural e faz parte do processo comercial de tentar encontrar a ponte entre quem vende um produto e quem o quer comprar. O pior é quando o mesmo mecanismo é usado para encontrar a melhor maneira de influenciar opiniões de populações inteiras, por exemplo, através da identificação dos utilizadores que serão mais susceptíveis a acreditar em histórias falsas de políticos de forma a influenciar eleições.

É difícil afirmar com toda a certeza que foi este tipo de abordagem que permitiu ao Trump ganhar as eleições nos Estados Unidos da América em 2016, mas a verdade é que este tipo de mecanismos tem sido responsável por criar uma polarização tal na sociedade norte-americana, que se chega ao ponto de conseguir radicalizar gente suficiente para dar origem a ataques a instituições democráticas, com a motivação de que as eleições de 2020 (em que Joe Biden ganhou) foram fraudulentas.

A mensagem que se pretende passar, mais uma vez, não é a ideia fatalista de que toda a IA é má. Aliás, há imensos usos interessantes de IA que poderão ajudar a melhorar a sociedade e o planeta: seja desde o uso de IA para permitir que os veículos possam assistir as pessoas na condução ou serem totalmente autónomos (cimentando assim o caminho para menos acidentes e optimização de tráfego); seja através da predição, prevenção ou deteção de doenças e procura de curas ou tratamentos personalizados; seja na ajuda na contagem de populações de animais selvagens para ajudar na sua preservação e proteção contra extinção; ou seja simplesmente na ajuda a combater um dos maiores desafios atuais da humanidade, a luta contra as alterações climáticas.

O importante é percebermos que a IA não é a resposta para todos os males e tem as suas limitações. E ao aprendermos sobre essas limitações, estamos também a prepararmo-nos para lidar com elas no mundo real e evitarmos assim que tenham consequências complicadas para a sociedade. Por isso, o meu apelo é o seguinte: procurem aprender mais sobre como funciona a IA e como esta vos afeta mas também enriquece. Só assim conseguirão contribuir para a escolha do caminho certo para a sociedade.

Da minha parte, tento passar essa mensagem no Um sobre Zero, um podcast sobre o futuro da ciência e tecnologia e o seu impacto na sociedade. Se estas temáticas são do vosso interesse, podem ouvir o podcast ou seguir a newsletter. Seria uma honra ter-vos como membros ativos da comunidade Um sobre Zero.

 #SociedadePortugal; #AutoresConvidados; #ArtificialIntelligence; #UmSobreZero

Publicado por Hugo Barbosa

Empenhado em deixar o mundo um pouco melhor do que o encontrei!

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

%d bloggers like this: