Os avanços em IA (Inteligência Artificial) têm se sucedido em velocidade tão estonteante que não poderíamos ser culpados se, às vezes, nos pegássemos pensando que essa tecnologia é um “ser” com consciência e vontade próprias. Não é (ainda, pelo menos). Trata-se de uma ferramenta, feita para estar a serviço das pessoas. Mas ela vem sendo aplaudida e adotada quase imediatamente, a cada nova funcionalidade que é descoberta. Pode não ser uma sugestão muito popular, mas é preciso desacelerar um pouco. Porque há discussões e considerações de ordem ética, moral e legal que têm de ser feitas. E estas não combinam com açodamento e pressa.
Já chegamos ao ponto de ver um chip implantado em tecido cerebral, com a expectativa de que em algum momento se poderá controlar dispositivos (computadores, smartphones e outros) a partir do pensamento. O feito vem da startup de Elon Musk, a Neuralink. Reportagem do The Wall Street Journal diz que a ambição de Musk é que os chips cerebrais façam com que “a raça humana possa acompanhar a inteligência artificial” e possam “mitigar os riscos de longo prazo” que ela representa.
Por mais distante que esteja ainda um tal uso (feito com eficiência e capaz de ser adotado em massa), o tema já saiu por completo do terreno da ficção. Já não é mais questão de “se um dia vier a acontecer”. O momento é de pensar em preparativos concretos, implementáveis, para sua chegada.
De uma certa forma, a humanidade veio se preparando ao longo de muito tempo para a IA. O professor Mark Coeckelbergh, da Universidade de Viena, menciona, por exemplo, o “complexo de Frankenstein” – e o medo que causa a ideia de uma forma de vida artificial saindo do controle (a expressão “inteligência artificial”, claro, não estava em uso – mas dessa ideia, em si mesma derivada de algumas mitologias e religiões, viemos a pensar nos robôs). No cinema, nem uma lista breve de exemplos de inteligências artificiais “rebeldes” caberia aqui.
Pois eis que estamos no momento da história em que é preciso fazer perguntas do tipo: Qual será o estatuto legal de uma IA? Em um acidente de trânsito com um veículo guiado por IA, quem é responsável? Chegará o ponto de humanos e máquinas se tornarem indistinguíveis? Se chegar, que papel terão os humanos? Haverá uma superinteligência artificial (um aprimoramento recursivo, em que a IA projetaria os próprios avanços de forma ilimitada), como temem alguns dos mais pessimistas, e que por fim escravizaria a humanidade? E como fica a questão da desigualdade? No Brasil, algumas regiões têm amplo acesso, enquanto outras sequer tem energia elétrica. O SUS terá sistemas eficientes de IA?
São questões do terreno da ética. Longe do estereótipo de serem “filosóficas demais” (uma discussão abstrata, da qual só iniciados poderiam participar), tais questões são, sim, filosóficas – mas estão surgindo em tempo real por toda parte, e requerem nossa atenção. Não (ou não apenas) para conversas amenas, como se não dissessem respeito a nós e a nosso entorno. Elas precisam ser trazidas a público, para que a discussão ocupe o maior espaço possível.
E, mais do que temores fundados em mitos e interpretações catastrofistas, é preciso pensar em respostas e posicionamentos para as questões práticas que o atual estágio da IA já coloca. A OMS (Organização Mundial da Saúde) publicou recentemente um documento em que sugere seis princípios que podem orientar políticas e práticas de governos, desenvolvedores e fornecedores que fazem uso da IA.
Os princípios são: proteger a autonomia; promover bem-estar, segurança e interesse público; garantir transparência; fomentar responsabilidade e prestação de contas; garantir inclusão e equidade; e promover a IA responsiva e sustentável. Eis uma base bastante consistente em que fundamentar debates e políticas públicas. E uma base legítima, vinda de um órgão global que deu prova de seu valor na recente pandemia de covid-19.
Mesmo onde já existem regulamentações, tais princípios certamente servem de guia para orientar os trabalhos de órgãos de governo e de Justiça do mundo todo. Relatório recente da ONU (Organização das Nações Unidas) publicado em 2023 aponta que, mesmo que já existam no mundo todo diversos conjuntos de regras e legislações, elaborados seja pelo setor privado, seja pela sociedade civil, seja ainda por órgãos multilaterais (como o da própria OMS), falta um alinhamento global de implementação – pela razão mesma de serem regras e legislações próprias de cada país.
A União Europeia, por exemplo, declarou que quer regulamentar a IA para “garantir melhores condições para o desenvolvimento e utilização desta tecnologia inovadora”, em vista dos benefícios que dela podem derivar – como “melhores cuidados de saúde, transportes mais seguros e limpos, fábricas mais eficientes e energia mais barata e sustentável”. O chamado “AI Act” foi proposto pelo Parlamento Europeu em 2021 e propõe que as aplicações da IA serão analisadas quanto ao risco que põem para os usuários e a regulamentação será maior ou menor conforme esse risco.
Inaceitáveis, para o Parlamento Europeu, são, por exemplo, a “manipulação cognitivo-comportamental” de vulneráveis (brinquedos ativados por voz que incentivem comportamentos perigosos); o “ranqueamento” de pessoas com base em condição socioeconômica ou características pessoais; e identificação biométrica remota e em tempo real (reconhecimento facial). Algumas dessas restrições não representam problemas para outras regiões do mundo. Só aí já existe farto material para a discussão da ética da IA.
No Brasil, temos o Marco Civil da Internet, de 2014, que, mais que regras estritas e minuciosas, tem na base princípios, como neutralidade, liberdade de expressão e privacidade. Fica espaço para considerar casos que exijam atenção específica. Até abril, o Senado deve votar o projeto de lei 2.338/2023, que cria o marco legal para a IA (a partir do trabalho de uma comissão de juristas que analisou ainda outras propostas e as leis existentes em outros países). A própria natureza da IA exigirá revisões frequentes – porque usos de que nem suspeita serem possíveis hoje podem estar em pleno uso em algum futuro próximo.
Fundamental é entender que artes e mitologias não mais “monopolizam” a ideia de IA. Esta se transformou em realidade e impõe questões antigas reformuladas e outras inéditas. Só a ciência da computação não basta para encontrar as respostas. Ética, filosofia, direito, política, gestão pública e outras são áreas em que muito do que se fará na IA precisa ser debatido.