Ética na Inteligência Artificial: um guia prático para engenheiros

Alexandre Aroeira Salles é Doutor e Mestre em Direito, além de Fellow no Chartered Institute of Arbitrators.  É membro do conselho da International Construction Law Association (ICLA) e diretor do Instituto Brasileiro do Direito da Construção (IBDiC)

Imagine a cena: você está tranquilo no escritório quando, de repente, um robô virtual da Indonésia decide invadir seu sistema, atacando criminalmente 15 organizações pelo mundo, incluindo a sua. Ufa, graças a softwares de proteção, nada de danos. Mas e se não houvesse? Robôs éticos contra robôs antiéticos – isso soa como ficção científica, mas é o dilema que nos cerca hoje. Eu mesmo vivi isso há pouco, e foi o gancho perfeito para refletir sobre o tema que abordei em uma palestra na Sociedade Mineira de Engenheiros: ética na inteligência artificial (IA).

Aqui, vamos transformar aquelas ideias em um guia prático, leve e útil para vocês, engenheiros, navegarem nesse mar de algoritmos sem perder o norte ético. Vamos rir um pouco dos nossos tropeços humanos enquanto aprendemos a domar essas máquinas “espertas” demais.

Começando pelo básico, o que é ética, afinal? É aquela reflexão filosófica que nos ajuda a separar o certo do errado, o justo do injusto, o bom do mau. Diferente da moral, que são os costumes locais, a ética busca razões universais para guiar nossas ações. Pense nela como o GPS racional da humanidade.

Agora, será que ela se aplica a animais ou máquinas? Animais agem por instinto – um leão protege sua cria, mas não por um senso de justiça cósmica. Eles não têm aquela vozinha interna dizendo “isso é errado”. Máquinas, então? Elas seguem códigos, sem consciência ou livre-arbítrio. Se um carro autônomo causa um acidente, a culpa é do programador, não do veículo. Mas e a IA? Ela simula decisões éticas, mas reflete a ética (ou a falta dela) de quem a criou. Um software para transparência em projetos pode elevar a integridade; outro para manipulação de dados pode afundá-la. No fim, só nós, humanos, com nossa razão e liberdade, escolhemos o caminho ético. Ou será que a IA está evoluindo para algo mais? Vamos ver. 

Lembra das leis da robótica de Isaac Asimov, lá de 1950? Em “Eu, Robô”, ele propôs regras simples: 1ª) não ferir humanos; 2ª) obedecer a ordens (sem conflitar com a primeira); 3ª) proteger-se e, na Lei Zero, não prejudicar a humanidade. Bonito no papel – virou filme de Hollywood em 2004 –, mas e na prática? Há prós como proteção e obediência, mas contras como conflitos inevitáveis e aplicação complicada na vida real. Imagine um drone de engenharia civil: deve priorizar a segurança humana (e a dos pássaros) ou completar a inspeção a todo custo? Essas leis nos fazem rir da nossa ingenuidade, mas nos obrigam a pensar: como exercemos a ética no dia a dia?

Nós, humanos, não somos perfeitos. Individualmente, cultivamos virtudes como autocrítica e empatia, questionando se nossas ações são justas. Em empresas, criamos códigos de conduta e culturas de integridade, treinando equipes para transparência. No âmbito estatal ou profissional, como no Confea, há princípios como honradez e eficácia, deveres de sigilo e vedações à má-fé. Mas, ah, os desafios!

Interesses conflituantes, como a ganância, nos tentam; pressões sociais, como a corrupção, nos desviam; e o relativismo moral em sociedades plurais nos confunde. Pior: nossos limites racionais, cheios de vieses cognitivos. Viés de representatividade nos faz julgar por estereótipos; de disponibilidade, por memórias vívidas; de ancoragem, por números iniciais; de excesso de confiança, por acharmos que somos infalíveis; e de confirmação, por buscarmos só o que reforça nossas crenças. Na engenharia, sob pressão de prazos, esses vieses levam a erros – pense em um cálculo estrutural enviesado por otimismo excessivo.

A neurociência confirma: emoções bagunçam nossa razão. Antídoto? Processos padronizados, normas como NBRs e análises pré-mortem, imaginando falhas antes que aconteçam.

Agora, a IA é imune a isso? Nem pensar! Modelos como LLMs aprendem padrões de dados humanos, herdando nossos vieses. Um algoritmo de otimização de projetos pode discriminar involuntariamente se treinado em dados enviesados, priorizando certas regiões ou perfis. Vieses de representatividade fazem a IA generalizar errado; de disponibilidade, focar em casos comuns; de excesso de confiança, gerar “alucinações” – respostas fictícias com cara de verdade. Para engenheiros, os riscos são concretos: automação acrítica levando a falhas em estruturas; dados inadequados comprometendo simulações; falta de rastreabilidade em decisões; erros de domínio, como ignorar normas locais; violações de privacidade em dados de clientes; direitos autorais em designs gerados; cibersegurança fraca; dependência de fornecedores; e explicabilidade insuficiente – por que a IA decidiu assim?

Então, como o engenheiro deve agir, no dia a dia, eticamente? Aqui vai o guia prático, sem listas intermináveis, mas fluido como um projeto bem executado:

1. Competência: use a IA só no que você domina, validando outputs com fontes reais.

2. Transparência: documente prompts e resultados, marcando incertezas.

3. Conformidade: siga leis como LGPD para dados e, caso promulgado, o Projeto de Lei 2338/2023 para IA.

4. Julgamento irrenunciável: IA é copiloto, não piloto; revise tudo humanamente.

5. Sigilo: anonimize dados sensíveis, evite ferramentas públicas.

Para empresas, adotem políticas claras: qualidade em outputs, rastreabilidade de processos, due diligence em fornecedores, cibersegurança robusta, capacitação contínua e cláusulas éticas em contratos. Associações como Crea e SME podem liderar, emitindo diretrizes, criando selos para ARTs com IA, exigindo rastreabilidade, oferecendo treinamentos, fiscalizando conformidade, certificando ferramentas, abrindo canais para incidentes e atualizando códigos éticos.

Na prática, sigam um procedimento simples: defina o papel da IA no projeto (auxiliar, não decidir); colete normas aplicáveis; configure a ferramenta com dados éticos; valide outputs com checagens cruzadas; registre tudo; decida humanamente; e tire lições para próximos. Governos estão regulando – vide AI Act da UE ou nosso PL 2338 –, focando em privacidade, equidade e transparência, mas também em oportunidades: a IA melhora a produtividade em engenharia, detecta anomalias em obras, otimiza as decisões e reforça a integridade.

No fim, ética na IA é sobre segurança, responsabilidade e esperança. Pergunte-se diariamente: essa IA é segura? Justa? Explicável? Assim, transformamos o risco em aliado, rindo dos nossos vieses enquanto construímos um futuro melhor. Vamos nessa, engenheiros – a IA espera por vocês, mas com a ética no comando.

“No fim, ética na IA é sobre segurança, responsabilidade e esperança. Pergunte-se diariamente: essa IA é segura? Justa? Explicável? Assim, transformamos o risco em aliado, rindo dos nossos vieses enquanto construímos um futuro melhor.”

Artigos Relacionados