Transformação além do digital

A Inteligência Artificial (IA) é um campo da ciência da computação que se concentra no desenvolvimento de sistemas e máquinas capazes de realizar tarefas que normalmente exigiriam inteligência humana. 

Esses softwares são projetados para simular processos cognitivos humanos, como aprendizado, raciocínio, resolução de problemas e percepção. Assim, é possível automatizar tarefas complexas e tomar decisões com base em dados.

A IA abrange uma ampla gama de técnicas e abordagens, incluindo a aprendizagem de máquina, redes neurais artificiais, processamento de linguagem natural e visão computacional. Essas tecnologias permitem que os sistemas de IA aprendam com dados, reconheçam padrões, façam previsões e interajam de forma mais natural com os seres humanos

A  inteligência artificial já é uma realidade 

A Inteligência Artificial tem se tornado uma força dominante na sociedade atual, impactando diversos aspectos da nossa vida diária. Afinal, essa tecnologia oferece resultados que, muitas vezes, se assemelham aos resultados produzidos pelos seres humanos.

Avanços recentes na área de aprendizagem de máquina (machine learning) permitiram, inclusive, que sistemas de software se tornassem capazes de criar conteúdo novo e original na forma de textos, imagens, áudios e vídeos. 

A principal consequência dessas mudanças é o aumento expressivo no uso da IA no cotidiano das pessoas. 

Sustentabilidade energética e IA

A sustentabilidade energética no desenvolvimento de tecnologias de Inteligência Artificial (IA) contribui proativamente para o futuro sustentável da indústria e do planeta. 

Uma empresa consciente dos desafios relacionados à redução do impacto ambiental deve implementar estratégias sólidas para viabilizar a aplicação desta tecnologia.

As organizações, sempre que possível, devem optar por soluções baseadas em computação distribuída ou computação em nuvem, onde recursos são compartilhados entre várias organizações, evitando a necessidade de investimentos excessivos em hardware local e permitindo maior eficiência energética. 

Nesse contexto, dois fatores permitem a economia de energia durante o treinamento e execução dos modelos de aprendizagem de máquina: os otimizadores de modelos e algoritmos de aprendizado profundo mais leves.

Ética dos modelos de Inteligência Artificial

Os modelos de aprendizagem de máquina podem refletir e amplificar o preconceito humano, perpetuando discriminações contra determinados grupos de pessoas. 

As redes neurais artificiais podem “aprender” sobre o que é certo e errado conforme os dados sobre os quais ela é treinada, assim como as crianças podem absorver vieses preconceituosos sobre diversos temas. 

Além disso, a falta de transparência em alguns modelos de aprendizagem de máquina pode dificultar a identificação de vieses e preconceitos. A discriminação algorítmica pode reproduzir padrões existentes de discriminação e herdar preconceitos presentes nos dados de treinamento. 

A preocupação cada vez maior das empresas sobre esse tema é ilustrada no texto de lançamento do modelo Claude 3 da empresa Anthropic, em março de 2024: “Continuamos comprometidos com o avanço de técnicas que reduzam vieses e promovam maior neutralidade em nossos modelos, garantindo que eles não sejam enviesados para qualquer postura específica”.

Esses desafios devem ser enfrentados pelas empresas de forma decisiva, adotando práticas de mitigação de vieses e preconceitos em seus modelos de aprendizagem de máquina, como:

  • Diversificação dos dados: incluir representantes de diversos grupos demográficos e culturais nos conjuntos de dados de treinamento, validação e teste;
  • Monitoramento contínuo: realizar análises periódicas para detectar possíveis vieses e preconceitos nos resultados produzidos pelos modelos de inteligência artificial. 

A alucinação da Inteligência Artificial Generativa

O conceito de alucinação em modelos de aprendizagem de máquina refere-se às situações em que os algoritmos geram resultados inconsistentes, imprecisos ou até mesmo falsos. 

Esses erros podem ser causados ​​por diversos fatores, incluindo dados de treinamento insuficientes, suposições incorretas feitas pelo modelo ou vieses nos dados usados ​​para treinar o modelo. 

Segundo uma pesquisa realizada em 2023 pela McKinsey, 79% das pessoas já utilizam Inteligência Artificial Generativa (IAG) no dia a dia. Contudo, as alucinações de IA podem ser um problema para todos os sistemas da IAG.

As seguintes medidas podem ser tomadas para reduzir significativamente as chances de alucinação em modelos de aprendizagem de máquina:

  • Usar dados de treinamento de alta qualidade: garantir que os modelos de IAG sejam treinados em dados diversos, equilibrados e bem estruturados pode reduzir amplamente as chances de alucinação por partes dos modelos;
  • Definir claramente o propósito do modelo: explicar como você usará o modelo de IA – bem como quaisquer limitações no uso do modelo – ajudará a reduzir as alucinações. As equipes devem estabelecer as responsabilidades e limitações do sistema de IA escolhido. Com isso, as tarefas serão solucionadas com mais eficiência e menos resultados irrelevantes e alucinatórios;
  • Realizar a constante supervisão humana: a validação e revisão humana dos resultados da IA ​​é uma medida final para evitar alucinações. Um revisor humano pode identificar alucinações nos resultados da IA e alertar o time de desenvolvimento para tomar as ações técnicas necessárias para corrigir o problema identificado.

Segurança dos dados e IA

A The Open Worldwide Application Security Project  – OWASP é uma comunidade internacional aberta, sem fins lucrativos, na qual as organizações podem desenvolver, operar e manter seus softwares com segurança. 

No contexto da aplicação da IA, a OWASP afirma que a cibersegurança continua sendo uma preocupação constante no que diz respeito ao uso da inteligência artificial. Contudo, também aponta que essa tecnologia adicionou novos aspectos relacionados à segurança de dados e privacidade

Garantir que as ferramentas de inteligência artificial atendam aos mais altos padrões de segurança cibernética e proteção é a melhor forma de mitigar os novos riscos trazidos por essa tecnologia. 

Dentre essas preocupações está a utilização dos dados fornecidos para as ferramentas para o treinamento ou ajuste fino do modelo de Inteligência Artificial. Nesses casos, as ferramentas podem, inadvertidamente, compartilhar dados sensíveis ou sigilosos informados pelos usuários.

Neste cenário, considerando que os sistemas de IA lidam com informações sensíveis, medidas rigorosas vêm sendo implementadas para proteger a privacidade dos dados utilizados pelas IAGs e, consequentemente, proteger também os direitos dos cidadãos, como acontece na Lei Geral de Proteção de Dados (LGPD)..

Com avanços notáveis na área de aprendizagem de máquina e a crescente adoção da IA no cotidiano, é essencial considerar o impacto ético, a sustentabilidade energética e a segurança dos dados. 

Empresas e pesquisadores estão cada vez mais conscientes da importância de abordar essas questões de forma proativa, implementando práticas para mitigar vieses, garantir a segurança dos dados e a sustentabilidade ecológica. 

Ao enfrentar esses desafios com responsabilidade e inovação, podemos aproveitar ao máximo o potencial transformador da Inteligência Artificial, promovendo um futuro mais ético, sustentável e seguro para todos.

Maurício Seiji

Maurício Seiji

Cientista da Computação com mestrado em Inteligência Artificial pela Universidade Federal do Rio Grande do Sul e doutorado em Engenharia do Conhecimento pela Universidade Federal de Santa Catarina. Trabalha em projetos de desenvolvimento de software há 28 anos e, atualmente, lidera um time de Inteligência Artificial Aplicada na empresa Softplan. Maurício é professor em cursos de graduação e pós-graduação desde 2003 e, atualmente, é ministra no curso de Inteligência Artificial da PUC do Rio Grande do Sul.

Deixe um comentário