Carregando...

A outra face IA: os perigos ocultos para as empresas

Por Toni Hebert, sócio líder de Risk Advisory Services da BDO

Quando se fala em inovação, e principalmente, nas manchetes do mundo corporativo, a Inteligência Artificial (IA) é a estrela da vez. Incontestável. O assunto gira em torno de aumento de produtividade, redução de custos e otimização de tarefas. As situações e aplicações atuais, até pouco tempo, poderiam ser classificadas como ficção científica. E, de fato, a IA tem esse poder transformador. Contudo, com a minha vivência em Risk Advisory Services (RAS), recomendo um olhar além do brilho superficial dessas funcionalidades.

Neste momento de euforia é preciso coragem, mas alguém precisa dizer: há riscos! E eles são significativos. Caso negligenciados, podem não apenas frear o avanço, mas causar danos substanciais às empresas. A corrida pela implementação da IA é intensa, mas a gestão dos seus riscos, muitas vezes, fica em segundo plano. Muitas empresas só irão parar para pensar nisso depois que algo acontecer. Correr para aproveitar tudo que a IA oferece neste momento sem pensar se haverá consequência é o mesmo que construir uma casa sem pilares. Uma hora desmorona.

E quais são esses perigos? A resposta não é simples, uma vez que este risco é multifacetado e exige uma abordagem estratégica. À medida que a IA se integra aos sistemas críticos, ela se torna um novo vetor de ataque. Esses modelos podem ser envenenados com dados maliciosos ou manipulados para produzir resultados indesejados. A segurança dos dados usados para treinamento e o acesso aos próprios modelos se tornam pontos vulneráveis críticos que exigem defesas robustas.

A privacidade e confidencialidade de dados é um dos pontos mais sensíveis. A IA se alimenta de dados e o uso indevido, a coleta excessiva ou a falha na anonimização de informações corporativas ou dados pessoais podem resultar, a exemplo, em violações de privacidade e em multas pesadas, especialmente com a LGPD e outras legislações, além de potencial desgaste da imagem reputacional junto aos clientes.

Agora, a maior parte dos problemas pode vir da falta de transparência. Muitos modelos de IA, especialmente os mais complexos como as redes neurais profundas, operam como verdadeiras caixas-pretas. É difícil entender como chegam a certas decisões. Essa falta de explicabilidade dificulta a auditoria, a correção de erros e a conformidade regulatória, gerando desafios éticos e de responsabilidade.

Além dos riscos tecnológicos, há um aspecto que pode mudar a forma como profissionais de diversos setores atuam. E isso pode ser perigoso. Como o uso da IA traz uma série de facilidades para os usuários, ela pode causar uma dependência excessiva. Não pode existir nada pior do que a confiança cega em uma tecnologia. Isso pode levar, sem nenhum exagero, a atrofia de habilidades críticas.

Se o sistema falhar, seja por um erro de programação, dados corrompidos ou outro aspecto, é preciso ter um humano pronto para intervir. Caso o profissional destacado para esta tarefa esteja “viciado” nas facilidades da IA, é bem provável que ele não observe os pontos de ruptura e erros. A capacidade de intervenção humana não pode nunca estar comprometida. As consequências podem ser catastróficas.

Como minimizar os riscos

A primeira coisa importante quando falamos de minimizar riscos é que não existe uma fórmula mágica, eles não serão extintos com uma só ação. É um conjunto de coisas que vai levar ao aumento da segurança. É um processo contínuo de governança e vigilância.

A governança de dados é essencial. Ela deve vir, inclusive, antes da implementação da IA. É importante investir em qualidade, privacidade e segurança. Isso inclui políticas claras de coleta, armazenamento, uso e descarte, além de estratégias de anonimização e criptografia.

Transparência, nem precisava dizer, também é um pré-requisito. É preciso desenvolver ou adotar modelos de IA mais “explicáveis”. E o que significa isso? A “caixa-preta” é obrigatória para compreender as razões por trás das decisões da IA. Junto com isso devem ser desenvolvidas políticas claras. É preciso estabelecer diretrizes éticas claras que guiem o desenvolvimento e a implementação de todas as soluções de IA da empresa. Devem abordar vieses, responsabilidade, privacidade e demais impactos.

Implementar auditorias regulares nos sistemas de IA, desde os dados de treinamento até os algoritmos e os resultados também é algo que precisa estar no radar de qualquer projeto.

A IA é o futuro. Sem dúvida, mas o verdadeiro valor e a sustentabilidade de sua adoção não estão apenas na capacidade de inovar, mas na maturidade e na disciplina com que as empresas irão adotar, sempre mantendo o gerenciamento de riscos atualizado. Negligenciar essa outra face da inovação é um erro que nenhuma organização pode se dar ao luxo de cometer. E quem entender isso primeiro tem muito mais chances de terminar essa corrida na liderança.

Compartilhe nas redes:

Boletim por E-mail

GZM NEWS

Cadastre seu e-mail e receba nossos informativos e promoções.

publicidade

Recentes da GZM

Mais sessões