13.7 C
São Paulo
sexta-feira, junho 13, 2025
InícioColunistasGPS, IA e a Responsabilidade pelas rotas erradas

GPS, IA e a Responsabilidade pelas rotas erradas

A popularização dos aparelhos de navegação por satélite – GPS em veículos automotivos foi seguida de uma onda de acidentes envolvendo motoristas que confiaram cegamente nestes equipamentos: carros caindo em lagos, entrando em trilhas impraticáveis ou parando em áreas de risco foram alguns dos diversos casos noticiados na época.

Ainda hoje tais acidentes acontecem, não mais nos antigos dispositivos, mas nos softwares de navegação instalados em nossos smartphones, mostrando que a confiança excessiva nos sistemas de navegação levou usuários a prejuízos materiais, lesões físicas e inclusive à judicialização para discutir quanto à responsabilidade pelas informações fornecidas por essas tecnologias.

Este cenário se repete agora com as novas ferramentas que usam a inteligência artificial generativa; assim como os sistemas de navegação por GPS poderiam levar a destinos inexistentes, estes novos sistemas de IA também podem levar usuários a resultados equivocados, seja por erro na fonte de consulta, interpretação enviesada ou simplesmente pela imprevisibilidade do modelo e a ocorrência de alucinação.

Casos judiciais envolvendo IA

Um dos primeiros casos judiciais envolvendo alucinação, ainda em 2023, quando um professor americano apontado pelo ChatGPT como acusado de assédio sexual, embasando a resposta em matéria jornalística que nunca existiu, que supostamente mencionava que o assédio teria acontecido em uma viagem que nunca ocorreu, com uma aluna da instituição na qual ele nunca lecionou. Outro, mais recentemente em abril de 2025, envolveu a invenção de 43 jurisprudências por ferramenta de IA utilizada por um advogado na elaboração de recurso.

Esses exemplos trazem uma importante discussão quanto à responsabilização civil pelas decisões baseadas em sistemas que, embora apresentem resultados impressionantes à primeira vista, pelo seu próprio modo de funcionamento são inegavelmente falíveis a ponto de ter seus erros, as alucinações, reconhecidos como esperados nos resultados de suas criações.

E assim como o uso indiscriminado dos aparelhos de navegação por GPS para guiar veículos resultaram em diversas demandas judiciais para que os fabricantes fossem responsabilizados pelos danos causados em decorrência dos erros de direção, podemos esperar algo similar com danos causados pelas alucinações no uso das ferramentas de IA generativa.

Regulação e governança da IA

Situação regulatória no Brasil e nos EUA

Ainda inexistente no Brasil, a esperada regulamentação da inteligência artificial esperada por meio do Projeto de Lei 2.338/2023, em estágio avançado no Senado brasileiro, não é capaz de responder categoricamente esta dúvida, limitando-se a apontar para a legislação existente, em especial o Código de Defesa do Consumidor e o Código Civil, ou outras legislações especiais.

Nos Estados Unidos, embora ainda não haja uma lei federal específica sobre IA, decisões da Federal Trade Commission (FTC) têm sinalizado para a responsabilização de empresas que divulgam funcionalidades não condizentes com as limitações reais da tecnologia.

Governança e corresponsabilidade no uso da IA

Neste cenário, onde não há solução deste tema na regulamentação, e ao contrário dos incidentes com os aparelhos de navegação por GPS, os danos não são apenas materiais, mas também reputacionais, financeiros e jurídicos, e afetam tanto indivíduos quanto empresas, a adoção de medidas de governança em IA torna-se imprescindível.

Desenvolvedores e provedores de plataformas de IA generativa devem documentar seus processos, realizar avaliações periódicas de impacto, estabelecer políticas de uso aceitável e treinar seus modelos com dados auditáveis e éticos. Mas a responsabilidade não deve ser limitada somente quanto à origem, pois quem faz uso dessas ferramentas também precisa adotar práticas de diligência, incluindo a validação dos resultados gerados e a avaliação dos riscos do uso principalmente em temas sensíveis. Em ambientes corporativos, isso se traduz em estabelecer políticas internas que definam os limites do uso de IA e seus fluxos de validação. 

Assim como o motorista que segue uma rota GPS deve manter atenção ao caminho à frente, o usuário de IA precisa exercer julgamento crítico sobre os resultados oferecidos. Esta tecnologia é inegavelmente valiosa e revolucionária, mas que ainda pode levar o usuário ao destino errado, inclusive por caminhos que inexistentes no mundo real.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Telecom!

Postagens recomendadas
Outras postagens