Cuidado com a detecção de fraudes baseada em IA, alerta a comunidade científica.

12 de março de 2024

Queridos colegas e amigos,

Um querido colega compartilha conosco este artigo escrito por Julius Maximilians, publicado em 2 de maio de 2024 no boletim informativo da Universität Würzburg e traduzido por nós para este espaço. Vamos ver do que se trata...

A inteligência artificial (IA) poderá em breve ajudar a identificar mentiras e enganos. No entanto, uma equipe de pesquisa das universidades de Marburg e Würzburg alerta sobre os riscos do uso prematuro.

Ah, se fosse tão fácil quanto com Pinóquio. Era fácil perceber quando ele estava mentindo: seu nariz crescia um pouco mais a cada vez. Na realidade, é muito mais difícil reconhecer mentiras e é compreensível que os cientistas venham tentando há muito tempo desenvolver métodos válidos para detectar fraudes.

Agora, muita esperança foi levantada na inteligência artificial (IA) para atingir esse objetivo, por exemplo, na tentativa de identificar viajantes com intenção criminosa nas fronteiras da União Europeia (UA) na Hungria, Grécia e Lituânia.

Uma ferramenta valiosa para pesquisa básica.

Pesquisadores das universidades de Marburg e Würzburg alertam contra o uso prematuro da IA para detectar mentiras. Em sua opinião, a tecnologia é uma ferramenta potencialmente valiosa para a pesquisa básica obter uma melhor compreensão dos mecanismos psicológicos que estão por trás do engano. No entanto, eles são mais do que céticos quanto à sua aplicação, no momento, em contextos da vida real

Kristina Suchotzki e Matthias Gamer são responsáveis pelo estudo, que agora está publicado na revista Trends in Cognitive Sciences.

Kristina Suchotzki é professora da Universidade de Marburg; sua pesquisa se concentra em mentiras e em como detectá-las. Matthias Gamer é professor da Universidade de Würzburg; uma de suas principais áreas de pesquisa é o diagnóstico de credibilidade.

Três problemas centrais para uso aplicado

Em sua publicação, Suchotzki e Gamer identificam três problemas principais nas pesquisas atuais sobre detecção de fraude baseada em IA: a falta de explicabilidade (grau de precisão na interpretação) e transparência dos algoritmos testados e o risco de resultados tendenciosos com déficits na base teórica. O motivo é claro: “Infelizmente, as abordagens atuais se concentraram principalmente em aspectos técnicos, em detrimento de uma sólida base metodológica e teórica”, escrevem eles.

Em seu artigo, eles explicam que muitos algoritmos de IA sofrem com a “falta de explicabilidade e transparência”. Muitas vezes, não está claro como o algoritmo chega ao resultado. Em alguns aplicativos de IA, chega um momento em que nem mesmo os desenvolvedores conseguem entender claramente como um teste é realizado. Isso torna impossível avaliar criticamente as decisões e discutir os motivos das classificações incorretas.

Outro problema que eles descrevem é o aparecimento de “preconceitos” no processo de tomada de decisão. A esperança original era que as máquinas pudessem superar os preconceitos humanos, como estereótipos ou preconceitos. Na realidade, entretanto, essa suposição geralmente falha devido a uma seleção incorreta das variáveis que os humanos inserem no modelo, bem como ao pequeno tamanho e à falta de representação dos dados usados. Sem falar no fato de que os dados usados para criar esses sistemas geralmente já são tendenciosos.

O terceiro problema é fundamental: “O uso da inteligência artificial na detecção de mentiras é baseado na suposição de que é possível identificar um sinal válido ou uma combinação de sinais exclusivos para enganar”, explica Suchotzki. No entanto, mesmo décadas de pesquisa não foram capazes de identificar esses sinais únicos. Também não há nenhuma teoria que possa prever sua existência de forma convincente.

Alta suscetibilidade a erros em exames de massa

No entanto, Suchotzki e Gamer não querem desencorajar o trabalho na detecção de fraudes baseada em IA. Em última análise, é uma questão empírica se essa tecnologia tem o potencial de fornecer resultados suficientemente válidos. No entanto, em sua opinião, várias condições devem ser atendidas antes de considerar seu uso na vida real.

“É altamente recomendável que os tomadores de decisão verifiquem cuidadosamente se os padrões básicos de qualidade foram atendidos no desenvolvimento de algoritmos”, dizem eles. Os pré-requisitos incluem experimentos de laboratório controlados, conjuntos de dados grandes e diversos sem vieses sistemáticos e a validação de algoritmos e sua precisão em um grande conjunto de dados independente.

O objetivo deve ser evitar falsos positivos desnecessários, ou seja, casos em que o algoritmo acredita erroneamente que detectou uma mentira. Há uma grande diferença entre o uso da IA como ferramenta de controle em massa, por exemplo, em aeroportos, e o uso da IA para incidentes específicos, como o interrogatório de um suspeito em um processo criminal.

“Os aplicativos de detecção em massa geralmente envolvem avaliações muito desestruturadas e descontroladas. Isso aumenta drasticamente o número de resultados falsos positivos”, explica Gamer.

Aviso aos políticos

Finalmente, os dois pesquisadores aconselham que a detecção de fraude baseada em IA só deve ser usada em situações altamente estruturadas e controladas. Embora não haja indicadores claros de mentiras, é possível minimizar o número de explicações alternativas em tais situações. Isso aumenta a probabilidade de que diferenças no comportamento ou no conteúdo das declarações possam ser atribuídas a uma tentativa de enganar.

Suchotzki e Gamer complementam suas recomendações com um aviso aos políticos: “A história nos ensina o que acontece se não cumprirmos padrões rígidos de pesquisa antes que os métodos para detectar fraudes sejam introduzidos na vida real”.

O exemplo do polígrafo mostra muito claramente como é difícil se livrar de tais métodos, mesmo que mais tarde se acumulem evidências de sua baixa validade e discriminação sistemática contra suspeitos inocentes.

Saiba mais:

Artigo original
https://www.uni-wuerzburg.de/aktuelles/pressemitteilungen/single/news/vorsicht-bei-ki-erkennung-von-luegen/