A tecnologia de inteligência artificial (IA) já possui habilidade para identificar enfermidades, compor poemas e inclusive pilotar automóveis — contudo enfrenta dificuldades com um termo singelo: “negativo”. Essa restrição pode acarretar consequências graves em aplicações práticas, especialmente em sistemas de IA direcionados para a área da saúde.
Em conformidade com uma recente pesquisa dirigida por Kumail Alhamoud, doutorando do MIT, em parceria com a OpenAI e a Universidade de Oxford, a falha em compreender “não” e “não é” pode resultar em desdobramentos significativos, especialmente em cenários médicos.
A negativa (por exemplo, “ausência de fratura” ou “não aumentando”) representa uma funcionalidade linguística crucial, sobretudo em contextos críticos como o da saúde, onde interpretar de forma equivocada pode ocasionar danos severos.
O estudo evidencia que os modelos de IA atuais — como o ChatGPT, Gemini e Llama — frequentemente falham ao analisar declarações negativas corretamente, inclinando-se a vinculá-las de modo afirmativo.
O impasse central residir não somente na insuficiência de dados, mas na metodologia de treinamento da IA. A maioria dos renomados modelos de linguagem é concebida para reconhecer padrões, ao invés de raciocinar logicamente. Isto implica que eles podem interpretar expressões como “positivo” ao se depararem com termos como “bom”, que são associados a algo vantajoso.
Especialistas argumentam que, salvo se os modelos forem instruídos a raciocinar logicamente — e não apenas a imitar a linguagem —, persistirão cometendo equívocos sutis, porém perigosos.
“A IA é extremamente competente em gerar respostas similares às que foram observadas durante a fase de treinamento. Entretanto, é bastante inábil em conceber algo verdadeiramente inédito ou distinto dos dados nos quais foi instruída”, expressou Franklin Delehelle, chefe de pesquisas na empresa de infraestrutura de conhecimento zero Lagrange Labs, ao Decrypt.
“Se os dados de treinamento não contiverem exemplificações convincentes de negação ou de emoções negativas, o modelo pode encarar obstáculos ao produzir essa categoria de resposta.”
No estudo, os pesquisadores identificaram que os modelos de linguagem visual — planejados para interpretar imagens e textos — exibem uma inclinação ainda mais acentuada para declarações afirmativas, frequentemente não logrando distinguir entre legendas positivas e negativas.
“Ao incorporarmos dados sintéticos de negação, apresentamos uma alternativa promissora para modelos mais confiáveis”, comentaram os pesquisadores. “Embora nossa abordagem com dados sintéticos aprimore a apreensão da negação, ainda enfrentamos desafios, especialmente em relação a variações subtis de negação.”
Apesar dos avanços sequenciais no raciocínio, diversos sistemas de IA ainda deparam-se com dificuldades no raciocínio análogo ao humano, especialmente ao confrontarem enigmas em aberto ou circunstâncias que demandam uma compreensão mais profunda ou “senso comum”.
“Todos os LLMs — que agora corriqueiramente denominamos de IA — são influenciados, em parte, pelo estímulo inicial. Ao interagir com o ChatGPT ou com sistemas similares, o sistema não está apenas considerando sua entrada. Há também um estímulo interno, estabelecido pela empresa, sobre o qual você, o utilizador, não possui controle”, elucidou Delehelle.
Delehelle sublinhou uma das principais limitações da IA: sua dependência dos padrões presentes nos dados de treinamento, uma imposição que pode moldar — e por vezes distorcer — suas respostas.
Deficiência nos modelos de linguagem
Kian Katanforoosh, docente auxiliar de Deep Learning na Universidade de Stanford e fundador da empresa de competência em inteligência Workera, afirmou que o impasse com a negação deriva de uma lacuna fundamental na operacionalização dos modelos de linguagem.
“A negação é mais intrincada do que se imagina. Palavras como ‘não’ e ‘não é’ invertendo o sentido de uma expressão, contudo a maioria dos modelos de linguagem não está raciocinando logicamente — estão antevendo o que parece ser provável com base em padrões”, expressou Katanforoosh. “Isso os torna propensos a perder a essência quando a negação está presente.”
Katanforoosh também corroborou, enfatizando as ponderações de Delehelle, que o entrave reside na forma como os modelos de IA são orientados.
“Esses modelos foram treinados para associar, não para raciocinar. Assim, quando se menciona ‘não é bom’, eles continuam associando fortemente a palavra ‘bom’ a uma emoção positiva”, explicitou. “Divergente dos humanos, nem sempre conseguem superar essas associações.”
Katanforoosh alertou que a incapacidade de interpretar corretamente a negação não é meramente uma falha técnica — é capaz de acarretar desdobramentos sérios no âmbito concreto.
“Compreender a negação é essencial para a compreensão”, alegou. “Se um modelo falha em captar isso com confiabilidade, há o risco de equívocos sutis, porém cruciais — particularmente em áreas como aplicações jurídicas, médicas ou de recursos humanos.”
E, ainda que intensificar o volume de dados de treinamento possa parecer uma solução simplória, ele aduziu que a solução reside em outro ponto.
“Resolver essa questão não é uma mera questão de incremento de dados, mas sim de aprimoramento de raciocínio. Necessitamos de modelos capazes de lidar com lógica, e não somente com linguagem”, expressou. “Este é o desafio real atualmente: unir o aprendizado estatístico ao pensamento estruturado.”
* Adaptado e editado com consentimento do Decrypt.
Fonte: Portal do Bitcoin
📲 Receba nosso conteúdo Grátis!
Entre no canal e receba nossos conteúdos assim que forem publicados. Sem spam. Só conteúdo que importa para te manter informado.