Estudo do MIT Revela que Inteligência Artificial Ainda Não Entende a Palavra "Não"

A tecnologia de inteligência artificial (IA) já possui habilidade para identificar enfermidades, compor poemas e inclusive pilotar automóveis — contudo enfrenta dificuldades com um termo singelo: "negativo". Essa restrição pode acarretar consequências graves em aplicações práticas, especialmente em sistemas de IA direcionados para a área da saúde.

Leia mais

Em conformidade com uma recente pesquisa dirigida por Kumail Alhamoud, doutorando do MIT, em parceria com a OpenAI e a Universidade de Oxford, a falha em compreender "não" e "não é" pode resultar em desdobramentos significativos, especialmente em cenários médicos.

Leia mais

A negativa (por exemplo, "ausência de fratura" ou "não aumentando") representa uma funcionalidade linguística crucial, sobretudo em contextos críticos como o da saúde, onde interpretar de forma equivocada pode ocasionar danos severos.

Leia mais

O estudo evidencia que os modelos de IA atuais — como o ChatGPT, Gemini e Llama — frequentemente falham ao analisar declarações negativas corretamente, inclinando-se a vinculá-las de modo afirmativo.

Leia mais

O impasse central residir não somente na insuficiência de dados, mas na metodologia de treinamento da IA. A maioria dos renomados modelos de linguagem é concebida para reconhecer padrões, ao invés de raciocinar logicamente. Isto implica que eles podem interpretar expressões como "positivo" ao se depararem com termos como "bom", que são associados a algo vantajoso.

Leia mais

Especialistas argumentam que, salvo se os modelos forem instruídos a raciocinar logicamente — e não apenas a imitar a linguagem —, persistirão cometendo equívocos sutis, porém perigosos.

Leia mais

"A IA é extremamente competente em gerar respostas similares às que foram observadas durante a fase de treinamento. Entretanto, é bastante inábil em conceber algo verdadeiramente inédito ou distinto dos dados nos quais foi instruída", expressou Franklin Delehelle, chefe de pesquisas na empresa de infraestrutura de conhecimento zero Lagrange Labs, ao Decrypt.

Leia mais

"Se os dados de treinamento não contiverem exemplificações convincentes de negação ou de emoções negativas, o modelo pode encarar obstáculos ao produzir essa categoria de resposta."

Leia mais

No estudo, os pesquisadores identificaram que os modelos de linguagem visual — planejados para interpretar imagens e textos — exibem uma inclinação ainda mais acentuada para declarações afirmativas, frequentemente não logrando distinguir entre legendas positivas e negativas.

Leia mais

"Ao incorporarmos dados sintéticos de negação, apresentamos uma alternativa promissora para modelos mais confiáveis", comentaram os pesquisadores. "Embora nossa abordagem com dados sintéticos aprimore a apreensão da negação, ainda enfrentamos desafios, especialmente em relação a variações subtis de negação."

Leia mais

Apesar dos avanços sequenciais no raciocínio, diversos sistemas de IA ainda deparam-se com dificuldades no raciocínio análogo ao humano, especialmente ao confrontarem enigmas em aberto ou circunstâncias que demandam uma compreensão mais profunda ou "senso comum".

Leia mais

"Todos os LLMs — que agora corriqueiramente denominamos de IA — são influenciados, em parte, pelo estímulo inicial. Ao interagir com o ChatGPT ou com sistemas similares, o sistema não está apenas considerando sua entrada. Há também um estímulo interno, estabelecido pela empresa, sobre o qual você, o utilizador, não possui controle", elucidou Delehelle.

Leia mais

Delehelle sublinhou uma das principais limitações da IA: sua dependência dos padrões presentes nos dados de treinamento, uma imposição que pode moldar — e por vezes distorcer — suas respostas.

Leia mais

Deficiência nos modelos de linguagem

Kian Katanforoosh, docente auxiliar de Deep Learning na Universidade de Stanford e fundador da empresa de competência em inteligência Workera, afirmou que o impasse com a negação deriva de uma lacuna fundamental na operacionalização dos modelos de linguagem.

Leia mais

"A negação é mais intrincada do que se imagina. Palavras como 'não' e 'não é' invertendo o sentido de uma expressão, contudo a maioria dos modelos de linguagem não está raciocinando logicamente — estão antevendo o que parece ser provável com base em padrões", expressou Katanforoosh. "Isso os torna propensos a perder a essência quando a negação está presente."

Leia mais

Katanforoosh também corroborou, enfatizando as ponderações de Delehelle, que o entrave reside na forma como os modelos de IA são orientados.

Leia mais

"Esses modelos foram treinados para associar, não para raciocinar. Assim, quando se menciona 'não é bom', eles continuam associando fortemente a palavra 'bom' a uma emoção positiva", explicitou. "Divergente dos humanos, nem sempre conseguem superar essas associações."

Leia mais

Katanforoosh alertou que a incapacidade de interpretar corretamente a negação não é meramente uma falha técnica — é capaz de acarretar desdobramentos sérios no âmbito concreto.

Leia mais

"Compreender a negação é essencial para a compreensão", alegou. "Se um modelo falha em captar isso com confiabilidade, há o risco de equívocos sutis, porém cruciais — particularmente em áreas como aplicações jurídicas, médicas ou de recursos humanos."

Leia mais

E, ainda que intensificar o volume de dados de treinamento possa parecer uma solução simplória, ele aduziu que a solução reside em outro ponto.

Leia mais

"Resolver essa questão não é uma mera questão de incremento de dados, mas sim de aprimoramento de raciocínio. Necessitamos de modelos capazes de lidar com lógica, e não somente com linguagem", expressou. "Este é o desafio real atualmente: unir o aprendizado estatístico ao pensamento estruturado."

Leia mais

* Adaptado e editado com consentimento do Decrypt.

Leia mais

Fonte: Portal do Bitcoin

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Visite nosso site e veja todos os outros artigos disponíveis!

Valor Central