Etichete

„Cu cât avansează, cu atât halucinează mai des”. Cum ajung sistemele AI să ofere informații eronate sau inexacte. Observația experților

„Cu cât avansează, cu atât halucinează mai des”. Cum ajung sistemele AI să ofere informații eronate sau inexacte. Observația experților

Cu cât inteligenţa artificială (AI) devine mai avansată, cu atât „halucinează” mai des şi oferă informaţii incorecte şi inexacte, conform unui material publicat de Live Science. Cercetări realizate de OpenAI au ajuns la concluzia că cele mai noi şi mai puternice modele AI, o3 şi o4-mini, au halucinat în 33% şi respectiv 48% din timpul în are au fost testate cu instrumentul de benchmark PersonQA al OpenAI. Adică de peste două ori mai mult decât rata de halucinare observată la modelul mai vechi o1. Chiar dacă modelul o3 oferă informaţii mai exacte decât predecesorul său, se pare că acest progres vine la pachet cu un preț scump: situații mai frecvente în care acesta halucinează. Acest lucru ridică semne de întrebare cu privire la exactitatea şi fiabilitatea modelelor mari de limbaj (LLM) aşa cum sunt chatboţii AI, conform lui Eleanor Watson, cercetătoare în cadrul Institute of Electrical and Electronics Engineers (IEEE) şi inginer specializat în etica sistemelor AI la Singularity University.

Magazin și știință Citește știrea pe digi24.ro