„Google“ AI paieška kasdien sugeneruoja milijonus klaidingų atsakymų

Remiantis „The New York Times“, tyrimai rodo, kad maždaug kas dešimtas „Google“ dirbtinio intelekto pateikiamas paieškos apibendrinimas yra klaidingas. Atsižvelgiant į tai, kad paieškos sistema per metus apdoroja maždaug 5 trilijonus užklausų, naudotojai kas valandą gali susidurti su daugiau nei 57 milijonais netikslių atsakymų – beveik 1 milijonu per minutę.

Šie skaičiai pateikti dirbtinio intelekto startuolio „Oumi“, kurį „The New York Times“ paprašė įvertinti „Gemini“ tikslumą naudojant „SimpleQA“ – plačiai naudojamą generatyvinio dirbtinio intelekto vertinimo sistemą. Išanalizavęs 4 326 „Google“ paieškas, „Oumi“ nustatė, kad „Google“ dirbtinio intelekto asistentas „Gemini“ 2 versija spalio mėnesį 85 procentais atvejų pateikė tikslias apžvalgas. Iki vasario „Gemini“ 3 šį rodiklį pagerino iki 91 procento.

Tačiau „Oumi“ gali įvertinti didelius rezultatų kiekius tik remdamasi AI įrankiais, kurie taip pat gali įnešti klaidų. Be to, „Google“ kartais pateikia skirtingas AI apžvalgas tam pačiam užklausimui, net jei jis kartojamas kas kelias sekundes.

„Google“ atstovas pavadino „Oumi“ testavimą klaidingu, teigdamas, kad jis neatspindi realaus paieškos elgesio. Bendrovės vidiniai testai rodo, kad „Gemini 3“, veikdamas nepriklausomai nuo „Google“ paieškos, 28 proc. atvejų pateikia klaidingą informaciją.

Šaltinių nurodymas kelia dar vieną iššūkį. „Google“ bando pagrįsti savo AI apžvalgų rezultatus atitinkamomis nuorodomis, tačiau šie šaltiniai dažnai nepatvirtina „Gemini“ teiginių – nesvarbu, ar jie teisingi, ar ne.

Kai kuriais atvejais po neteisingos AI apžvalgos iš karto pateikiama nuoroda su teisinga informacija; kitais atvejais tiksli apžvalga cituoja šaltinį su netikslia informacija; o kartais nuorodose pateiktose puslapiuose nėra jokios susijusios informacijos. Pažymėtina, kad neatitikimai tarp AI apžvalgų ir jų šaltinių padidėjo po vasario mėnesio atnaujinimo, išaugdami nuo 37 procentų paieškų su „Gemini 2“ iki 56 procentų su „Gemini 3“.

Tyrėjai taip pat nustatė, kad AI apžvalgos yra pažeidžiamos manipuliacijoms. Vienu pavyzdžiu, BBC žurnalistas paskelbė tinklaraščio įrašą, kuriame buvo pateikta klaidinga informacija, ir vėliau nustatė, kad „Google“ kitą dieną pakartojo tuos teiginius.

Beje, „Google“ ir kitos AI įmonės smulkioje spausdintoje teksto dalyje pripažįsta, kad ši technologija menkai susijusi su tiesa. „Microsoft“ paslaugų sąlygose „Copilot“ AI įrankis apibūdinamas kaip skirtas pramogoms, o ne svarbiems sprendimams priimti. „Google“ AI apžvalgose naudotojams patariama dar kartą patikrinti atsakymus, o „xAI“ pripažįsta, kad gali pasitaikyti haliucinacijų.

Parašykite komentarą

Brukalų kiekiui sumažinti šis tinklalapis naudoja Akismet. Sužinokite, kaip apdorojami Jūsų komentarų duomenys.