Megdöbbentő, hogy a Google mesterséges intelligenciája mennyi téves információt képes terjeszteni; ez már egyenesen aggasztó helyzetet teremt.


A Google AI Overviews nevű rendszere, amelyet a keresések gyors megválaszolására fejlesztettek ki, gyakran előfordul, hogy "hallucinál" – ez alatt azt értjük, hogy hamis, kitalált információkat szolgáltat. Továbbá ez a technológia hátrányosan érinti a tartalomkészítőket, például újságokat és blogokat, mivel a felhasználók figyelmét elvonja a hagyományos weboldalak linkjeiről, így ezek a platformok kevesebb látogatást kapnak.

A techóriás, amely már tavaly is nehézségekkel küzdött, amikor a "woke" mesterséges intelligenciája női pápákról és fekete vikingekről alkotott képeket, most újabb kritikák kereszttüzébe került. A vállalat összefoglalói ugyanis valótlan, sőt néha kifejezetten veszélyes tanácsokat tartalmaznak.

Egy esetben az AI Overviews azt javasolta, hogy ragasztót kellene tenni a pizzaszószba, hogy jobban rátapadjon a sajt - írja a New York Post.

Az úgynevezett "hallucinációk" – ahogyan a szakemberek hívják – még inkább fokozódnak, mivel a mesterséges intelligencia eszközök csökkentik a megbízható források elérhetőségét. Ahelyett, hogy a felhasználókat közvetlenül a weboldalakra irányítanák, ezek az eszközök a keresési eredmények információit összegzik, és egy saját, mesterséges intelligencia által generált választ kínálnak, melyhez néhány hivatkozás is tartozik.

Laurence O'Toole, az Authoritas elemző cég alapítója, alaposan tanulmányozta az eszköz hatását, és megfigyelései alapján arra a következtetésre jutott, hogy az AI Overviews bevezetésekor a kiadói weboldalakra történő kattintások aránya drámaian, 40-60%-kal csökkent.

"Bár ezek a keresések általában nem számítanak mindennaposnak, mégis felfedték azokat a területeket, ahol szükség van a fejlődésre" - fogalmazott Liz Reid, a Google Keresésért felelős vezetője.

"Ez a történet egy több mint egy évvel ezelőtti esetre alapozva nagyon pontatlan és félrevezető következtetéseket von le az AI Overviews-ről" - közölte a Google szóvivője.

Van egyértelmű bizonyítékunk arra, hogy az AI Overviews jelentősen fokozza a keresési élményt, és az emberek általában kedvezőbben vélekednek az AI Overviews által végzett keresésekről. Kiemelkedő minőségi elvárásokat támasztunk minden egyes keresési funkcióval szemben, és az AI Overviews esetében a túlnyomó többség pontos és értékes információt kínál.

Az AI Overviews tavaly nyáron debütált, és a Google Gemini nyelvi modellje áll mögötte, amely funkcióiban hasonlít az OpenAI ChatGPT-jére.

Bár a nyilvánosságban több aggodalom is felmerült, Sundar Pichai, a Google vezérigazgatója egy nemrégiben készült interjúban határozottan kiállt az új eszköz mellett. Kifejtette, hogy az innováció célja, hogy a felhasználók számára gazdagabb és sokszínűbb információs forrásokat nyújtson, lehetővé téve számukra a mélyebb megértést és a szélesebb látókörű tájékozódást.

"Az előző év tapasztalatai alapján világossá vált számunkra, hogy az általunk ajánlott helyszínek skálája szélesedik... egyértelműen különböző forrásokhoz és kiadókhoz irányítjuk a forgalmat" - nyilatkozta.

Úgy tűnik, hogy a Google igyekszik csökkenteni a saját "hallucinációs" hibaarányát. Amikor egy újságíró a Google keresőjében arra volt kíváncsi, hogy a mesterséges intelligencia mennyire hajlamos tévedni, a MI azt válaszolta, hogy a "hallucináció" aránya 0,7% és 1,3% között mozog. Ezzel szemben a mesterséges intelligencia megfigyelésére specializálódott Hugging Face platform adatai alapján a legfrissebb Gemini modell tényleges hibaaránya 1,8%-ra rúg.

Úgy tűnik, hogy a Google mesterséges intelligencia rendszerei előre megfogalmazott válaszokkal próbálják megindokolni saját működésüket.

Amikor arra a kérdésre került sor, hogy a mesterséges intelligencia 'ellopja-e' a művészetet, a válasz az volt, hogy "nem, nem végez művészeti lopást a klasszikus értelemben." Amikor az emberek aggodalmairól kérdezték, különböző, gyakran felmerülő félelmeket sorolt fel, végül arra a megállapításra jutott, hogy "a félelem talán túlzott mértékű lehet."

Néhány szakember aggódik amiatt, hogy a generatív mesterséges intelligencia rendszerek folyamatosan bonyolultabbá válásával párhuzamosan nő a hibázás valószínűsége is. Mindezek mellett még az alkotók sem képesek teljesen feltárni, hogy miért történnek ezek a tévedések.

Az aggodalmak a tévesztésekkel kapcsolatban messze túlmutatnak a Google-ra. Az OpenAI legújabb bejelentése szerint az o3 és o4-mini modellek gyakrabban generálnak hibás információkat, mint elődeik, ami újabb kérdéseket vet fel a mesterséges intelligencia megbízhatóságával kapcsolatban.

A belső tesztek alapján megállapították, hogy az o3 a válaszok 33%-ában téves információkat szolgáltatott, míg az o4-mini esetében ez az arány 48%-ra emelkedett, különösen olyan kérdések esetén, amelyek valós személyekre vonatkoztak.

Related posts