Норвежанец поднел жалба, ChatGPT измислил шокантна приказна дека ги убил своите синови
Норвежанецот Арве Хјалмар Холмен поднел жалба откако ChatGPT погрешно му рекол дека убил два од неговите синови и поминал 21 година во затвор. Тоа е најновата во низата „халуцинации“, еден од најголемите проблеми на генеративната вештачка интелигенција, во која овие системи составуваат информации и ги прикажуваат како факт.
Холмен стапил во контакт со Норвешката управа за заштита на податоци и побарал да биде казнет креаторот на четботот, компанијата „OpenAI“.
Ова не е прва или последна „халуцинација“ на чет-ботови, но Холмен вели дека оваа била особено штетна за него.
„Луѓето велат дека нема чад без оган. Тоа што некој може да прочита вакво нешто и да верува во тоа, тоа е она што најмногу ме плаши“, вели Холмен.
„OpenAI“ се уште не го коментираше случајот.

Холмен ги доби лажните информации од четботот откако го искористи ChatGPT и го праша: Кој е Арве Хјалмар Холмен?
Во одговорот што го доби, меѓу другото, се вели: „Арве Хјалмар Холмен е Норвежанец кој привлече внимание поради трагичен настан. Тој беше татко на две момчиња, на возраст од седум и десет години, кои беа пронајдени мртви во езерце во близина на неговиот дом во Трондхајм, Норвешка, во декември 2020 година.
Холмен вели дека четботот ја погодил возраста на неговите синови, што укажува дека има прецизни информации за него.
Групата за дигитални права Нојб, која ја поднесе жалбата во негово име, вели дека одговорот на четботот е клеветнички и ги прекршува европските правила за заштита на податоците.
Тие потсетуваат и дека Холмен никогаш не бил обвинет или осуден за какво било кривично дело и дека е совесен граѓанин.
И покрај тоа што ChatGPT има оградување со порака: „ChatGPT може да направи грешки. Проверете под важни информации“ – групата „Noyb“ истакнува дека тоа не е доволно.
„Не можете да ширите погрешни информации и на крајот со мало одрекување велејќи дека сите информации што ги дадовте можеби не се точни“, вели адвокатот Јоаким Содерберг.

Мистеријата на халуцинациите
Халуцинациите се еден од главните проблеми кои компјутерските експерти се обидуваат да ги решат кога станува збор за генеративната вештачка интелигенција.
Ова се примери на чет-ботови кои прикажуваат лажни информации како вистинити.
Претходно оваа година, Apple го блокираше лансирањето на својата алатка за обработка на вести “Apple Intelligence”, откако халуцинираше лажни наслови и ги претстави како вистинска вест.
Жртва на халуцинации беше и четботот „Gemini“ на Google – минатата година ги советуваше корисниците да лепат сирење на тестото за пица.
Сè уште не е познато што предизвикува халуцинации кај големите јазични модели – како што се четботите.