Преди малко повече от година публикуваме Тук в LXA има статия за халюцинациите на Изкуствен интелект. Те представляват опасност, ако разбираме това като загуба на време или факта, че може да останем с невярна информация. Когато ги попитаме нещо, което те не могат да получат бързо от база данни, те могат да отговорят на всичко и това не ме направи много по-добре през 2025 г., в която вече сме добре.
Напоследък стана популярен DeepSeek, изкуствен интелект, който идва при нас от Китай и който може да предложи резултати, подобни на тези на ChatGPT, или дори да ги подобри. Но най-доброто от тези AI се получава, ако активираме опциите на мисли по-дълбоко, разум или както там са го нарекли във въпросния модел. В противен случай всички те са склонни да се провалят в едно и също нещо: да реагират бързо, независимо дали това, което казват, е правилно или не.
Нови халюцинации на изкуствения интелект
От време на време прекарвам известно време в игра с Моят Steam Deck. Наскоро завърших основната игра на Borderlands The Presequel и не разбрах напълно края (предупреждение за спойлер): Лилит удря Красивия Джак... откъде се появи Лилит? Попитах ChatGPT и дори не помня какво ми каза. Ако си спомням, спомних си, извинете за излишъка, сам, че преследвах нашия играч, използвайки неговата невидимост. След това продължих, Красивият Джак имаше панти на лицето си и не можа да ми каже, че е маска.
Но най-лошото беше, когато го попитах къде трябва да отида, за да играя разширението Claptrap Voyage. Какво виждаш тук, какво виждаш там, какво… Докато търсих в интернет разбрах, че трябва да отида на етаж 13/2 или нещо подобно (не помня името сега), нещо, което можем да направим от едно бързо пътуване.
За да имам повече основа за тази статия, помислих да попитам ChatGPT за същото нещо, но с мотиви, нещо, което направих и в DeepSeek. DeepSeek го направи правилно от първия опит, докато ChatGPT ми даде две опции, едната правилна, а другата отричаше, че има разширение в The Presequel, свързано с Claptrap. Избрах тази опция, за да видя дали ще се оправи... но не.
Искате ли точност?
ChatGPT е най-популярният в момента и това, което повечето хора използват. Ако искаме да разсъждава, трябва да се сблъскаме с два проблема: първият е, че са необходими 20-40 секунди, за да започнем да предлагаме отговора, а вторият е, че свободното разсъждение е възможно само няколко пъти на ден; При преминаване на лимит те вече не работят и сме принудени да използваме платен модел. освен това DeepSeek Винаги може да разсъждава, но понякога се запъва и не се получава.
Така че или плащаме, или чакаме, или имаме късмет.
Въпреки това халюцинациите за изкуствения интелект все още са ежедневие и мисля, че си струва да запомним това, за да попречим на никого да приеме информацията, която ни дават за даденост.
Ами ако търсим?
Това, което може да си струва, е да не позволим на модела по подразбиране да ни отговори. Той е този, който се проваля най-много, най-много "cuñao", тоест този, който отговаря най-много заради отговора, независимо дали знае отговора или не. Тези модели дават отговори за това, което са научили, и ако не са го научили, те се опитват да разрешат нашите съмнения, като създават взаимоотношения, които обикновено не дават добри резултати. Нещата се променят, ако натиснем бутони за търсене или разсъждение.
Ако го помолим да търси, това ще направи. Той ще анализира това, което намира, и ще ни покаже резултат, който можем да видим като обобщение на търсене, което бихме направили. Опцията за разсъждение ще ви попречи да кажете първата глупост, която ви дойде на ум, въпреки че понякога ChatGPT има причини да влоши нещата.
Изкуственият интелект продължава да се подобрява, но ако не го използваме добре, той също ще продължи да ни обърква повече, отколкото да ни помага.