Реални и въображаеми рискове от изкуствения интелект (мнение)

Моделите с изкуствен интелект не могат да открият аномалии

Преди малко моят партньор за Pablinux Той ни каза за писмото, което непоносимият Илън Мъск и други личности написаха с искане за спиране на изследванията в областта на изкуствения интелект докато не бъдат взети мерки за предотвратяване на възможните неблагоприятни ефекти. Това ми дава извинение да говоря за реалните и въображаемите рискове на изкуствения интелект.

С риск да се направя на глупак с неуспешни прогнози в стил Бил Гейтс, започвам с това, че според мен най-големият риск в момента е спукване на балон Това ще остави дот-комите до лек шок.

Реалните и въображаемите рискове на изкуствения интелект

Съгласен съм с Паблинукс, че в писмото има повече средновековен мракобесие, отколкото научни разсъждения. Че като същевременно продължава да споделя идеята, че трябва да се създаде законодателство, което да регулира използването на неговото съдържание. Не можем обаче да отречем, че всички технологии объркваха и плашеха хората, докато не станаха добре известни.

Проекцията за пристигането на влак в началото на кинематографията накара хората да избягат от стаята и, въпреки че има голяма част от градската легенда, радиоверсията на Война на световете от Орсън Уелс предизвика доста паника сред хората, които вярваха, че е истинско.

Всъщност този тип софтуерна регулация не е нищо ново. Финансовите регулаторни органи в много страни забраняват на програми като Photoshop да редактират изображения на банкноти или чекове.

През 1994 г. Том Кланси публикува Дълг на честта. Смятан за експерт по въпросите на отбраната, Кланси iси представи атака срещу финансовата система на Съединените щати чрез манипулиране на експертните системи на фондовите дружества, за да повярват, че се случва криза отприщи вълна от продажби, която най-накрая доведе до кризата.

Преди да го отхвърлите като измислица, не забравяйте, че в същия този роман, 7 години преди кулите близнаци, Кланси очаква, че Съединените щати могат да претърпят атаки с помощта на търговски самолети.

Всъщност идеята не е нова. филмът от 1983 г Военни игри В него се разказва как тийнейджър обърква компютъра, който отговаря за изстрелването на ракетата, за да помисли, че руснаците атакуват.

Нека си представим, че чуваме приближаващ галоп. Първото ни заключение е, че това е кон и в 9 от 10 пъти ще бъдем прави. Но винаги има възможност това да е зебра, която е избягала от зоопарка. Лекари, астронавти и пилоти на самолети получават строго обучение да мислят за зебрите, да знаят какво да правят, ако възникне аномалия. Моделите с изкуствен интелект се обучават с мисъл за конете.

Модел като този, използван от ChatGPT, се основава на съществуваща информация в неговата база знания. Колкото повече пъти се повтаря тази информация, толкова по-голяма достоверност придава.

Тъй като запазването на цялата налична информация би изисквало много място за съхранение, той запазва само това, което е уместно и след това го изгражда отново, както е поискано, използвайки структурата, която статистически изглежда най-уместна. Затова много пъти цитирам препратки, които не съществуват, само защото статистически е вероятно да има документ с това заглавие, който съдържа това съдържание.

За зебрите и кучетата, които не лаят

Има ли друг момент, на който искате да ми обърнете внимание?
-Любопитната случка с кучето през нощта.
-Кучето не направи нищо през нощта.
Това беше любопитната случка.

Сър Артър Конан Дойл

Друг от рисковете, които крият системите с изкуствен интелект, е това, което те не правят. И това също е важен момент, който трябва да имате предвид.

През XNUMX-те години австралийски лекар предположи, че най-честата причина за язви са бактериите. Тъй като нямаше страхотна автобиография, те му се смееха в лицето, докато не се доказа, че е прав. Подобно на много други научни открития (въртенето на планетите, фактът, че колкото повече почивки правите, толкова по-продуктивен сте) те са в противоречие с мъдростта на момента.

Но моделите на интелигентността се основават на мъдростта на момента. В онези знания, в които има консенсус. Точно както технологията за замразяване, автомобилите и доставката увеличиха броя на затлъстелите, наличието на инструменти за изкуствена технология може да ни направи мързеливи интелектуалци и да задуши иновациите.

Както можете да видите, има достатъчно неща, за които да се тревожите, освен да се страхувате да не бъдете поробени от машините. И че все още не говорим за достъп до изходния код и поверителността на потребителите.