Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Би било проблем, ако хората започват да вярват, че системата има "личност" и "чувства", изтъква световноизвестният експерт по изкуствен интелект

Проф. Армандо Солар-Лезама: Много сме далече от това машините да "мислят" като хората

Опасността при ИИ произтича не толкова от самата технология, а от културологичния аспект - как я използваме, категоричен е специалистът

проф. Армандо Солар-Лезама
Снимка: Добромир Видев

Ще се самопрограмира ли изкуственият интелект в бъдеще? И защо учените го карат да пише програми, вместо да дава директни отговори? Това бяха само част от въпросите, които световноизвестният експерт по изкуствен интелект проф. Армандо Солар-Лезама обсъди с български IT специалисти. Армандо Солар-Лезама беше в София за лекция по покана на Института за компютърни науки, изкуствен интелект и технологии (INSAIT). Той е един от ръководителите на лабораторията по информатика и изкуствен интелект в Масачузетски технологичен институт. Проф. Лезама даде специално интервю за БНР.

Защо карате изкуствения интелект да пише програми? 

"Целта ни е да накараме изкуственият интелект да се научи да пише програми и да помага със задачите на софтуерните инженери. От друга страна това е начинът да подобрим обучението и да го направим по-мощно. Имаме много приложения, в които използваме изкуствен интелект. Например, областите, в които работи моята научна група, са свързани с научните открития. Една от областите е в процеса на т.нар. РНК сплайсинг. Искаме да разберем как клетките се опитват да манипулират РНК-то, за да може да произвеждат протеини. В този процес използваме изкуствения интелект. Работата е там, че ако вземем всичко, което нашите биолози знаят за този процес на манипулация на РНК веригите, можем да обясним само част от това, което се случва всъщност. В същото време за този механизъм имаме много, много информация. И това, което се опитваме да направим, е да използваме тези данни, да ги дадем на изкуствения интелект, за да ги обясним и разберем. С това ни си иска да имаме едно много лесно четимо показване на този механизъм. За да може на базата на резултатите да развиваме нови лечения за заболявания, например. По един друг проект имаме сътрудничество с група програмисти. И се опитваме да направим по-добри управления за роботите. За да може да бъдат по-сигурни и да разчитаме на тях при работа." 

Вие казвате, че трябва да имаме програми, които да бъдат произвеждани от изкуствения интелект. А не той да дава директни отговори. Защо?  

"Проблемът със съществуващите невронни мрежи е, че е много трудно да предвидим как те биха могли да работят. Към този момент те са много непрозрачни, трудно можем да разберем тяхното вътрешно функциониране. Минавайки през това да ги караме да програмират, ние минаваме през всички онези инструменти, които вече са били създадени през последните няколко години. Това ни позволява да развием и надграждаме нашата собствена възможност да четем и да разбираме код. И да разбираме по този начин какво системата научава, как ще се държи в нови ситуации, които не са дори предвидени и не са виждани. Това ни дава някакво ниво на предвидимост на невронните мрежи."  

Имате ли някакъв успех? 

"В много от секторите и областите го правим по този начин, по който не бихме могли, използвайки чисто машинно обучение. В много от случаите успяваме да създадем контролери, които могат да бъдат потвърдени и да докажем, че те ще се държат по очаквания начин при всичките възможни ситуации, които те срещат." 

Това звучи все едно учените казвате "Спокойно, хора, ние, учените знаем какво правим с изкуствения интелект. Той е под наш контрол, не толкова опасен“? 

"Изучаването на изкуствения интелект определено все още е в изследователската си област, в изследователския си етап и дори ние се учим как много от нещата се правят. Но това е изключително важен аспект от дневния ни ред. Да можем да създаваме системи с изкуствен интелект, които разбираме и е възможно да изградим със знанието, с което разполагаме. Вместо да се опитваме да преоткриваме от нулата нещата. Така можем да гарантираме, че можем да предвидим и как тези невронни мрежи ще се държат в различни ситуации. За да може да имаме и ние някаква полза от тези обучаеми системи. И в същото време наистина да успеем да минимизираме рисковете." 

Забелязахте, че досега не съм ви питал за Chat GPT и неговата роля, която всъщност се оказа, че е доста комерсиална към този момент. Скоро неговите изследователи от Microsoft и Open AI написаха, че той си имал зачатъци на общ изкуствен интелект. Термин, който се употребява по-скоро, доколкото разбирам, за това, че става самостоятелен? 

"Обикновено използваме този термин за система на изкуствен интелект, която сама себе си може да адаптира към новите ситуации. Успява да реши зададени проблеми от различни области, успява да създаде собствена база от вече научени знания." 

Създава и собствено мнение за нещо? 

"Е, мога да кажа единствено, че към момента можем само да мечтаем за такъв изкуствен интелект, който да е поне близък до това, което може да има у хората. Противно на всичките превъзбудени изказвания и надежди, които съществуват, направо сме си много далече от това машините да мислят като хората. Доста път трябва да извървим дотам. До постигането на това има много път и той е изпълнен с много проблеми и фундаментални проблеми, които трябва да бъдат решени, за да може да достигнат нивото на човека."  

Да, но аз не ви карам и не ви моля да правите предсказване кога една невронна мрежа би достигнала нивото на тази на човешкото съзнание. Самите изследователи май си поставят някакви крайни цели и крайни срокове. Това го видяхме дори и с Chat GPT, когато в края на 2022-ра се появи изненадващо.  

"В момента съществува такъв модел на невронна мрежа, който ние наричаме трансформърс. Нещото, което хората откриха с този така наречен трансформърс е, че колкото по-големи ги правите тези невронни мрежи, колкото повече ги тренирате с много повече информация, започвате да виждате, че тези невронни мрежи в някакъв момент започват да проявяват признаци на определени абстрактни обосновки. Това като създатели не сме очаквали, че ще се случи. Но то се случва. Заради начина, по който тези невронни мрежи ги тренираме. Затова казваме, че невронните мрежи започват да правят тези абстрактни обосновки. Това е вече наистина интересно и изключително мощно."  

Дори опасно. Белгиец се самоуби след общуване с чатбот.

"Да, да…. Мисля че опасността при тези неща произтича не толкова от самата технология, а от културологичния аспект - как тези технологии се използват, какви системи допълват. В някакъв момент това би се превърнало в порочен кръг, ако хората започнат да вярват наистина, че тази система има възможности, които не би трябвало да притежава. Ако хората започват да вярват, че системата има някаква персоналност, има личност, че системата е интелигентна, има чувства. Въпреки че това изобщо не е така. Много хората вярват на това, самата система може да започне да отговаря по същия начин - като приятел, като партньор. Но това съвсем не означава че системата притежава тези качества."  

По тази тема вие, учените, какво казвате? 

"Че сме много много далече от момента, в който можем да кажем, че невронните мрежи притежават този т.нар. общ изкуствен интелект. Ако някой ви казва, че ние сме в момента, в който аха да започнем да имаме подобно нещо, вероятно се опитват да ви продадат нещо. И това е нещо, което вероятно не си струва и не би трябвало да купувате."  

Снимка: Pixabay

Такава ли е ситуацията с Chat GPT? 

"Със сигурност. Даже е и интересно какво казва и Сам Алтман, шефът на Open AI. Той се опитва да понамали силата на подобни твърдения, казвайки, че не, ние не сме там, все още. Разбира се, във всичко това има известно екзалтиране, защото самите системи имат възможност да правят… и правят някакви на изключително интересни неща." 

Като учен от Масачузетския институт, говорили ли сте със Сам Алтман? 

"Не. Не съм."

Питам ви, защото част от академичната общност се подписва наскоро под едно писмо на Илън Мъск и Стийв Возняк за това да се спре за малко обучаването на изкуствения интелект. Вие какво мислите по  този въпрос? 

"Не сам съгласен с това писмо. С много от нещата не съм съгласен. От една страна, че писането на писма не води до действия. И затова публикуването на писмото ми се струва чисто символичен акт. Разбирайте, технологията е вече факт. Много хора правят проучвания, тренировки на модели. И учените се чувстват все по-уверени."  

Казвате, че е безсмислено да се иска спирането на образоването на подобни системи с изкуствен интелект? 

"Аз като учен се чувствам много по-удобно, ако това обучение на изкуствен интелект става по открит начин. Ние можем да използваме тези модели, можем да опознаваме тези модели, които служат за тренировка на изкуствения интелект. Има изключително много хора, които го правят. И по този начин те разбират на какво са способни тези модели на изкуствен интелект."  

Добре, обаче допустимо ли е научната общност например да изисква от бизнеса да разкрива моделите, върху които тренира изкуствен интелект. Доколкото ми е известно, това е проблемът с Open AIи Chat GPT?  

"Има детайли. Има доста инженерство в тренирането на тези модели. Но в самата си основа най-вълнуващото е, че се използват основополагащи алгоритми в тренировката. Те не са такава новост. Нашата общност ги познава и цялата работа е в това, че много от нещата, които излизат от изкуствения интелект, не са в резултат на тези познати за нас алгоритми. А от факта, че тези модели, които тренираме с тези алгоритми произлизат от тренировката върху изключително огромни количества параметри, огромни количества данни, които те разглеждат, за да се тренират. Аз все пак мисля, че наистина, ако имаме повече отвореност, било чудесно." 

В този случай кое е най-важното за вас?  

"За научната общност би било важно наистина да има възможност да изучава тези процеси в тяхната цялост. Да предоставя обективност към въпроса. Такава обективност няма да намерите от частните компании, в стартъпите, защото те искат да прилагат моделите на изкуствени интелект комерсиално. Тяхната цел са продажбите на продуктите. Затова няма да чуете нищо обективно нито от стартъпите, нито от големите корпорации. Смятам, че ролята на отговорността е за научната общност, защото тя се опитва да разбере къде и на какво ниво са тези модели, кои са техните слабости, кои са техните силни страни. Аз всъщност си мисля, че най-големият риск, който имаме в този момент, е именно точно този стремеж на по-малки компании, които се опитват да създадат продукт, подпомогнати от изкуствения интелект. В някакъв момент тези продукти просто няма да могат да работят. Разбирате ли, тези нови продукти ще са просто един боклук. Обаче я има тази "позлата", която ни кара да реагираме така: „О, Chat GPTе изумителен! О, изкуственият интелект е толкова могъщ.“ Така на практика ще повярваме, че тези продукти работят за неща, които те наистина, ама наистина не вършат работа... И точно в софтуерния бранш е единият пример. Технологията на изкуствения интелект съвсем не е в точката, в която да уволним всички програмисти, защото нашия код може да го пише машина."  

Вие казахте, че програмистите имат своето място. Независимо от това в каква степен се развива технологията? 

"Да. Това обаче не би спряло един шеф, който няма никаква представа от това как се пише код. Няма какво да го спре, за да каже: "Всичките софтуерни специалисти ще ги уволним, защото имаме технологията това да го правим автоматично.“ Опасността е не че технологията е твърде добра. Опасността е в това, че хората започват да го използват за нещо, за които изкуственият интелект не бил би готов. Затова казвам, че технологията не просто заменя хората, а това грешно разбиране и тази грешна вяра във възможностите на технологиите. Които от друга страна още не са напълно "узрели" и това може да доведе до някакви негативни последици." 

Вие какво бихте казали на учителите, които сега са в ситуацията, в която трябва да проверяват домашни работи на ученици, които вероятно са си писали задачите с Chat GPTили с изкуствен интелект?

"Действително сме в този преходен период и трябва да се адаптираме към новостите. Това трябва да стане по същия начин, както е ставало  при адаптирането на математическото обучение след появата на калкулаторите. И тогава, а и сега стои разбирането, че децата имат полза от постоянната практика, постоянното упражняване, което може да се случи и без калкулатор. И ние окуражаваме тази практика - да смятат наум. Но щом стигнат до изчисленията на висшата математика, вече позволяваме да използват калкулаторите, таблиците… Защото те са добри и в използването на калкулаторите. И целта е не е просто да смяташ, а да се фокусираш върху по-високоинтензивната, високопродуктивна работа, която идва с висшата математика. Това е нещото, което може би ще се случи и с навлизането на изкуствения интелект в обучителния процес. Имаме един комплект от умения, които е важно човек да изгради в себе си – да се обучава и да надгражда знанието, без да разчита на някакъв тип технология. Просто да използва своите умения и да не използва машина, която да му структурира мислите по някакъв начин, за да може да се комуникира с други хора. Обаче пък, ако наистина алгоритмите ни помогнат да пишем много по-добри текстове например, аз лично бих се радвал да прочета нещо, което е написано "не чак толкова лошо". Преписването също винаги си е било проблем. И определено хората, учениците нямат нужда от Chat GPT, за да могат да мамят или да преписват. Отношението към преписването трябва да бъде в контекста на това как се изгражда културата на обучението. Навикът, по който ти изграждаш гордостта от това, че си научил нещо. Аз си мисля, че това е единственият начин, по който може да се справим с преписването. Учителите не трябва да се тревожат. Това е посланието ми. Защото изграждането на култура на учене не е лесна работа. Вярно е, че това се постига малко по-трудничко. Но трябва да бъде направено."  

Любопитен съм, в Масачузетският технологичен институт забранихте ли използването на изкуствен интелект в обучителния процес?

"Всеки курс има своите политики при нас. Дори и по отношение на преписването също има различи подходи. На нивото на писането на теза например, ако хората използват Chat GPT, за да създадат по-лесно и по-ясно структуриран текст, защо не! По-важно от структурирането са оригиналните идеи, оригиналната мисъл. Това което е казано. А това не би могло да бъде постигнато с Chat GPT. При нас сега няма някаква обща политика, която да се налага."  

По публикацията работи: Яна Боянова

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Акад. Христо Найденски с предложения за развитие на БАН

На 2 декември на Общо събрание на БАН предстои да бъде избран нов председател на Академията. Член-кореспондент Евелина Славчева и акад. Христо Найденски са допуснати до участие в избора на председател от мандатната комисия. Техните програми за развитие на Академията са качени на сайта на БАН. "В моята програма се вглеждам в бъдещето на..

публикувано на 27.11.24 в 12:23
Снимката е илюстративна

Велинградските животновъди в напрегнато очакване на повторни проби

Заради откритото огнище на чума по дребните преживни животни  във Велинград и последвалите протести на фермери там днес ще бъдат взети повторно нови 300 проби . Към момента 1700 овце са застрашени от принудително умъртвяване . Вчера животновъдите заявиха, че животните им са здрави и настояват за нови изследвания, тъй като са убедени, че..

публикувано на 27.11.24 в 06:37
Владимир Береану

Владимир Береану: Джорджеску спечели благодарение на Тик-Ток с 3 млн. последователи

Любопитни са резултатите от първия тур на президентските избори. Първия - Калин Джорджеску, изобщо социолозите не го хванаха. В проучванията той беше в графата "и други", каза журналистът Владимир Береану в интервю пред БНР. В предаването "Нещо повече" той направи интересен анализ на  двамата  от осемте кандидати за президент на северната ни..

публикувано на 25.11.24 в 18:14
Бойко Ноев

Бойко Ноев: На България са необходими нови политически субекти. Тези са изчерпани

"Дълбоко съм убеден, че  на България са ѝ необходими нови политически субекти . Тези са изчерпани. " Това заяви пред БНР   Бойко Ноев, бивш министър на отбраната и дипломат.   Ще се появят нови лидери , изрази убеденост той. Не е възможно Борисов да бъде министър-председател , смята Ноев.  Според него това е така и заради..

публикувано на 23.11.24 в 14:02

Паул Шмид: Контролът по вътрешните шенгенски граници е паническа и напълно неефективна мярка

Две години Австрия блокира пълното присъединяване на България и Румъния към Шенгенското споразумение. Вчера стана ясно, че Австрия вдига ветото. Неофициално това се знаеше още след парламентарните избори в алпийската република, казва Паул Шмид , директор на Австрийския институт за европейски политики. Паул Шмид: Назрял е политическият момент Виена..

публикувано на 23.11.24 в 11:44

Джон Маннерс-Бел: Налагането на търговски мита не носи полза за никого

Геополитическото противопоставяне ще задушава глобалната икономика в следващите години. Очаква ни вял растеж, фрагментация и най-вероятно търговска война. Това е изводът на повечето наблюдатели на икономическите процеси, пред които стои основният въпрос - какъв ще бъде следващият двигател на растеж? Отговорите са противоположни, но по един от тях като..

публикувано на 23.11.24 в 11:00

Какво произвежда нереформираното образование?

Над 2500 души са подписали петицията за преразглеждане на сегашната система от национални външни оценявания във всичките ѝ етапи. Те са достатъчно, за да потвърдим, че такъв проблем съществува , каза пред БНР Ирина Манушева, инициатор на петицията. Според нея обаче проблемът не се разпознава достатъчно ясно, а той пропива цялата..

публикувано на 22.11.24 в 10:55