Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Би било проблем, ако хората започват да вярват, че системата има "личност" и "чувства", изтъква световноизвестният експерт по изкуствен интелект

Проф. Армандо Солар-Лезама: Много сме далече от това машините да "мислят" като хората

Опасността при ИИ произтича не толкова от самата технология, а от културологичния аспект - как я използваме, категоричен е специалистът

проф. Армандо Солар-Лезама
Снимка: Добромир Видев

Ще се самопрограмира ли изкуственият интелект в бъдеще? И защо учените го карат да пише програми, вместо да дава директни отговори? Това бяха само част от въпросите, които световноизвестният експерт по изкуствен интелект проф. Армандо Солар-Лезама обсъди с български IT специалисти. Армандо Солар-Лезама беше в София за лекция по покана на Института за компютърни науки, изкуствен интелект и технологии (INSAIT). Той е един от ръководителите на лабораторията по информатика и изкуствен интелект в Масачузетски технологичен институт. Проф. Лезама даде специално интервю за БНР.

Защо карате изкуствения интелект да пише програми? 

"Целта ни е да накараме изкуственият интелект да се научи да пише програми и да помага със задачите на софтуерните инженери. От друга страна това е начинът да подобрим обучението и да го направим по-мощно. Имаме много приложения, в които използваме изкуствен интелект. Например, областите, в които работи моята научна група, са свързани с научните открития. Една от областите е в процеса на т.нар. РНК сплайсинг. Искаме да разберем как клетките се опитват да манипулират РНК-то, за да може да произвеждат протеини. В този процес използваме изкуствения интелект. Работата е там, че ако вземем всичко, което нашите биолози знаят за този процес на манипулация на РНК веригите, можем да обясним само част от това, което се случва всъщност. В същото време за този механизъм имаме много, много информация. И това, което се опитваме да направим, е да използваме тези данни, да ги дадем на изкуствения интелект, за да ги обясним и разберем. С това ни си иска да имаме едно много лесно четимо показване на този механизъм. За да може на базата на резултатите да развиваме нови лечения за заболявания, например. По един друг проект имаме сътрудничество с група програмисти. И се опитваме да направим по-добри управления за роботите. За да може да бъдат по-сигурни и да разчитаме на тях при работа." 

Вие казвате, че трябва да имаме програми, които да бъдат произвеждани от изкуствения интелект. А не той да дава директни отговори. Защо?  

"Проблемът със съществуващите невронни мрежи е, че е много трудно да предвидим как те биха могли да работят. Към този момент те са много непрозрачни, трудно можем да разберем тяхното вътрешно функциониране. Минавайки през това да ги караме да програмират, ние минаваме през всички онези инструменти, които вече са били създадени през последните няколко години. Това ни позволява да развием и надграждаме нашата собствена възможност да четем и да разбираме код. И да разбираме по този начин какво системата научава, как ще се държи в нови ситуации, които не са дори предвидени и не са виждани. Това ни дава някакво ниво на предвидимост на невронните мрежи."  

Имате ли някакъв успех? 

"В много от секторите и областите го правим по този начин, по който не бихме могли, използвайки чисто машинно обучение. В много от случаите успяваме да създадем контролери, които могат да бъдат потвърдени и да докажем, че те ще се държат по очаквания начин при всичките възможни ситуации, които те срещат." 

Това звучи все едно учените казвате "Спокойно, хора, ние, учените знаем какво правим с изкуствения интелект. Той е под наш контрол, не толкова опасен“? 

"Изучаването на изкуствения интелект определено все още е в изследователската си област, в изследователския си етап и дори ние се учим как много от нещата се правят. Но това е изключително важен аспект от дневния ни ред. Да можем да създаваме системи с изкуствен интелект, които разбираме и е възможно да изградим със знанието, с което разполагаме. Вместо да се опитваме да преоткриваме от нулата нещата. Така можем да гарантираме, че можем да предвидим и как тези невронни мрежи ще се държат в различни ситуации. За да може да имаме и ние някаква полза от тези обучаеми системи. И в същото време наистина да успеем да минимизираме рисковете." 

Забелязахте, че досега не съм ви питал за Chat GPT и неговата роля, която всъщност се оказа, че е доста комерсиална към този момент. Скоро неговите изследователи от Microsoft и Open AI написаха, че той си имал зачатъци на общ изкуствен интелект. Термин, който се употребява по-скоро, доколкото разбирам, за това, че става самостоятелен? 

"Обикновено използваме този термин за система на изкуствен интелект, която сама себе си може да адаптира към новите ситуации. Успява да реши зададени проблеми от различни области, успява да създаде собствена база от вече научени знания." 

Създава и собствено мнение за нещо? 

"Е, мога да кажа единствено, че към момента можем само да мечтаем за такъв изкуствен интелект, който да е поне близък до това, което може да има у хората. Противно на всичките превъзбудени изказвания и надежди, които съществуват, направо сме си много далече от това машините да мислят като хората. Доста път трябва да извървим дотам. До постигането на това има много път и той е изпълнен с много проблеми и фундаментални проблеми, които трябва да бъдат решени, за да може да достигнат нивото на човека."  

Да, но аз не ви карам и не ви моля да правите предсказване кога една невронна мрежа би достигнала нивото на тази на човешкото съзнание. Самите изследователи май си поставят някакви крайни цели и крайни срокове. Това го видяхме дори и с Chat GPT, когато в края на 2022-ра се появи изненадващо.  

"В момента съществува такъв модел на невронна мрежа, който ние наричаме трансформърс. Нещото, което хората откриха с този така наречен трансформърс е, че колкото по-големи ги правите тези невронни мрежи, колкото повече ги тренирате с много повече информация, започвате да виждате, че тези невронни мрежи в някакъв момент започват да проявяват признаци на определени абстрактни обосновки. Това като създатели не сме очаквали, че ще се случи. Но то се случва. Заради начина, по който тези невронни мрежи ги тренираме. Затова казваме, че невронните мрежи започват да правят тези абстрактни обосновки. Това е вече наистина интересно и изключително мощно."  

Дори опасно. Белгиец се самоуби след общуване с чатбот.

"Да, да…. Мисля че опасността при тези неща произтича не толкова от самата технология, а от културологичния аспект - как тези технологии се използват, какви системи допълват. В някакъв момент това би се превърнало в порочен кръг, ако хората започнат да вярват наистина, че тази система има възможности, които не би трябвало да притежава. Ако хората започват да вярват, че системата има някаква персоналност, има личност, че системата е интелигентна, има чувства. Въпреки че това изобщо не е така. Много хората вярват на това, самата система може да започне да отговаря по същия начин - като приятел, като партньор. Но това съвсем не означава че системата притежава тези качества."  

По тази тема вие, учените, какво казвате? 

"Че сме много много далече от момента, в който можем да кажем, че невронните мрежи притежават този т.нар. общ изкуствен интелект. Ако някой ви казва, че ние сме в момента, в който аха да започнем да имаме подобно нещо, вероятно се опитват да ви продадат нещо. И това е нещо, което вероятно не си струва и не би трябвало да купувате."  

Снимка: Pixabay

Такава ли е ситуацията с Chat GPT? 

"Със сигурност. Даже е и интересно какво казва и Сам Алтман, шефът на Open AI. Той се опитва да понамали силата на подобни твърдения, казвайки, че не, ние не сме там, все още. Разбира се, във всичко това има известно екзалтиране, защото самите системи имат възможност да правят… и правят някакви на изключително интересни неща." 

Като учен от Масачузетския институт, говорили ли сте със Сам Алтман? 

"Не. Не съм."

Питам ви, защото част от академичната общност се подписва наскоро под едно писмо на Илън Мъск и Стийв Возняк за това да се спре за малко обучаването на изкуствения интелект. Вие какво мислите по  този въпрос? 

"Не сам съгласен с това писмо. С много от нещата не съм съгласен. От една страна, че писането на писма не води до действия. И затова публикуването на писмото ми се струва чисто символичен акт. Разбирайте, технологията е вече факт. Много хора правят проучвания, тренировки на модели. И учените се чувстват все по-уверени."  

Казвате, че е безсмислено да се иска спирането на образоването на подобни системи с изкуствен интелект? 

"Аз като учен се чувствам много по-удобно, ако това обучение на изкуствен интелект става по открит начин. Ние можем да използваме тези модели, можем да опознаваме тези модели, които служат за тренировка на изкуствения интелект. Има изключително много хора, които го правят. И по този начин те разбират на какво са способни тези модели на изкуствен интелект."  

Добре, обаче допустимо ли е научната общност например да изисква от бизнеса да разкрива моделите, върху които тренира изкуствен интелект. Доколкото ми е известно, това е проблемът с Open AIи Chat GPT?  

"Има детайли. Има доста инженерство в тренирането на тези модели. Но в самата си основа най-вълнуващото е, че се използват основополагащи алгоритми в тренировката. Те не са такава новост. Нашата общност ги познава и цялата работа е в това, че много от нещата, които излизат от изкуствения интелект, не са в резултат на тези познати за нас алгоритми. А от факта, че тези модели, които тренираме с тези алгоритми произлизат от тренировката върху изключително огромни количества параметри, огромни количества данни, които те разглеждат, за да се тренират. Аз все пак мисля, че наистина, ако имаме повече отвореност, било чудесно." 

В този случай кое е най-важното за вас?  

"За научната общност би било важно наистина да има възможност да изучава тези процеси в тяхната цялост. Да предоставя обективност към въпроса. Такава обективност няма да намерите от частните компании, в стартъпите, защото те искат да прилагат моделите на изкуствени интелект комерсиално. Тяхната цел са продажбите на продуктите. Затова няма да чуете нищо обективно нито от стартъпите, нито от големите корпорации. Смятам, че ролята на отговорността е за научната общност, защото тя се опитва да разбере къде и на какво ниво са тези модели, кои са техните слабости, кои са техните силни страни. Аз всъщност си мисля, че най-големият риск, който имаме в този момент, е именно точно този стремеж на по-малки компании, които се опитват да създадат продукт, подпомогнати от изкуствения интелект. В някакъв момент тези продукти просто няма да могат да работят. Разбирате ли, тези нови продукти ще са просто един боклук. Обаче я има тази "позлата", която ни кара да реагираме така: „О, Chat GPTе изумителен! О, изкуственият интелект е толкова могъщ.“ Така на практика ще повярваме, че тези продукти работят за неща, които те наистина, ама наистина не вършат работа... И точно в софтуерния бранш е единият пример. Технологията на изкуствения интелект съвсем не е в точката, в която да уволним всички програмисти, защото нашия код може да го пише машина."  

Вие казахте, че програмистите имат своето място. Независимо от това в каква степен се развива технологията? 

"Да. Това обаче не би спряло един шеф, който няма никаква представа от това как се пише код. Няма какво да го спре, за да каже: "Всичките софтуерни специалисти ще ги уволним, защото имаме технологията това да го правим автоматично.“ Опасността е не че технологията е твърде добра. Опасността е в това, че хората започват да го използват за нещо, за които изкуственият интелект не бил би готов. Затова казвам, че технологията не просто заменя хората, а това грешно разбиране и тази грешна вяра във възможностите на технологиите. Които от друга страна още не са напълно "узрели" и това може да доведе до някакви негативни последици." 

Вие какво бихте казали на учителите, които сега са в ситуацията, в която трябва да проверяват домашни работи на ученици, които вероятно са си писали задачите с Chat GPTили с изкуствен интелект?

"Действително сме в този преходен период и трябва да се адаптираме към новостите. Това трябва да стане по същия начин, както е ставало  при адаптирането на математическото обучение след появата на калкулаторите. И тогава, а и сега стои разбирането, че децата имат полза от постоянната практика, постоянното упражняване, което може да се случи и без калкулатор. И ние окуражаваме тази практика - да смятат наум. Но щом стигнат до изчисленията на висшата математика, вече позволяваме да използват калкулаторите, таблиците… Защото те са добри и в използването на калкулаторите. И целта е не е просто да смяташ, а да се фокусираш върху по-високоинтензивната, високопродуктивна работа, която идва с висшата математика. Това е нещото, което може би ще се случи и с навлизането на изкуствения интелект в обучителния процес. Имаме един комплект от умения, които е важно човек да изгради в себе си – да се обучава и да надгражда знанието, без да разчита на някакъв тип технология. Просто да използва своите умения и да не използва машина, която да му структурира мислите по някакъв начин, за да може да се комуникира с други хора. Обаче пък, ако наистина алгоритмите ни помогнат да пишем много по-добри текстове например, аз лично бих се радвал да прочета нещо, което е написано "не чак толкова лошо". Преписването също винаги си е било проблем. И определено хората, учениците нямат нужда от Chat GPT, за да могат да мамят или да преписват. Отношението към преписването трябва да бъде в контекста на това как се изгражда културата на обучението. Навикът, по който ти изграждаш гордостта от това, че си научил нещо. Аз си мисля, че това е единственият начин, по който може да се справим с преписването. Учителите не трябва да се тревожат. Това е посланието ми. Защото изграждането на култура на учене не е лесна работа. Вярно е, че това се постига малко по-трудничко. Но трябва да бъде направено."  

Любопитен съм, в Масачузетският технологичен институт забранихте ли използването на изкуствен интелект в обучителния процес?

"Всеки курс има своите политики при нас. Дори и по отношение на преписването също има различи подходи. На нивото на писането на теза например, ако хората използват Chat GPT, за да създадат по-лесно и по-ясно структуриран текст, защо не! По-важно от структурирането са оригиналните идеи, оригиналната мисъл. Това което е казано. А това не би могло да бъде постигнато с Chat GPT. При нас сега няма някаква обща политика, която да се налага."  

По публикацията работи: Яна Боянова

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Любчо Георгиевски

Любчо Георгиевски: Има дежурни, които не позволят отношенията между София и Скопие да вървят напред

Постоянно има дежурни, които се занимават с това да не позволят отношенията между София и Скопие да вървят напред . Това заяви пред БНР бившият македонски премиер (1998-2002 г.) Любчо Георгиевски, лидер на ВМРО-Народна партия. " Всеки път, когато отношенията се подобряват, се случва някой да започне да ги влошава . ... Не знам какво в този момент..

публикувано на 27.09.24 в 18:02
Христиана Бацелова

Д-р Христиана Бацелова: Необходимо е и двата пола да бъдат ваксинирани срещу HPV

По данни на Европейската ракова информационна система за 2022 г. България е на второ място в ЕС по заболеваемост и смъртност от рак на маточната шийка с 503 смъртни случая. Това е втората водеща причина за смърт от рак при жените от 15 до 45 години в България.   Експерти настояват и момчетата да получават безплатна ваксина срещу човешки..

публикувано на 27.09.24 в 11:17
Д-р Юлиян Петров, председател на Синдиката

Изследване за образованието: 80% искат повече практически упражнения и формиране на компетентности

" Учителят се е превърнал в плен на документа. Учителят не е момчето за всичко - той не би трябвало да пази в коридора, на двора или в автобусите. Несвойствените дейности претоварват учителя и той не издържа и отива да прави нещо друго или не е ефективен за своите ученици. Тези неща трябва да решим, за да запазим учителите и да задържим младите в..

публикувано на 27.09.24 в 10:14

Маринела Величкова: Сред хората в РСМ няма съвсем ясна картина за това какво е възможно

" Очаквам ясна позиция на албанските партии, за да се опитаме да се ориентираме какво следва оттук нататък ". Това заяви пред БНР кореспондентът на БТА в Скопие Маринела Величкова.  Вчера постоянните представители на ЕС единодушно решиха да започнат преговори с Албания за членство в ЕС, но не и с Република Северна Македония. Решението на ЕС..

публикувано на 27.09.24 в 09:00

Радосвета Стаменкова: Не можем да задраскаме интернет, но можем да модерираме

Децата у нас са сред най-пристрастените към социалните мрежи. 34% от подрастващите съобщават, че играят онлайн игри всеки ден . Това е един от тревожните изводи на последното проучване върху зависимостта на децата от социални мрежи. Проучването "Здравно поведение при деца в училищна възраст" изследва около 280 хил. деца на 11, 13 и 15 години в..

публикувано на 26.09.24 в 11:05

Хора с увреждания в планината: Мисия възможна

" Хората с увреждания нямат нужда от съжаление, те имат нужда да се държим с тях като равни, което е проблем в България . Не всеки го разбира. Хората като че ли малко странят, а всъщност те са толкова пълноценни хора, колкото и ние. Това, че имат някакъв двигателен проблем не ги прави по-малко хора от нас ". Това каза пред БНР Вера Асенова..

публикувано на 25.09.24 в 10:47

Росина Тодорова: Младото поколение има твърде ниска здравна култура

Хората подценяват проблемите, които замърсеният въздух създава . Това заяви пред БНР Росина Тодорова - председател на Сдружение "Жените в бизнеса и професиите - София", преди пресконференцията "На въздух: Да седнем заедно и да поговорим за профилактиката преди лечението". Темата е част от по-големия проект "Пейка за здраве"...

публикувано на 25.09.24 в 09:52