Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео"

Мелъни Мичъл: Има малка вероятност машините да станат съзнателни, по-притеснително е как хората използват изкуствения интелект

Снимка: Pixabay



Кои са реалните опасности от впечатляващото развитие на изкуствения интелект - че ще унищожи човечеството, че ще ни отнеме контрола върху цивилизацията, или че само ще започне да ни измества от работните места и ще ни залее с фалшиви видеа? Не спират новините около развитието на големите езикови модели, като ChatGPT и другите видове генеративен изкуствен интелект. Не секват и предупрежденията относно видимите огромни технологични скокове, а вече все повече са и политическите заявки за избягване на опасностите чрез регулация.


Константин Мравов потърси мнението на един особено значим специалист в сферата - професорът от Института в Санта Фе Мелъни Мичъл. Тя изследва развитието на изкуствения интелект през последните 40 години. Книгата й "Изкуствен интелект - наръчник за мислещи хора" е смятана за едно от най-добрите и достъпни обобщения по широката тема. Издадена в далечната за тази сфера 2019 година, тя обръща сериозно внимание на големите етични въпроси, които ни занимават днес.

- Новините в сферата на изкуствения интелект и големите езикови модели, като GPT, не спират и някои значими изказвания правят силно впечатление. Преди 2 седмици професор Джефри Хинтън, един от учените, наричани "Кръстници на Изкуствения интелект", напусна високия си пост в Google. По собствените му думи - за да говори за рисковете от бързото развитие на технологията. Според Хинтън, технологичната надпревара между Microsoft и Google в това поле ще доведе до толкова много "фалшиви изображения и текст, че повече никой няма да може да разпознае истината." Съгласна ли сте с тази оценка?

Съгласна съм, че има огромна опасност от използването на изкуствения интелект за генериране на фалшиви изображения и текстова информация. Системите стават все по-добри и вече е трудно да разбереш какво е реално. Проф. Хинтън е един от най-познатите в това технологично поле, но е важно да се каже, че много хора отправят същите предупреждения от години. Google имаше силен екип за AI-етика, ръководен от Тимнът Гебру и Маргарет Мичъл, които бяха уволнени преди повече от 2 години заради доклад с подобни предупреждения. Чудесно е, че проф. Хинтън сега се присъединява към притесненията им.

Случаят с Гебру и Мичъл ни показa още през 2020, че големите корпорации явно смятат етичните въпроси за вторични спрямо финансовите и други ползи от светкавичното развитие на изкуствения интелект в различните му приложения. Достигнахме обаче момента, в който езиковите модели са интегрирани в търсачките на Google и Microsoft - тоест, те формулират отговори на въпросите на милиарди хора по света, въпреки многото проблеми с компилираната от тях информация и липсата на прозрачност как всъщност биват обучавани.


Големите компаниите имат за цел да разработват продукти и да постигат финансови резултати, защото отговарят пред акционерите си. Етичната част не е приоритет, защото не  дава предимство пред конкуренцията. Публикуването на големите езикови модели, като ChatGPT и Bard на Google, ни показа сериозни етични проблеми, тъй като могат да се ползват за съчиняване на реалистично звучаща фалшива информация. Други приложения като DALL-E и Stable Difusion създават реалистични изображения. Има малко регулация и етични спирачки, което се дължи и на огромната конкуренция - Google и Microsoft не искат да изостават една от друга.

- Но по-голямата регулация изглежда неизбежна, като такива решения се подготвят и в диалог със самите компании. Белия дом наскоро събра големите AI-шефове и поиска "етично развитие" на технологията. Преди това ресорните министри на страните от Г-7 приеха план за регулация върху AI-разработките, основана на риска. По подобен начин в планиран европейски закон се въвежда дефиниция за "високо рискова" употреба на изкуствения интелект. С надежда ли трябва да гледаме към плановете за регулация поне в Западния свят?

- Има проблем с това, че тази технология е глобален феномен, а отделните страни могат да наложат регулации само на своя територия. Другият проблем е, че самата технология се развива изключително бързо и е трудно регулаторните органи да спазват темпото, особено когато ръководителите на правителствата са хора, които не я разбират. Пример за това е т.нар. "право да бъдеш забравен" в европейския регламент за защита на данните GDPR. То означава, че можете да поискате ваши лични данни да бъдат изтрити от интернет база данни, в която са попаднали. В момента обаче е технологично невъзможно да накараш някой от големите езикови модели като GPT да забрави напълно, тоест да изтрие вече придобита подобна информация. Ето защо регулациите трябва да бъдат съобразени с възможностите на тези модели. Или последващите технологични разработки да са съобразени с изискването да могат да забравят лични данни.

- Да се върнем към друго изказване на Джефри Хинтън, което ни насочва към популярно предупреждение. Той смята, че моментът, в който изкуственият интелект ще стане по-интелигентен от човека, вече не е толкова далеч. И на обикновените хора това не изглежда странно, предвид поемите на езиковите модели и красивите картини на генераторите на изображения. Що се отнася само до изчисления, отдавна човекът не може да смята по-бързо от калкулатор, нито да спечели срещу компютър на шах.

От друга страна, току-що помолих ChatGPT да напише три изречения, в които третата дума е "ябълка" и програмата не успя да се справи със задача, която е по възможностите на всеки от нас. Други тестове показват как езиковите модели понякога изпитват затруднения с проста математика.  

И въпреки това изказването на Хинтън не е единственото предупреждение относно скорошното достигане на т.нар. Общ изкуствен интелект - компютърен ум на човешко ниво, но с невъобразимо по-голяма изчислителна мощ. И вие ли смятате, че се приближаваме към този момент?

AGI или Общият изкуствен интелект се дефинира по различен начин от различни хора. Чувала съм го като "машина, която е по-умела от хората във всички когинитивни задачи". Тук не говорим за физически умения, като да изкопаеш дупка. Не е лесно обаче да отделим физическите си умения от когнтивните способности. Също така, можете ли да направите списък на всички аспекти на човешкото познание, които използваме в живота си? Хората не осъзнават сложността на собствената си интелигентност, защото много от продиктуваните от нея действия извършваме подсъзнателно.

Нивото на човешкия интелект, доколкото можем да го дефинираме, все още е далеч от възможностите на машините. Системи като GPT-4 правят невероятни неща, но все още допускат немислими за човека грешки. Не знам дали и как може да се пророкува кога изкуственият интелект ще има човешка интелигентност, но във всичките десетилетия на неговото разработване някой повтаря, че този момент е близо. А той все не идва и аз все още мисля, че е далеч.  

- Тоест - трябва да сме по-притеснени от начина, по който хората ползват сегашните възможности на технологиите, отколкото от възможността машините да станат съзнателни?

Има малка вероятност машините да станат съзнателни подобно на живите същества и да придобият собствени желания и мотивация. Поне в близкото бъдеще не виждам такава възможност. Много по-притеснително е как хората използват тези системи в политическата сфера, рекламата и в общия смисъл за манипулация.

Защото генераторите на изображения и видео вече ви предлагат реалистично изглеждащ бой между Кейт Мидълтън и Мегън Маркъл, или пък привидно истински Владимир Путин и Доналд Тръмп по халати, седнали в едно легло. Компилирайки текст по ваша заявка, езиковите модели, също като хората, могат да включат лъжлива информация, прочетена от тях в интернет. Към момента няма прозрачност на какви бази данни и по какъв начин големите дигитални компании тренират изкуствения интелект.


- Как да ограничим рисковете? Някои специалисти предлагат разработките  да се извършват в затворена среда, тоест без достъп на системите до интернет. Други поглеждат към междуправителствени споразумения и примера на ЦЕРН - Европейския център за ядрени изследвания - съвместен за 23 държави. Едно припомняне - световната мрежа е родена именно в ЦЕРН, най-напред като средство за обмяна на научна информация. Трябва ли да се насочим към подобни модели на научно сътрудничество в сферата на изкуствения интелект?

- Да оставим разработването на изкуствения интелект на големите търговски компании е опасно. Причината са по-рано споменатите проблеми и липсата на прозрачност при разработките. Ако ЦЕРН е позитивен пример, то е защото научните му разработки са в обща полза, предвид правителственото финансиране, а не в такава на голяма компания. Това е ценна възможност и в полето на изкуствения интелект.

В момента в Съединените щати се работи по създаването на институти за AI-разработки, които се финансират от Националната научна фондация. Това е държавна институция. Има такива проекти и в Европа, а междуправителствен модел като този на ЦЕРН ще позволи на учени извън големите компании да разработват, изследват и разберат по-добре изкуствения интелект, но при прозрачност на научната им работа. Това дава и по-добра възможност за справянето със заплахи като разпространяването на дезинформация чрез изкуствен интелект.

- На бъдещето оставяме въпроса как работата на такива центрове с публично финансиране, образно казано, ще съжителства с тази на търговските компании. В настоящето сме впечатлени от човешки звучащите отговори на ChatGPT. Но на кои други приложения на генеративния изкуствен интелект следва да обърнем най-голямо внимание?

Освен върху човешки език, тези системи се тренират на компютърен код и са много успешни в генерирането на код по заявка. Мога да поискам на английски от голям езиков модел да създаде определена компютърна програма и той ще ми даде програмен код, който често е много добър. Това е важно за цялата софтуерна индустрия. От определена гледна точка, тези системи показват по-добри възможности в програмирането, отколкото в човешката комуникация.

Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео. Такива мултимодални генеративни системи ще могат например да изгледат видеоклип и да задават въпроси по съдържанието или пък да го обобщят. Ще могат да опишат някакво изображение на незрящи хора. И в следващите години ще има голям интерес към тези мултимодални системи, които съчетават възможността за езиково общуване с разбирането на аудио и видео съдържание.

По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Андрей Келин, посланик на Русия във Великобритания.

Руският посланик във Великобритания: Санкциите срещу Русия не постигнаха целите си

Санкциите, наложени на Русия заради нахлуването й в Украйна, не успяха да постигнат нито една от целите си, каза руският посланик във Великобритания пред "Скай нюз". Андрей Келин направи своето изявление, след като разследване на журналиста Ед Конуей от "Скай нюз" разкри "явни вратички в режима на ограничения", който позволява на британските компании по..

публикувано на 03.07.24 в 02:22

Гръмотевична буря, силен вятър и 13 литра/кв.м дъжд над Русе

Около 18:00 часа тази вечер над Русе и региона се разрази гръмотевична буря със силен дъжд. Паднали са 13 литра на квадратен метър, а силният вятър достигна скорост от 50,4 километра в час.  Прогнозите са за още и по-обилни валежи през нощта. Движението по пътя Русе – Бяла е затруднено в участъка между разклона за село Обретеник и село Волово заради..

публикувано на 02.07.24 в 20:44

Вятър наклони стълб от електропреносната мрежа в Кюстендил

Стълб от електропреносната мрежа по кюстендилската ул."Даскал Димитри" се е наклонил заради силния вятър в града.  Екипи на "Електрохолд" и Общината са спрели движението в дветe посоки, както и електрозахранването до изграждането на временна въздушна линия.  Утре ще бъде поставен нов стълб, каза експертът при управление при кризи към Общината Ивайло..

публикувано на 02.07.24 в 20:41
Снимката е илюстративна, архив.

Системата за сключване на "Гражданска отговорност" функционира нормално

Възстановено е нормалното функциониране на системата за сключване на застраховка "Гражданска отговорност" на автомобилистите, съобщиха от Гаранционния фонд. През последните дни се появиха проблеми със системата за задължителната полица. От фонда обясняват, че след профилактика през почивните дни "затрудненията са свързани с натрупването на висок..

публикувано на 02.07.24 в 20:35

До 14 юли - специализирана полицейска операция на Пътна полиция в цялата страна

Увеличава се броят на жертвите и ранените при пътни инциденти през последните седмици, констатира пред журналисти комисар Мария Ботева, заместник-началник на отдел "Пътна полиция". "До 14 юли тече специализирана полицейска операция на територията на цялата страна. Силите и средствата на пътната полиция са насочени да контролират във всички точки на..

публикувано на 02.07.24 в 20:25

Търговски камари с отворено писмо към депутатите: Бизнесът очаква стабилност и предвидимост

За отговорно държавническо поведение и спешни действия в полза на обществото и бъдещето на България призовават в отворено писмо няколко търговски камари, които представляват компании от основните външнотърговски партньори на страната ни. Те се обръщат към депутатите от 50-ото Народно събрание с призив за предвидимост и ясни приоритети, както..

публикувано на 02.07.24 в 20:12

Парламентът ще гласува проектокабинета, предложен от ГЕРБ-СДС, в 13 часа утре

Народното събрание ще гласува предлагания от ГЕРБ–СДС министър-председател, структура и състав на Министерския съвет от 13:00 часа утре, 3 юли. Това предвижда точка от проектопрограмата за работа на депутатите, публикувана на интернет страницата на Народното събрание. Първият мандат: Росен Желязков е кандидатът на ГЕРБ-СДС за премиер Р...

публикувано на 02.07.24 в 20:11