Нещата са сериозни - това става ясно от думите на Джак Кларк, съосновател на компанията за изкуствен интелект и бивш директор по политиката на OpenAI, компанията зад ChatGPT. Пред членовете на Съвета за сигурност той очерта ситуацията така – за 10 години напредъкът е сериозен. Преди 10 години компатнията Deep Mind учила изкуствения интелект да играе стари компютърни игри като Space Invaders и Pong. Сега същите техники се използват при тренирането на AI системи, които могат да победят военни пилоти и при симулации на въздушен бой, да стабилизират процеси в плазмени и термоядрени реактори, да проектират компонентите на полупроводници от следващо поколение. При компютърното зрение се стигнало от генериране много груби пикселизирани изображения до днешните възможности за проверка на стоки на производствени линии, за анализиране на сателитни изображения и подобряване на държавната сигурност. В дъното на тезата на Джак Кларк е, че не може да се вярва на големите технологични компании, че гарантират безопасността на системи, които все още не разбираме и са склонни към "хаотично или непредсказуемо поведение":
"Не можем да оставим развитието на изкуствения интелект единствено на участниците от частния сектор. Правителствата по света трябва да се обединят, да развият държавен капацитет и да превърнат разработването на мощни системи с изкуствен интелект в общо начинание. Във всички части на обществото. Вместо да се диктува единствено от малък брой фирми, конкуриращи се една с друга на пазара."
Участниците в частния сектор разполагат със сложните компютри и големи масиви от данни и капиталови ресурси за изграждането на тези системи. Затова според Джак Кларк участниците в частния сектор ще продължат да определят развитието на тези системи. Бившият директор по политиката на OpenAI признава, че разработките вървят с ползите за хората. Но той вижда и потенциални заплахи за мира, сигурността и глобалната стабилност. "Трябва да помислим много внимателно как да гарантираме, че разработчиците на тези системи са отговорни, така че да изграждат и внедряват безопасни и надеждни системи, които не компрометират глобалната сигурност", смята Джак Кларк. Защото с тези технологии може да се злоупотребява и те са непредсказуеми. Примерът на Кларк е следният – все едно да създаваме двигател, без да разбираме науката зад вътрешното горене.
"Не мислете за изкуствения интелект като за специфична технология. А като за вид човешки труд, който може да се купува и продава със скоростта на компютър и който става все по-евтин и по-мощен с течение на времето. И както описах, това е форма на труд, която се развива от един тесен клас компании. Трябва да сме наясно с огромните политически лостове, които това предоставя. Ако можете да създадете заместител или допълнение на човешкия труд и да го продадете на света, с времето ще станете по-влиятелни. Много от предизвикателствата на политиката за ИИ изглеждат по-лесни за мислене, ако мислим за тях по този начин. Как трябва да реагират нациите по света на факта, че всеки, който има достатъчно пари и данни, сега може лесно да създаде изкуствен експерт за даден домейн, който трябва да има достъп до тази власт? Как правителствата трябва да регулират тази власт? Кои трябва да бъдат актьорите, способни да създават и продават тези така наречени експерти и какви експерти можем да позволим да бъдат създадени? Това са огромни въпроси."
Отговорът на тези въпроси е да се разработи тестване за възможности, злоупотреби и потенциални пропуски в безопасността на тези системи.
"Ако създаваме и разпределяме нови видове работници, които ще влязат в глобалната икономика, тогава е логично да искаме да можем да ги характеризираме, да оценяваме способностите им и да разбираме недостатъците им", отбелязва Джак Кларк. Затова той приветства рамката на Европейския съюз за ИИ и наскоро обявените от Китай генеративни правила за ИИ, както и стандартите на Националния институт за технологии на Съединените щати. Правителствата по света трябва да инвестират в тази област, настоява Джак Кларк.
Професор Yi Zeng, директор на Лабораторията за когнитивно разузнаване на Китайската академия на науките обясни пред Съвета за сигурност, че ООН трябва да създаде работна група, която да разгледа краткосрочните и дългосрочните предизвикателства, които ИИ поставя пред международния мир и сигурност.
"Предполага се, че изкуственият интелект трябва да помогне да решаваме проблемите, а не да създава проблеми. По-добре да използваме изкуствения интелект да взривява ядрената бомба на астероида, който заплашва Земята, отколкото да ползваме изкуствения интелект да насочва един към друг ядрени оръжия. Според мен хората винаги трябва да имат последната дума, да носят отговорност за вземането на окончателно решение относно използването на. ядрени оръжия. И вече потвърдихме, че ядрена война не може да бъде спечелена и никога не трябва да се води. Много страни обявиха свои собствени стратегии и мнения относно използването на изкуствения интелект за сигурност и управление като цяло."
Какво мислят държавите за контрола при използването на изкуствения интелект? В изказванията на членовете на Съвета за сигурност на ООН присъстваше съзнанието, че изкуственият интелект ще влияе върху решенията на този орган. Великобритания призова големите компании да работят с правителствата, за да се минимизират рисковете. Тази есен в Обединеното кралство ще има международна конференция, посветена на сигурността на изкуствения интелект. Посланикът на Китай в ООН Джан Джун каза, че никоя държава-членка не трябва да използва ИИ, за да цензурира, ограничава, репресира или лишава от власт хора. Представителят на Бразилия настоя да има бързо разработване на правила и норми за използването на автономните военни системи. И изрази притеснение, че само за часове системи с ИИ могат да създадат нови смъртоносни химически съединения, патогени и молекули. ИИ не трява да се обвързва с ядрените системи на оръжията, посочи той.
Швейцария разработва за кризисния център на ООН, подпомаган от ИИ, инструмент за анализ. В изказването си заместник-посланикът на Русия в ООН Дмитрий Полянски поясни, че в страната големите IT компании са разработили етични правила за работа. И не спести критиките към Запада, като посочи, че често алгоритми се използват за манипулация на настроенията и съдържанието.
От няколкото години съществува и платформата за дискусии, наречена "ИИ за добро", в която специалисти дискутират възможностите за прилагането му за постигане на целите за устойчиво развитие на ООН. По време на дискусията в Съвета за сигурност бяха спомената и серия други инициативи, обхващащи страните от Г7, Япония, Африка, плановете на ЕС за законодателство в областта. Но според генералният секретар на ООН Анонио Гутиериш диалогът трябва да продължи.
"Дори създателите на изкуствения интелект нямат представа докъде може да доведе техният зашеметяващ технологичен пробив. Комисия за правата на човека вече изрази тревога от доказателства, че използването му може да засили пристрастията, да засили дискриминацията и да позволи нови нива на авторитарно наблюдение. Влиянието на изкуствения интелект върху мира и сигурността вече поражда политически, правни, етични и хуманитарни опасения. Призовавам Съветът за сигурност да подходи към тази технология с чувство за неотложност, всеобхватност и с нагласата на човек, който все още се обучава. ООН ще препоръча държавите членки да разработят национални стратегии за отговорно проектиране, разработване и използване на изкуствения интелект. Стратегиите ще трябва да са съобразени с международното хуманитарно право и правата на човека. Трябва да се обсъжда вече и изработването на норми, правила и принципи относно военните приложения на изкуствения интелект. Нужна ни е глобална рамка за регулиране и укрепване на механизмите за надзор върху използването на технологии, базирани на данни, включително изкуствен интелект за целите на борбата с тероризма."
Генералният секретар на ООН Анонио Гутериш призова до 2026 г. да приключат преговорите и да е готово споразумение, което да забрани малки автономни оръжейни системи, които функционират без човешки контрол. Препоръча и общо съгласие между страните членки на ООН, че винаги ще има човешки контрол над ядреното въоръжение. И това, че то никога не би трябвало да бъде оттегляно.
Купуването и продаването на гласове вече стана демоде . В последните няколко избора вече виждаме, че модерният начин е купуването на цели избирателни комисии . Това мнение изрази пред БНР Калин Славов, изпълнителен директор на "Прозрачност без граници". Според него е реалистично да се смята, че купеният вот възлиза на 4-5%. Това са..
Две зони трябва да станат тестови площадки за употребата на дронове и дори на летящи коли. Плановете обаче не са реалност, заради липсата на интерес към управлението на тези пространства, които по европейските правила трябва да са част от т.нар. Ю-спейс пространство. Една от тези зони е край град Раковски, а другата – в южните райони на..
Да се разширят възможностите за превенция и възстановяване на здравето за българските граждани в медикъл и спа центровете у нас и това да бъде финансирано от общественото здравеопазване . Темата отново бе поставена от Българския съюз по балнеология и СПА туризъм по време на дискусия с участието на министъра на здравеопазването д-р Галя..
Мартин Димитров е на 24 години, роден в Мадрид, вече е посетил 52 държави , живял е в четири и продължава да пътува. Превърнал е хобито си в професия, сега е екскурзовод и е убеден , че всеки млад човек може успешно да се реализира в България. Как се справя с предизвикателствата на професията , как се подготвя за едно пътуване,..
Доц. Андрей Андреев , един от водещите офталмолози в България, гост в предаването "Нощен хоризонт" споделя за своите дълбоки размисли върху офталмологията, медицината и човешките взаимоотношения. " Срещата между пациента и лекаря е среща на доверието със съвестта , каза за БНР доц. Андрей Андреев . Това определение, споделено от..
В област Велико Търново избирателната активност към 11 часа е 10,78 процента и е с едно на сто по-висока от изборите през юни. От десетте общини в региона най-висока е активността в община Сухиндол – 17,6 %, а най-ниска от 7,8 % е в община Горна Оряховица. 6 машини са спрели работа. От тях не се разпечатва вота на избирателите, а само номера на..
През последните години някои развития в технологиите се превърнаха в повод за прогнози за крах на човешката цивилизация. Алгоритмите в социалните мрежи са обвинени за убийството на понятието "истина". Видимите скокове на изкуствения интелект са вече инструмент и за постигането на зловредни цели и създават допълнително притеснение заради..
Непрекъснато трябва да се говори за психичното здраве. Това обясни пред БНР Албена Дробачка, ръководител на къща "Скрити лайкове". Пространството..
Това е МВР - Ново начало , заяви пред БНР лидерът на "Възраждане" Костадин Костадинов. "По време на кампанията ние подадохме повече от 70 сигнала...