Изкуственият интелект, който манипулира, ще бъде "опасен", гласят нови проектоправила
-
Репортаж на Добромир Видев, Програма ''Хоризонт''
Логиката е, че колкото е по- голям рискът от използването на изкуствен интелект, толкова по- сериозни трябва да са ограниченията.
Като най-безобидни, са окачествени филтрите, които разпознават спам, например. Или софтуерът, който позволява оптимизирането на изхвърляния отпадък от предприятие. Чатботовете обаче са в следващата- по-висока рискова категория. Към тях ще има изискване човекът-ползвател да бъде уведомяван, че общува с машина. Като високорискови се считат системи, които автоматично класират за образование, сортират професионални биографии при наемане на работа, за отпускане на ипотека. Софтуерът за автономните автомобили и използваният в медицински устройства също се счита за високорисков. Маргрете Вестагер казва, че за подобни продукти в европейския пазар ще има изисквания за качеството на данните, човешки надзор, поддържане на архив на действията, осигуряването на адекватна киберзащита, информиране на потребителите.
Моето основно притеснение е, че заради подобни страхове, хората могат да се въздържат от използването на изкуствен интелект. Ако кажем „не“ на изкуствения интелект, рискът, според мен, е много по-голям. Аз например, като човек от общността, не бих искал да не използвам тази възможност - да подкрепям най-уязвимите групи от населението. Затова трябва и да сме сигурни, че доставчикът на услугата с изкуствен интелект го е „обучил“ по най-добрия начин. И така да се каже, че този изкуствен интелект е сигурен за използване, можем да му се доверим. Това е възможност за доставчиците на услуги с изкуствен интелект да предлагат използването му в области, които са изключително важни за нашия живот.
Системи, които манипулират хората на подсъзнателно ниво, нарушават правата им и създават рискове за безопасността ще бъдат забранени. Любопитно е, че Европейската комисия иска забраната и на системи, които правят групова идентификация на публични места. Както и използването на дистанционно биометрично разпознаване в реално време. Защото неточност в резултата би довела до подозрения спрямо невинен човек. От друга страна дистанционното биометрично разпознаване в криминални ситуации няма да бъде ограничавано. Според предложението ползването на биометрия при проверка на самоличност ще се насърчава. Предложенията трябва да минат през Европейския парламент и Съвета. Ще се прилагат в страните-членки, без да е необходимо да бъдат добавяни към националното законодателство. Маргрете Вестагер казва, че това законодателство е спешно.
То е първо по рода си. Може да стане ускорител на прогреса, така че се надяваме на бърз отговор от другите институции. Логиката на санкциите ще бъде - ако примерно бъде установено някакво нарушение, първоначално ще се налага по-лека санкция. Ще се иска от контролния орган доставчикът на изкуствен интелект да подобри услугата си. Ако това не се случи, е възможно да поискаме продуктът да бъде изтеглен от пазара. Възможно е да има и глоби, обяснява зам.-председателят на ЕК Маргрете Вестагер.
Последвайте ни и в Google News Showcase, за да научите най-важното от деня!