Светът е изправен пред безпрецедентен по темпа си технологичен скок. Изкуственият интелект е на път да преобърне за кратко време основите на цели обществени системи. Пред очите ни сякаш оживяват и най-смелите футуристични сценарии. На изпитание са подложени много граници, а етиката се върна в центъра на обществения дебат.
Границите лесно и незабелязано може да бъдат прекрачени, а страховете от алгоритмите, които решават вместо човека, са вече факт. В този ключов за човечеството момент Европа се готви да приеме първото по рода си законодателство за защита на човека от изкуствения интелект. Новият проекторегламент с общи за всички страни членки правила за ИИ вече е на финалната права след продължили над 3 години дебати и подготвителна работа. Така ЕС ще се опита да сложи етични „юзди“ на взривно развиващ се технологичен сектор, без да го спъне със свръхрегулации в глобалната икономическа надпревара.
България също ще трябва да разработи система за прилагането на етични стандарти при разработването и внедряването на системи с изкуствен интелект. От какви принципи изхождат новите регулации и доколко успяват да отговорят на рисковете, които крият алгоритмите?
Ще загуби ли човечеството контрола върху взимане на решенията?
То отдавна е свикнало да разчита на машините и в частност компютрите, а технологичните революции винаги са водели до големи промени в тектониката на света. "Изкуственият интелект обаче крие много голям риск – човекът да изпусне контрола върху взимане на решенията", изтъкват специалистите. "Основна разлика между ИИ и традиционните информационни системи е, че при изкуствения интелект невинаги може да се даде обяснение за причината, поради която даден модел е взел определено решение и какви са входящите фактори, довели до него", изтъкват експертите, изготвили българската Концепция за развитието на изкуствения интелект до 2030 г. По тази причина алгоритмите на изкуствения интелект се сравняват с „черни кутии“, които в добавка могат да се самообучават, използвайки огромни бази данни. Рисковете от тази непрозрачност, технологична сложност и зависимост от големи данни са много сериозни. Възможни са манипулации на данните и на механизмите за взимане на решения, като потребителят изобщо може да не разбере за тях.
На този фон списъкът с основни човешки права, които системите с изкуствен интелект могат с лекота да прегазят, е предълъг. Тук попадат правото на човешко достойнство, правото на личен живот и защита на личните данни, презумпцията за невинност, правата на децата и хората с увреждания, и още, и още. Може да бъдат подкопани и свободното изразяване на мнения и свободата на събранията.
Защитата на тези основни права е в центъра на изготвения от ЕС проект на регламент, след като се оказа, че някои национални държави са започнали да готвят собствено законодателство. Това създава сериозен риск от приемане на разнопосочни правила и фрагментиране на вътрешния дигитален пазар. Счита се, че приемането на единни правила ще бъде много по-ефективно и по линия на доверието на потребителите.
Ще се справи ли ЕС с регулирането на взривно развиващ се ключов пазар?
1215 позиции на заинтересовани страни и продължили над три години консултации стоят зад проекта за регламент. На базата на получената обратна връзка експертите избират подход, основан на базата на оценка на риска, при който регулациите ще важат само за високо рисковите системи на ИИ. За системите с нисък риск ще бъдат разработени препоръчителни стандарти. Този вариант е предпочетен пред четири други възможности, като целта е да се приемат ефективни правила, без секторът да се товари със свръхрегулации.
Четири са териториите, в които ЕС планира да наложи пълна забрана за пускане на системи с изкуствен интелект. В съюза ще бъде изрично забранено използването на системи, които изпращат съобщения на подсъзнателно ниво с цел да повлияят поведението на хората. Недопустими са и системи, използващи уязвимите места на деца, възрастни и хора с увреждания, както и такива, които оценяват надеждността на групи хора на базата на социалното им поведение. Ще бъде забранена и дистанционната биометрична идентификация в реално време освен в изрични случаи - като например целево издирване на изчезнали деца или при терористични атаки.
Към тези забранени полета ЕК предлага да бъде приет списък с още 9 високо рискови сектора (виж карето), при които системите за изкуствен интелект ще бъдат сертифицирани спрямо куп изисквания.
При всички тях ще бъдат разработвани системи за управление на риска с анализ на заплахите и мерки за минимализирането им. Системите ще разполагат с възможност за автоматично записване на събитията, които да гарантират проследимостта на функционирането на системата. Задължителни изисквания има и към прозрачността и информацията за потребителите – при високо рискови системи ще се осигуряват данни за доставчика, за характеристиките и ограниченията на системата, в някой случаи – и информация за използваните входни данни.
Условие за високо рисковите системи с изкуствен интелект е и възможността те да бъдат наглеждани от човек. Този надзор от човека следва да направи възможни предприемането на мерки като отказ да се използват резултатите, възможност за прекратяване на системата с „бутон“ за спиране и др. При системите за биометрична идентификация в реално време, които ще се разрешават само в определени ситуации, системата трябва да бъде надзиравана от поне двама души. В проекта на регламент се съдържат още много изисквания по цялата верига от разработването до пускането на пазара на системите с изкуствен интелект, като при всички тях се преследва спазването на принципи като прозрачност и проследимост.
Прилагането на правилата е в ръцете на националните държави
Прилагането на всички тези изисквания на ниво национални държави няма да бъде лесно и изисква административен капацитет и изграждането на нови структури. Проверката за спазването на всички изисквания и сертификацията на високо рисковите системи ще се извършва от независими оценяващи органи, които на свой ред ще са под контрола на национален орган. Националните органи ще уведомяват Европейската комисия и останалите страни членки през специална платформа за всяка предстояща оценка на високо рискова ИИ система. Уведомлението следва да съдържа пълни подробности за предстоящата процедура по оценка и вида на изкуствения интелект, който касае. Самата оценка може да започне само в случай, че не е получено възражение от ЕК. За целите на оценката ще се използват хармонизирани стандарти или общи спецификации, като покрилите изискванията системи ще получават сертификати с максимална валидност 5 години и ще се маркират изрично с марка CE.
Всичко това ще изисква и изготвянето на нова нормативна уредба. България вече прие Концепция за развитието на ИИ до 2030 г., но работата по евентуален план за действие и ново законодателство ще започне след приемането на европейския регламент. И докато в ЕК дебатите и консултирането със заинтересовани страни текат от 2018 г., в България подготовката изостава. „Правителството се ангажира да започне ефективен диалог за разработване на стандарти с цел гарантирането на равен достъп и правата на човека, като това е една от мерките в четвъртия национален план за действие в рамките на инициативата „Партньорство за открито управление“. Въпреки че планът се прие през 2022 г., тази мярка на практика не се изпълнява“, предупреди на проведената този месец в МС дискусия „Изкуствен интелект – регулация и бъдеще“ правният експерт на Българския център за нестопанско право (БЦНП) Захари Янков.
Мярката предвижда включване на правозащитни организации в работната група „Изкуствен интелект“ към сформирания към Министерство на електронното управление обществен съвет с цел максимална прозрачност и провеждане на широк обществен дебат по бъдещите стандарти. „Неслучайно говорим за дигитална демокрация, защото за всяка нова тема, която предизвиква ценностна и етична дилема, следва да се води разговор между всички заинтересовани страни. За да е пълноценен такъв обществен диалог, трябва да бъдат подкрепени да се включат в него максимално широк кръг хора, които ще бъдат засегнати от навлизащата технология, независимо дали разбират или не как тя всъщност е създадена и работи“, изтъкват от БЦНП. Оттам са категорични, че правото на защита следва да бъде гарантирано през изрични правни механизми като гарантиране на правото на достъп до системите и за уязвими групи хора, правото за подаване на жалби при нарушени права от изкуствен интелект и правото на представителство. Искания в тази посока предявиха в свое становище 75 големи европейски граждански организации. Очаква се Европейският парламент да гласува проекта на регламент през юни.
ВИСОКО РИСКОВИ СИСТЕМИ С ИЗКУСТВЕН ИНТЕЛЕКТ
Системи с изкуствен интелект, които представляват компоненти за безопасност или са част от такива компоненти, подлежащи на регулация;
Системи за биометричната идентификация и категоризирането на групи хора в реално време и екс-пост;
Системи за определяне на достъпа на лица до образователни институции и за оценяване на учениците;
Системи за управление и експлоатация на критична инфраструктура;
Системи в областта на заетостта за подбор и оценка на кандидати за работа, за служебно повишение, за оценка на работата и прекратяване на правоотношението;
Публични системи за оценка на допустимостта на хора за получаване на помощи и услуги, оказването на спешна помощ, както и системи за оценка на кредитоспособността;
Системи в областта на правоприлагането;
Системи в областта на миграцията, убежището и граничния контрол;
Системи в областта на правораздаването и демократичния процес, които подпомагат съдебни органи при проучване на фактите и при прилагане на закона.
Историкът Ювал Харари: Борим се с ново оръжие за масово унищожение
Страховете относно изкуствения интелект (AI) преследват човечество от началото на компютърната ера. Досега тези страхове бяха насочени към машини, използващи физически средства за убиване, поробване или заменяне на хората. Но през последните две години се появиха нови инструменти за изкуствен интелект, които застрашават оцеляването на човешката цивилизация от неочаквана посока. Изкуственият интелект е придобил някои забележителни способности за боравене и създаване на език, било то с думи, звуци или изображения. По този начин той е хакнал операционната система на нашата култура.
Това написа в силно въздействащ текст за „Икономист“ известният историк и философ Ювал Харари. В текста Харари предупреждава, че човечеството е изправено пред ново оръжие за масово унищожение и следва да реагира така, както е реагирало при появата на ядрената технология.
„От 1945 г. знаем, че ядрената технология може да произвежда евтина енергия в полза на хората, но също така може да унищожи човешката цивилизация. Затова сме реформирали целия международен ред, за да защитим човечеството и да гарантираме, че ядрената технология се използва предимно за добро. Сега трябва да се борим с ново оръжие за масово унищожение, което може да унищожи нашия умствен и социален свят.
Все още можем на създадем нови инструменти за изкуствен интелект, но трябва да действаме бързо. Докато ядрените оръжия не могат да измислят по-мощни ядрени оръжия, AI може да произведе експоненциално по-мощен AI. Първата критична стъпка е да се изисква строг контрол на сигурността, преди мощните AI инструменти да бъдат пуснати в публичното пространство. Точно както една фармацевтична компания не може да пусне нови лекарства, преди да тества техните краткосрочни и дългосрочни странични ефекти, технологичните компании не трябва да пускат нови AI инструменти, преди да са безопасни. Имаме нужда от еквивалент на Администрацията по храните и лекарствата за нови технологии и имаме нужда от него вчера.
Демокрациите няма да изостанат от по-безмилостните авторитарни режими при забавяне на растежа на АI. Точно обратното. Неконтролираното внедряване на AI би създало социален хаос, който би облагодетелствал авторитарните режими и би унищожил демокрациите. Демокрацията е разговор, а разговорите се основават на езика. Когато AI хакне езика, той може да унищожи способността ни да водим смислени разговори, като по този начин унищожи демокрацията.“, написа Харари.