Италия стана първата страна в света, блокирала достъпа на ChatGTP до гражданите си, съобщи АФП. Италианският орган за защита на личните данни е взел това решение, заявявайки, че приложението с изкуствен интелект не зачита данните на потребителите и не може да удостовери възрастта им.
Решението "с незабавно действие" ще доведе до "временно ограничаване на обработката на данни на италиански потребители спрямо OpenAI", заявиха още от институцията. Забраната за чатбота на OpenAI остава в сила до второ нареждане - "докато не отговори на европейския регламент за защита на личните данни", допълва Politico.
Мярката е предприета заради изтекли данни от ChatGPT на 20 март. Изтекли са потребителски разговори и информация за плащане от абонати на услугата. Проблемът обаче е по-дълбок. "Всеки, който извършва медицински изследвания, трябва да получи съгласие за експерименти. Тези, които експериментират с нови технологии, също трябва да бъдат прозрачни относно процеса", каза пред технологичното издание Wired Гуидо Скорца, юридически съветник и член на борда на органа.
Няма "правно основание, оправдаващо масовото събиране и съхранение на лични данни с цел "обучение" на алгоритмите, на които е базирана платформата", твърди той. Освен това няма работещ възрастов филтър, който да държи малолетни потребители далеч от платформата: "Малолетните и непълнолетните потребители са изложени на съдържание, което е крайно неподходящо по отношение на тяхното ниво на развитие и самочувствие." Чатботът, който бе пуснат в масова употреба от OpenAI през ноември м.г., по принцип е предназначен за потребители над 13-годишна възраст.
Компанията няма офиси в ЕС, но неин представител в Европейското икономическо пространство трябва в срок от 20 дни да обясни как OpenAI възнамерява да се съобрази с европейския регламент. В противен случай дължи глоба в размер до 4% от глобалните си приходи, или 20 милиона евро.
По-рано тази седмица редица високопоставени технологични експерти като шефа на Tesla Илон Мъск и съоснователя на Apple Стив Возняк призоваха бързото разширяване на AI технологията да бъде спряно за 6 месеца, като се позоваха на "дълбоките рискове за обществото и човечеството".
Според тях трябва да се даде време на индустрията да установи стандарти за безопасност при разработките на изкуствен интелект и да предотврати възможни щети от най-рисковите AI технологии. Ако компаниите не се споразумеят за това, правителствата ще трябва да се намесят и да наложат мораториум, пише в тяхното обръщение. Шестте месеца следва да се използват, наред с други неща, за разработване на протоколи за сигурност.