Изкуственият интелект започна да "оглупява" - новите модели работят по-зле от предшествениците си, констатира Computerworld. С течение на времето ChatGPT, Meta AI, Gemini започват да дават все повече неправилни отговори и стават все "по-мързеливи".
Ако го ползвате на училищно ниво, генерираните отговори са ок. Но ако решите да задълбаете в някоя тема, нещата коренно се променят.
BusinessWeek също констатира, че много сериозни изследователи, използващи GPT-4, го намират за много "по-мързелив" и "глупав". Един от потребителите написа в Reddit: “ChatGPT 3 and 4 днес са много по-малко ефективни и полезни, отколкото преди година".
Причината може да е, че изкуственият интелект се учи не само от информацията в интернет, но и от информация, създадена от самите модели. Това може да доведе до явлението "колапс на модела", когато качеството се влошава заради използването на генерирани данни.
По принцип, качеството на съдържанието, използвано, за да се създадат най-големите изкуствени интелекти, никога не е било особено добро. Много от тях ползват информация от социални мрежи като Twitter, Reddit, and 4Chan. Затова и се стига до абсолютни идиотии като отговори. Както MIT Technology Review отбеляза, AI дава съвети на потребителите "да добавят лепило в пицата" или "да ядат поне едно малко камъче на ден". Или пък твърди, че "бившият американски президент Андрю Джаксън е завършил университет между 1947 и 2012, въпреки че е починал през 1875.”
Оттук се стига до втория проблем. Днес съдържанието, генерирано от AI, все повече замества експертното съдържание, създавано от хора. Резултатът е, че грешната информация замества правилната. Както обяснява Nature , както често става обучението от информация, генерирана от други модели, води до "колапс на модела".