Следвайте "Гласове" в Телеграм и Инстаграм
Изкуственият интелект тревожи много хора – че може да ни остави без работа и препитание, да лъже, да се намесва в личния ни живот и дори да ни навреди физически… Ново изследване дава отговор кога AI става наистина опасен за хората.
Големи езикови модели като ChatGPT могат да решават сложни математически проблеми, да полагат изпити и дори да предлагат начини за разрешаване на конфликти между хора. Въпреки впечатляващите си възможности обаче, генеративният AI повдига определени опасения: потребителите често се сблъскват с неправилни отговори или потенциално опасни препоръки.
На определен етап от развитието си, полезният изкуствен интелект, помощник на човека, може да се превърне в източник на проблеми. Учени от университета Джордж Вашингтон успяха да предскажат кога ще настъпи този момент, използвайки математическа формула.
Изследването разкрива как да се изчисли критичната точка, в която изкуственият интелект преминава от надежден асистент в непокорен „г-н Хайд”.
Според професор Нийл Джонсън, „преломната точка” настъпва, когато изкуственият интелект се претовари с информация, загуби фокус и започне да произвежда погрешни или фиктивни данни – така наречените халюцинации.
Разработената формула, базирана на скаларни произведения на вектори, отчита съдържанието на заявките и характеристиките на обучението на модела, което позволява на учените точно да определят стъпката, на която AI става неуспешен и проблемен.
Учените също така предлагат практически мерки за предотвратяване на подобни „повреди” на AI моделите. Например, използването на по-точни и подходящи думи в заявките помага на изкуствения интелект да остане фокусиран.
В същото време се оказва, че учтивостта в комуникацията с чатбота не влияе на качеството на отговорите му, уверяват учените.
Източник: technews.bg