Фінансові новини
- |
- 18.11.24
- |
- 21:25
- |
- RSS
- |
- мапа сайту
Авторизация
Галюцинації ШІ загрожують науковій достовірності - дослідження
12:48 22.11.2023 |
Здатність великих мовних моделей (LLM) генерувати неправдивий, але переконливий контент являє собою пряму загрозу науці та науковій істині. Про це йдеться в дослідженні Оксфордського інституту Інтернету.
Особливість генеративного ШІ "вигадувати" інформацію називають галюцинаціями. Навчені на даних з інтернету LLM не можуть гарантувати достовірності відповідей, вважають дослідники.
Набори даних можуть містити помилкові твердження, думки та неточну інформацію. Крім цього, надмірна довіра людей до чат-ботів може посилити проблему.
Співавтор дослідження Брент Міттельштадт (Brent Mittelstadt) зазначив, що користувачі антропоморфізують LLM, сприймаючи їхні відповіді як істину. Частково цьому сприяє інтерфейс чат-ботів, які спілкуються з людьми і відповідають на, здавалося б, будь-яке питання впевнено звучним, добре написаним текстом.
У науці особливо важливо спиратися на достовірні дані. Щоб уникнути галюцинацій ШІ, вчені рекомендують використовувати LLM як "перекладача з нульовим результатом". Це означає, що користувачі повинні надавати алгоритму відповідні дані та просити перетворити їх, а не покладатися на модель, як на джерело знань.
Таким чином, стає простіше перевірити коректність результату.
Вчені не заперечують, що LLM допоможуть в організації наукового процесу. Однак вони закликали спільноту відповідальніше підходити до використання ШІ.
|
|
ТЕГИ
ТОП-НОВИНИ
ПІДПИСКА НА НОВИНИ
Для підписки на розсилку новин введіть Вашу поштову адресу :