Фінансові новини
- |
- 05.10.24
- |
- 19:46
- |
- RSS
- |
- мапа сайту
Авторизация
Штучний інтелект не становить загрози людству, бо не може самостійно навчатися
23:54 16.08.2024 |
Штучний інтелект не раз показували як загрозу всьому людству, як-от у випадку з повстанням Skynet у франшизі "Термінатор" / Terminator. Проте нове дослідження стверджує, що зараз такої загрози немає. За словами української професорки комп'ютерних наук Ірини Гуревич, яка керувала дослідженням, зараз більше треба перейматися тим, як штучний інтелект використовують. Про це повідомляє Neuroscience News.
Спільне дослідження Університету Бата та Технічного університету Дармштадта в Німеччині, яке опублікували у межах 62-ї щорічної зустрічі Асоціації комп'ютерної лінгвістики (ACL 2024), провідної міжнародної конференції з обробки природної мови, показує, що великим мовним моделям (LLM) бракує можливості самостійного навчання. LLM можуть виконувати інструкції та поставленні задачі, але самі щось нове вивчити вони нездатні.
Дослідники дійшли до висновку, що LLM у тому стані, в якому вони є зараз, можна випускати без занепокоєнь щодо безпеки. Єдина загроза, яку може нести штучний інтелект, полягає у зловмисному застосуванні реальними людьми.
У межах дослідження проводили експеримент, у якому перевіряли можливість ШІ виконувати важкі задачі, які ці моделі раніше ніколи не виконували. Результатом стало те, що штучний інтелект зміг відповісти на запитання про соціальні ситуації, не бувши спеціально навченими чи запрограмованими для цього. Однак дослідники кажуть, що ШІ не знає про ці ситуації, натомість він використовує контекстуальне навчання на основі кількох прикладів, які йому представляли.
"Побоювання полягало у тому, що в міру того, як моделі стають все більшими й більшими, вони зможуть розв'язувати нові проблеми, які ми не можемо передбачити, що створює загрозу того, що ці більші моделі можуть набути небезпечних здібностей, включаючи міркування і планування. Це викликало багато дискусій - наприклад, на Саміті з безпеки ШІ минулого року в Блетчлі-Парку, де нас попросили прокоментувати, - але наше дослідження показує, що побоювання, що модель піде і зробить щось абсолютно несподіване, інноваційне і потенційно небезпечне, не є обґрунтованими", - сказав доктор Харіш Тайяр Мадабуші, комп'ютерний науковець з Університету Бата і співавтор нового дослідження.
Ще одним висновком дослідників стало те, що намагатися використати штучний інтелект для виконання складних завдань, які вимагають складних міркувань без чітких інструкцій, буде помилкою. Натомість якщо користувачі хочуть отримати найкращий результат, вони повинні якомога ширше та з усіма подробицями розписувати поставлену задачу.
Ірина Гуревич каже, що замість того, щоб переживати за те, що штучний інтелект буде становити загрозу, треба переживати через його зловмисне використання.
"Наші результати не означають, що ШІ взагалі не є загрозою. Скоріше, ми показуємо, що передбачувана поява складних навичок мислення, пов'язаних з конкретними загрозами, не підтверджується доказами, і що ми можемо дуже добре контролювати процес навчання LLM у підсумку. Тому майбутні дослідження повинні зосередитися на інших ризиках, які несуть у собі моделі, наприклад, на їхньому потенціалі для створення фейкових новин", - розповіла Гуревич.
|
|
ТЕГИ
ТОП-НОВИНИ
ПІДПИСКА НА НОВИНИ
Для підписки на розсилку новин введіть Вашу поштову адресу :