Фінансові новини
- |
- 17.11.24
- |
- 03:17
- |
- RSS
- |
- мапа сайту
Авторизация
22% медичних порад Copilot можуть вбити, — дослідження
13:16 15.10.2024 |
Чатботи штучного інтелекту - ненайкращі медичні асистенти. Дослідники виявили, що п'ята частина порад Microsoft Copilot може бути смертельною.
Якщо чатбот нафантазує про якийсь факт - це не завжди зашкодить, але не у випадку медицини. Прихильникам самолікування може, що найменше, стати гірше, ніж було, - навіть до найтяжчого ступеня.
У дослідженні, опублікованому на Scimex під назвою «Поки що не відмовляйтеся від свого лікаря загальної практики заради доктора Чатбота», вчені поставили 10 поширених запитань про 50 ліків, які найчастіше призначають в США, та отримали 500 відповідей. Дослідники оцінили, наскільки відповіді точні з медичного погляду. Штучний інтелект отримав середню оцінку належного виконання запиту 77%, найгірший приклад - лише 23%.
Лише 54% відповідей узгоджувалися з науковим консенсусом. З погляду потенційної шкоди для пацієнтів, 42% відповідей ШІ призводять до помірної або легкої шкоди, а 22% - до смерті або серйозної шкоди. Лише близько третини відповідей (36%) вважалися нешкідливими, зазначають автори.
Медицина взагалі не схвалює самолікування. Люди без медичної освіти не мають необхідного знання та бачення комплексної картини процесів в організмі. Щобільше, не слід покладатися на штучний інтелект, з його помилками, «фантазіями» та сумнівними джерелами. Також варто замислитися, що подібна частка шкідливих відповідей може надходити й на запити, не пов'язані з медициною.
|
|
ТЕГИ
ТОП-НОВИНИ
ПІДПИСКА НА НОВИНИ
Для підписки на розсилку новин введіть Вашу поштову адресу :