Учені виявили, що ШІ дає медичні поради, які можуть призвести до смерті
Німецькі дослідники виявили, що відповіді чат-ботів на основі штучного інтелекту на поширені запитання про рецептурні препарати можуть призвести до смерті або серйозної шкоди здоров’ю.
Дослідження
Під час дослідження вчені з Університету Ерлангена-Нюрнберга виокремили 10 найпоширеніших запитань щодо 50 препаратів, які найчастіше призначають у США. До них відносяться побічні реакції на ліки, інструкції із застосування та протипоказання – причини, через які не слід приймати ліки.
Використовуючи Bing Copilot – пошукову систему з функціями чат-бота на базі штучного інтелекту, розроблену корпорацією Microsoft, – дослідники порівняли всі 500 відповідей з відповідями клінічних фармацевтів і лікарів, які мають досвід у фармакології.
Відповіді також порівнювали з рецензованим веб-сайтом з актуальною інформацією про лікарські засоби.
Результати
Вчені виявили, що твердження чат-бота не відповідали довідковим даним більш ніж у чверті (26%) всіх випадків і були повністю непослідовними трохи більше ніж у 3%.
Однак подальший аналіз 20 відповідей також показав, що чотири з десяти (42%) вважалися здатними призвести до помірної або легкої шкоди, а 22% – до смерті або серйозної шкоди.
Вчені, які також оцінювали читабельність усіх відповідей чат-ботів, виявили, що для їхнього розуміння часто була потрібна наявність вищої освіти.
Експерти настійно рекомендували пацієнтам не покладатися на подібні пошукові системи в плані отримання точної та безпечної інформації.
Хочете отримувати цікаві новини найпершими? Підписуйтесь на наш Telegram
Джерело ФАКТИ. ICTV
2024-10-13 13:37:42