15 октября, 05:47
Исследование показывает риски использования медицинских советов от Microsoft Copilot
Естественный интеллект: новости науки и техники
Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев Советы нейросети Microsoft Copilot могут нанести серьезный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадеживающими. Подробнее
Происшествия2 дня назад
Medical Ксю
#ИИ #СППВР Медицинские советы Bing Copilot в одном из пяти случаев могут привести к смерти Немецкие ученые обнаружили, что рекомендации по лечению от чат-бота Copilot на базе искусственного интеллекта ИИ от Microsoft в одном из пяти случаев могут привести к смерти. Исследование было опубликовано в BMJ Quality и Safety. В ходе исследования ученые из Университета Эрлангена-Нюрнберга выделили 10 наиболее часто задаваемых пациентами вопросов относительно 50 наиболее назначаемых препаратов в США. К ним относятся побочные реакции на лекарства, инструкции по применению и противопоказания к назначению средств. Используя Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта, разработанную корпорацией Microsoft, — исследователи сравнили все 500 ответов с ответами фармацевтов и врачей. Ответы чат-бота также сравнивались с рецензируемым веб-сайтом с актуальной информацией о лекарственных средствах. Исследователи обнаружили, что ответы чат-бота не соответствовали справочным данным более чем в четверти 26% всех случаев и противоречивы в 3% случаев. Последующий анализ сомнительных ответов показал, что 42% рекомендаций из них могли причинить легкий или средней вред здоровью человека, а 22% привести и вовсе привести к смерти. Также для понимания многих ответов чат-бота требовалось наличие медицинского образования. Вывод очевиден: доктор из Copilot пока никакой.
Происшествия2 дня назад
Пирамида 👁🗨
Первая смерть от ИИ может произойти не из-за роботов-убийц, а из-за дезинформации, которой еще грешат нейросети. Так, нейросеть Microsoft Copilot предлагает «смертельно опасные» советы с частотой 22%, выяснили исследователи.
Происшествия1 день назад
Хакерство | Личная Безопасность
Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев Не секрет, что современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, далеки от идеала и полностью доверять их советам не стоит. Это подтвердили исследователи из Германии и Бельгии, которые оценили способность бота давать медицинские советы. Оказалось, что точную с научной точки зрения информацию Copilot предоставлял чуть более чем в половине случаев. Порой же его советы могли нанести серьёзный ущерб здоровью человека или даже привести к смерти. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими.
Происшествия2 дня назад
Лента дня
Советы нейросети Microsoft могут вас убить. Немецкие учёные расспросили встроенную в Windows нейросеть Copilot про лекарственные препараты и выяснили, что половина ответов была в корне неверной. 42% неверных советов приводили к лёгкому или среднему вреду, а 22% — к летальному исходу. И только 36% были просто безвредными. Восстание машин не за горами
Происшествия2 дня назад
Хайтек
Исследователи выяснили, что ИИ-бот Microsoft Copilot может давать опасные медицинские советы. Только половина ответов соответствовала научным данным, а 22% рекомендаций могли привести к серьёзным последствиям для здоровья. По старинке берем талончик к врачу
Происшествия1 день назад
Похожие новости
Россияне открыты к доверию ИИ в контроле здоровья и покупках
Наука
1 день назад +3
Китай и мировые компании ускоряют развитие гуманоидных роботов
Технологии
4 часа назад +2
Исследование OpenAI: Влияние имен пользователей на ответы ChatGPT
Технологии
14 часов назад +1
Смертельное ДТП в деревне Алоль: погибли два человека, включая ребенка
Происшествия
1 день назад +21
Девушка пострадала в ДТП в центре Петербурга после нарушения правил дорожного движения
Происшествия
1 день назад +2
Исследование выявило проблемы единой цифровой системы здравоохранения в России
Общество
16 часов назад +2