Оксфордское исследование предупредило об опасности использования ИИ для медицинских советов

Оксфордское исследование предупредило об опасности использования ИИ для медицинских советов

Исследование Оксфордского университета показало, что чат-боты с искусственным интеллектом предоставляют неточные и противоречивые медицинские рекомендации. Это создает угрозу для безопасности пациентов из-за неправильной интерпретации неполной информации.

Ученые Оксфордского университета обнаружили, что чат-боты на основе искусственного интеллекта предоставляют неточные и противоречивые рекомендации по здоровью, которые угрожают безопасности пациентов. Исследование подчеркивает, что неспособность моделей правильно интерпретировать неполную информацию от пользователей делает самодиагностику через ИИ крайне рискованной. Об этом пишет УНН.

Детали

Эксперимент с участием 1300 человек показал, что результаты взаимодействия с ИИ критически зависят от формулировки вопросов. Пользователям предлагали оценить симптомы, такие как сильная головная боль или истощение, однако чат-боты часто выдавали перечень диагнозов, из которых человеку приходилось выбирать наугад. Доктор Адам Махди, старший автор исследования, отметил в комментарии для BBC: "Когда искусственный интеллект перечислил три возможных состояния, людям оставалось догадываться, какое из них может подойти. Именно тогда все и развалится".

Антидепрессанты без мифов: что это за лекарства, кому они действительно нужны и почему их не стоит бояться09.02.26, 17:20 • 16054 просмотра

Ведущий врач исследования доктор Ребекка Пейн назвала практику консультирования с ИИ "опасной". Она объяснила, что пользователи обычно делятся информацией постепенно и могут пропускать ключевые детали, которые профессиональный медик выявил бы во время очного осмотра. В итоге люди, которые использовали ИИ, получали смесь полезных и вредных советов, что затрудняло принятие решения о необходимости визита к семейному врачу или неотложной помощи.

Предвзятость алгоритмов и перспективы отрасли

Помимо технических ошибок, специалисты указывают на системные недостатки технологии. Доктор Эмбер В. Чайлдс из Йельского университета подчеркнула, что ИИ обучается на медицинских данных, которые уже содержат десятилетние предубеждения.

Чат-бот является настолько же хорошим диагностом, насколько хорошими являются опытные клиницисты, что также не идеально

— добавила она.

Это создает дополнительный риск повторения ошибок, заложенных в современную медицинскую практику.

Компьютерные очки: реальная защита или удачный маркетинг06.02.26, 18:00 • 51606 просмотров

Несмотря на критику, эксперты видят потенциал в специализированных моделях. Доктор Берталан Меско отметил, что новые версии чат-ботов от OpenAI и Anthropic, разработанные именно для сферы здравоохранения, могут показать лучшие результаты. Однако ключевым условием безопасности остается внедрение четких национальных правил, регуляторных барьеров и официальных медицинских рекомендаций для совершенствования таких систем.

Психоделик 5-MeO-DMT воспроизводит состояние глубокой медитации: результаты нейробиологического исследования06.02.26, 12:25 • 2496 просмотров