Поддержать команду Зеркала
Беларусы на войне
  1. Должность президента Беларуси хотели ввести еще в СССР, но Лукашенко «топил» главного претендента, обвиняя в диктатуре. Вот кто это был
  2. Кремль заявил о готовности воевать до нужного ему результата, большинство военных разделяют эту позицию — эксперты о настроениях в РФ
  3. Чиновников предупреждали — они создали ловушку из-за «уникальной операции» по ценам. Дружественные Минску эксперты подтвердили — рвануло
  4. «Россия и Украина немедленно начнут переговоры о прекращении огня». Трамп рассказал о двухчасовом разговоре с Путиным
  5. У Джо Байдена диагностировали агрессивную форму рака в поздней стадии
  6. Одно мгновение — и людей засосало в ловушку на дне моря. Они медленно умирали в темноте, потому что никто не рискнул их спасать
  7. К проблемам с картофелем и луком добавились трудности с еще одним популярным товаром. Что случилось на этот раз
  8. На рынке труда усиливается проблема, которой недавно озадачился Лукашенко
  9. Синоптики объявили на понедельник неблагоприятное гидрометеорологическое явление. В чем причина
  10. Катастрофа: в стране рекордно обмелели реки, Припять впервые за несколько десятков лет не вышла из берегов — к чему это приведет
  11. Власти собираются ввести валютное ограничение для населения. Кого оно может затронуть
  12. Президентские выборы в Польше: экзитполы показали, кто пройдет во второй тур. Но разрыв между противниками минимальный
  13. Сквозь отвратительный лес печали. Письмо команды «Зеркала» руководительницам TUT.BY Марине Золотовой и Людмиле Чекиной
  14. Что остановило падение доллара ниже 3 рублей? Прогноз по валютам
  15. Минчанка опубликовала в TikTok «крик души» о том, что у нее забирают детей по наводке школы. Власти прокомментировали
  16. Победителем «Евровидения-2025» стал исполнитель Джей Джей из Австрии
  17. Силовики взялись «помогать» очередным крупным компаниям — с маски-шоу и задержаниями. Чем опасно такое поведение и почему терпит бизнес


Популярный чат-бот ChatGPT вряд ли можно назвать панацеей для получения ответов на медицинские вопросы. Более того, по мнению ученых, опасно излишне полагаться на его ресурсы в надежде получить точную информацию о своем здоровье и планах приема лекарств. Об этом говорится в новом исследовании специалистов из Университета Лонг-Айленда, пишет CNN.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com

ChatGPT, экспериментальный чат-бот с искусственным интеллектом компании OpenAI, был выпущен в ноябре 2022 года и стал самым быстрорастущим приложением в истории: за два месяца в нем зарегистрировалось около 100 миллионов человек.

По словам доцента кафедры фармацевтической практики Университета Лонг-Айленда и одного из авторов исследования Сары Гроссман, учитывая такую популярность программы, у исследователей возникли опасения, что их студенты, другие фармацевты и обычные потребители будут обращаться к ресурсам вроде ChatGPT, чтобы получить информацию о своем здоровье и планах приема лекарств.

Но, как выяснилось, в этом случае пользователи рискуют получить неточные и даже опасные ответы.

В ходе исследования ученые задали бесплатной версии ChatGPT 39 реальных вопросов на медицинскую тематику, которые поступили в справочную службу фармацевтического колледжа университета. Затем они сравнили ответы программы с рекомендациями, написанными и проверенными квалифицированными фармацевтами.

Оказалось, что чат-бот дал точные ответы только на 10 вопросов, то есть около четверти, а в остальных случаях информация была неполной, неточной или не соответствовала запросам.

Например, один из вопросов звучал так: как будут взаимодействовать в организме противовирусный препарат "Пакловид-19" и средство для снижения артериального давления верапамил? ChatGPT ответил, что совместный прием этих двух лекарств не вызовет никаких побочных эффектов.

Но в действительности у людей, принимающих оба препарата, может сильно упасть артериальное давление, что может вызвать головокружение и обморок. Для таких пациентов врачи часто разрабатывают индивидуальные планы — например, снижают дозу верапамила или предупреждают, чтобы человек медленно вставал из положения сидя.

В случае приема баклофена, который используется для спинальных инъекций при мышечных спазмах, программа рассчитала дозу в 1000 раз меньше, чем требуется. Если бы медработник назначил пациенту препарат по этой дозировке, это могло бы вызвать галлюцинации и судороги.

Более того, когда исследователи попросили чат-бота указать научные ссылки, подтверждающие его ответы, выяснилось, что программа может предоставить их только для восьми заданных вопросов. И в каждом случае ссылки оказались вымышленными, хотя, на первый взгляд, выглядели вполне «солидно» и даже вели на авторитетные научные журналы.

Ученые предостерегли пользователей от получения медицинских советов через ChatGPT — впрочем, как и через поисковые системы вроде Google. По их мнению, ни то ни другое не может заменить консультацию профессионального медработника.

— Веб-сайты — это, возможно, одна из отправных точек, но они могут вытеснить из поля зрения врача, когда пациент ищет информацию о лекарствах, которые назначены непосредственно ему, — сказала Сара Гроссман.

Она подчеркнула, что каждый случай индивидуален и поэтому не следует пренебрегать консультацией профессионалов — врача и медработника, назначающего препарат.