Поддержать команду Зеркала
Беларусы на войне
  1. К родным известного беларусского путешественника снова приходили силовики и предлагали ему «покаяться»
  2. Заявления Путина об «успехах» российских войск в Украине противоречат сообщениям военных блогеров и высокопоставленных военных — ISW
  3. В BELPOL прокомментировали слова Лукашенко об убийстве «бэчебэшника» при задержании
  4. Киев предложил Минску сбивать над Беларусью залетевшие российские беспилотники. Что на это ответил Лукашенко
  5. «Мы не бульдозеры, нам нужно время, мы люди». Колесникова и Бабарико поговорили с Тихановской
  6. Чиновники активно прошлись по этой категории работников, после чего возник их дефицит. Проблема дошла до Лукашенко — тот требует решить
  7. «И как жить?» В TikTok показали расчетный на одном из предприятий со скромными суммами — это вызвало обсуждение
  8. «Думаю, вопрос по Украине и Крыму для Статкевича не стоял». Большое интервью «Зеркала» с нобелевским лауреатом Алесем Беляцким


Группа ученых оценила потенциал чат-бота ChatGPT как инструмента самодиагностики распространенных ортопедических заболеваний. Исследование было опубликовано в Journal of Medical Internet Research.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com
Изображение используется в качестве иллюстрации. Фото: Pixabay.com

Авторы исследования в течение пяти дней задавали ChatGPT одни и те же вопросы, которые касаются пяти популярных ортопедических заболеваний: синдром запястного канала, шейная миелопатия, стеноз поясничного отдела позвоночника, остеоартрит коленного сустава и остеоартрит тазобедренного сустава. И на основе некоторых данных об этих заболеваниях просили поставить диагноз и дать рекомендации.

Ученые отметили, что точность ChatGPT для самостоятельной диагностики пяти распространенных ортопедических заболеваний была непостоянной. К примеру, синдром запястного канала чат-бот верно диагностировал в 100% случаев, а вот шейную миелопатию только один раз из 25. В 80% случаев ИИ рекомендовал пользователям обратиться к врачу и часто давал неточные рекомендации относительно госпитализации пациентов.

«Учитывая риск вреда при самостоятельной диагностике без медицинского наблюдения, было бы разумно, чтобы ИИ предупреждал пациентов о необходимости обратиться за экспертным медицинским мнением», — подытожили исследователи.