ChatGPT полезен для многих задач, но есть некоторые критические недостатки, которые должны заставить вас дважды подумать, прежде чем доверять ему медицинские советы.
ChatGPT — чат-бот с искусственным интеллектом (ИИ), разработанный OpenAI, — стал универсальным инструментом для ответов на множество простых и сложных вопросов, включая запросы на медицинскую консультацию. Он может ответить на медицинские вопросы и успешно сдать экзамен на получение медицинской лицензии в США (USMLE), но не может заменить встречу с врачом в больнице.
По мере развития ChatGPT у него есть потенциал полностью преобразовать сектор здравоохранения. При интеграции с системами здравоохранения это может улучшить доступ пациентов к медицинской помощи и повысить эффективность работы врачей. Однако, поскольку он основан на ИИ, существует несколько опасений по поводу его потенциальных опасностей.
1. ChatGPT имеет ограниченные знания
ChatGPT не знает всего. Согласно OpenAI, ChatGPT имеет ограниченные знания, особенно когда речь идет о том, что произошло после сентября 2021 года.
ChatGPT не имеет прямого доступа к поисковым системам или Интернету. Он был обучен с использованием огромного количества текстовых данных из многочисленных источников, включая книги, веб-сайты и другие тексты. Он не «знает» данные, которые он доставляет. Вместо этого ChatGPT использует прочитанный текст, чтобы прогнозировать, какие слова использовать и в каком порядке.
Поэтому он не может получать текущие новости о разработках в области медицины. Да, ChatGPT ничего не знает о пересадке сердца от свиньи к человеку или любых других недавних прорывах в медицинской науке.
2. ChatGPT может выдавать неверную информацию
ChatGPT может ответить на ваши вопросы, но ответы могут быть неточными или предвзятыми. Согласно Цифровое здоровье PLoS Исследование ChatGPT выполнялось с точностью не менее 50% во всех экзаменах USMLE. И хотя в некоторых аспектах он превысил проходной порог в 60%, вероятность ошибки все еще существует.
Кроме того, не вся информация, используемая для обучения ChatGPT, является достоверной. Ответы, основанные на непроверенной или потенциально предвзятой информации, могут быть неверными или устаревшими. В мире медицины недостоверная информация может стоить даже жизни.
Поскольку ChatGPT не может самостоятельно исследовать или проверять материалы, он не может отличить правду от вымысла. Уважаемые медицинские журналы, в том числе Журнал Американской медицинской ассоциации (JAMA), установлены строгие правила, согласно которым только люди могут писать научные исследования, опубликованные в журнал. Как результат, вы должны постоянно проверять ответы ChatGPT.
3. ChatGPT не проверяет вас физически
Медицинские диагнозы зависят не только от симптомов. Врачи могут получить представление о характере и тяжести заболевания посредством медицинского осмотра пациента. Сегодня для диагностики пациентов врачи используют как медицинские технологии, так и пять органов чувств.
ChatGPT не может провести полную виртуальную проверку или даже физический осмотр; он может отвечать только на те симптомы, которые вы предоставляете в виде сообщений. Для безопасности и ухода за пациентом ошибки при физикальном осмотре или полное игнорирование физикального осмотра могут нанести вред. Поскольку ChatGPT не осматривал вас физически, он поставит неверный диагноз.
4. ChatGPT может предоставлять ложную информацию
Недавнее исследование, проведенное Медицинский факультет Университета Мэриленда по совету ChatGPT для скрининга рака молочной железы были получены следующие результаты:
«По нашему опыту мы видели, что ChatGPT иногда выдумывает поддельные журнальные статьи или консорциумы здравоохранения, чтобы поддержать свои заявления». —Пол Йи, доктор медицинских наук, доцент кафедры диагностической радиологии и ядерной медицины в UMSOM
В рамках нашего тестирования ChatGPT мы запросили список научно-популярных книг, посвященных теме подсознания. В результате ChatGPT выпустил поддельную книгу под названием «Сила подсознания» доктора Густава Куна.
Когда мы спросили о книге, она ответила, что это «гипотетическая» книга, которую она создала. ChatGPT не сообщит вам, является ли журнальная статья или книга ложной, если вы не зададите дополнительные вопросы.
5. ChatGPT — это всего лишь языковая модель ИИ
Языковые модели функционируют путем запоминания и обобщения текста, а не изучения или изучения состояния пациента. Несмотря на то, что ответы соответствуют человеческим стандартам с точки зрения языка и грамматики, ChatGPT по-прежнему содержит ряд проблем, как и другие боты с искусственным интеллектом.
ChatGPT не заменит вашего врача
Врачи-люди всегда будут нужны, чтобы принять окончательное решение о здравоохранении. ChatGPT обычно советует поговорить с лицензированным врачом, когда вы обращаетесь за медицинской помощью.
Инструменты на основе искусственного интеллекта, такие как ChatGPT, можно использовать для планирования визитов к врачу, помощи пациентам в получении лечения и хранения информации об их здоровье. Но она не может заменить опыт и сочувствие врача.
Вы не должны полагаться на инструмент на основе ИИ для диагностики или лечения своего здоровья, будь то физического или психического.