Технологии, Искусственный интеллект | Олег Брагинский, Марина Строева
Основатель «Школы траблшутеров» Олег Брагинский и ученица Марина Строева расскажут, как интегрировать ИИ в клиническую практику и психотерапию не как справочник, а как участника процесса диагностики и помощника, расширяющего возможности специалистов.
AI как напарник врача
В 2025 году команда Стэнфордского университета провела масштабное исследование, чтобы понять, как искусственный интеллект может реально повысить качество медицинской диагностики, если использовать его не как инструмент-справочник, а как полноценного напарника врача.
В эксперименте участвовали 70 практикующих терапевтов и семейных врачей из США. Им предложили решать сложные клинические задачи тремя способами:
- AI-first: врач сначала знакомится с предложениями ИИ (список диагнозов и шагов), а затем формирует собственное решение
- AI-second: врач сначала ставит диагноз сам, а затем сверяет его с анализом ИИ и получает сводный отчёт
- Контрольная группа: врачи используют традиционные ресурсы (литература, справочники, интернет).
Врачи, работавшие с ИИ, показали на 7–10% лучшие результаты по точности постановки диагноза, чем те, кто полагался только на традиционные методы:
- сам AI: 90% точности – немного выше, чем у врачей с ИИ, но незначительно
- AI-second: +6,8% к точности
- AI-first: +9,8% к точности.
Врачи, использовавшие ИИ, чаще выбирали правильные дальнейшие шаги: анализы, консультации, лечение. Время на принятие решения, ускоряло процесс. После эксперимента 98,6% врачей заявили о готовности использовать AI в сложных клинических рассуждениях.
Почему ИИ эффективен как напарник?
- Мгновенно сканирует все лабораторные показатели, симптомы и анамнез, не упуская детали, которые человек может не заметить.
- Не подвержен профессиональному выгоранию, не «застревает» на привычных диагнозах, не игнорирует редкие варианты.
- В эксперименте не соглашался, а приводил аргументы «за» и «против» диагноза, помогая врачу пересмотреть логику.
- Объяснял выводы простым языком, указывал источники доказательств, повышая доверие со стороны врачей.
Самый высокий эффект достигается, когда AI и врач работают как команда, обсуждая и дополняя друг друга, а не слепо доверяет друг другу. Врачи, видя альтернативные гипотезы ИИ, чаще пересматривали решения и избегали типичных ловушек мышления.
ИИ не заменяет врача, а становится интеллектуальным партнёром, который помогает видеть больше, анализировать глубже и принимать более обоснованные решения. Будущее медицины – за командной работой человека и артилекта, где каждый усиливает сильные стороны другого.
AI в психотерапии
Языковые модели GPT, Claude, Llama и аналоги, научились не только понимать текст, но и вести диалог, проявлять эмпатию, поддерживать и помогать человеку разобраться в чувствах. Это стало возможным благодаря обучению на миллионах реальных диалогов и психологических сценариев.
В Китае и США работают десятки платформ: Woebot, Wysa, Replika, Koko, где AI-боты выступают в роли виртуальных собеседников и помощников. Доступны 24/7, не устают, не осуждают, умеют слушать. Могут обучать техникам дыхания, медитации, когнитивно-поведенческим стратегиям.
Справляются с «лёгкими» случаями – стресс, тревога, бессонница, эмоциональные трудности, когда нужно выговориться. При серьёзных психических расстройствах: депрессия, биполярное расстройство, суицидальные мысли, психозы, AI пока ещё не заменяет психолога или психиатра.
Не всегда способен распознать скрытые риски и угрозы. Ответы шаблонны, «эмпатия» – результат анализа типовых сценариев, а не настоящего человеческого опыта. Не берёт ответственность за здоровье и жизнь человека, не способен назначить лечение или вовремя экстренно вмешаться.
Вместо замены специалистов становится помощником и инструментом повышения эффективности:
- проводит первичный скрининг и выявляет людей с риском развития психических проблем
- разгружает специалистов от рутинных задач сопровождения пациентов между сессиями
- повышает доступность психологической помощи для широких слоёв населения
- помогает в реабилитации и обучении навыкам саморегуляции.
AI-платформы уже внедряются в школы, университеты, государственные и корпоративные структуры. Многие компании ищут B2B-решения: интеграция в образовательные учреждения, корпоративные программы, государственные сервисы.
Почему «AI+человек» – не просто
В реальной жизни результат работы ИИ зависит не только от точности самой модели, но и от того, как человек взаимодействует с технологией. Даже если AI даёт правильный совет, пользователь может не понять подсказки, не довериться совету или неверно применить рекомендацию.
В одном из исследований Оксфордского университета участники, используя помощь AI, правильно определяли диагноз только в 34,5% случаев – хуже, чем те, кто искал информацию самостоятельно.
В отличие от врача, ИИ не умеет задавать наводящие вопросы, чтобы получить полную картину симптомов и состояния пациента. Даже если объясняет максимально понятно, человек может не уловить суть, неправильно применить подсказки или выбрать не тот вариант из предложенных.
Пациенты и врачи могут не доверять чёрному ящику AI, особенно если не понимают, как он пришёл к тому или иному выводу. В реальной жизни пациенты часто испытывают тревогу, боль, усталость, что мешает чётко формулировать жалобы и следовать инструкциям.
Что нужно для успеха?
- AI важно учиться уточнять детали, задавать вопросы, адаптироваться к уровню пользователя
- пользователь должен получать понятные, прозрачные и обоснованные рекомендации, а также обучение по применению
- врачи и пациенты – хотеть вовлекаться в процесс, а не просто получать готовый ответ.
Внедрение AI в медицину – вопрос не технологий, а коммуникации, доверия и совместной работы. Пока ИИ и человек не научатся понимать друг друга, «AI-врач» останется лабораторной мечтой.
Будущее медицины – за развитием не только самих моделей, но и интерфейсов, образовательных программ и новых форм взаимодействия между человеком и искусственным интеллектом.