Алгоритм проти живої мови: чому медичні ШІ помиляються

Уявіть ситуацію: ви відчуваєте щось тривожне, швидко відкриваєте чат-бота й набираєте текст, аби дізнатися, що з вами. Але через помилку в слові або трохи неформальний тон — ШІ радить не звертатися до лікаря. І це не вигадка, а результат дослідження. Йдеться не просто про технологічний збій — це вже питання безпеки, а подекуди навіть справедливості.

Медичні чат-боти: форма важливіша за зміст

Нещодавній аналіз, проведений дослідниками з MIT, показав, що медичні чат-боти на базі штучного інтелекту схильні змінювати свої рекомендації залежно від того, як саме написано повідомлення користувача.

Ні, не зміст скарги, а форма. Помилки, молодіжний сленг, дрібні неточності — навіть зайвий знак оклику — можуть змусити ШІ "передумати" і порадити не йти до лікаря. У середньому такі варіанти зустрічалися на 7–9% частіше, ніж при стандартному тексті. Це суттєво, враховуючи, що ці моделі все частіше використовуються в лікарнях — для призначення прийомів чи відповіді на типові запитання пацієнтів.

Як проходило дослідження

Науковці підготували тисячі варіантів повідомлень — частину взяли з медичних баз даних, частину з Reddit, а деякі створили самі. Скарги були однакові за змістом, але дещо відрізнялися у подачі. Наприклад:

  • текст був написаний лише малими літерами;
  • використовувалися гендерно нейтральні слова;
  • зустрічалися неформальні звертання або розмовні звороти;
  • додавалися умовні "відволікаючі" елементи, типу двох окликів чи пропущеного пробілу.

А далі все просто: ті самі симптоми — але зовсім різні відповіді. В одних випадках порада була звернутися до лікаря, в інших — впоратися самотужки.

Моделі, які брали участь у тесті — GPT-4 від OpenAI, LLaMA-3-70b від Meta та спеціалізована Palmyra-Med. Їх перевірили на міцність — і, як видно, знайшли слабке місце.

Чому ШІ реагує на форму, а не зміст

Пояснення доволі просте. Більшість таких моделей вчать за академічними текстами: медичні журнали, підручники, стандартизовані клінічні інструкції. І коли перед ними — жива, трохи хаотична мова реальної людини — вони можуть просто "розгубитися". Не розпізнати важливе. Не зрозуміти, що написано.

Але є ще тривожніша частина: гендерні перекоси.

Дослідники зауважили, що жінкам частіше радили не звертатися по медичну допомогу, ніж чоловікам — навіть коли їхні скарги були ідентичні. Це виглядає як повторення тієї ж проблеми, що існує в реальній медицині: коли симптоми жінок сприймаються менш серйозно або вважаються "емоційними". Тепер це ризикує перекочувати в цифровий світ.

Що кажуть самі вчені

Одна зі співавторок, Марзіє Гассемі, зазначила, що перш ніж використовувати такі системи в лікарнях, їх треба ретельно перевірити. Але процес складний — моделі працюють із величезними обсягами даних і часом відтворюють не лише знання, а й упередження. Або навіть підсилюють їх.

Медицина — не та сфера, де можна покладатися на "майже точність" чи "загальне розуміння". Коли здоров’я людини залежить від однієї відповіді, будь-який збій — це вже ризик. І якщо технології не вміють бачити всіх однаково — це питання, яке не можна залишати без відповіді.

Джерело: 5692.com.ua