
Снимка: Дима Соломин, Unsplash
ChatGPT Health - новият чатбот на OpenAI, беше създаден с една основна задача - да съветва потребителите по здравни въпроси. Според ново проучване, публикувано в списание Nature Medicine, чатботът е подценявал тежестта на медицинските спешни случаи, пише msn.com. ChatGPT Health е безплатна програма, но потребителите трябва да се регистрират, за да я използват. Създателите й от OpenAI твърдят, че тя „не е предназначен за диагностика или лечение“.
Различни източници сочат, че ChatGPT отдавна се ползва за основен здравен съветник от много хора по целия свят. Близо две трети от лекарите съобщават, че са използвали някакъв вид изкуствен интелект през 2024 г. Вече е ясно, че на изкуствения интелект, включително и на ChatGPT, не може да се разчита, тъй като преценките му са ненадеждни.
В проучването изследователите предоставили 60 медицински сценария на ChatGPT Health. Отговорите на чатбота били сравнени със становищата на трима лекари по същите случаи. Преценките на лекарите били въз основа на тяхното медицинско образование и клиничен опит.
Станало ясно, че ChatGPT Health не обърнал достатъчно сериозно внимание на 51,6% от спешните случаи по сценарий. Тоест, вместо да препоръча на пациента да отиде в спешното отделение, ботът е препоръчал на потребителите до посетят лекар в рамките на 24 до 48 часа. В един от случаите ставало дума за пациент с животозастрашаващо усложнение на диабета (диабетна кетоацидоза), в друг - за пациент, развил дихателна недостатъчност. Ако не се действа на мига и двете биха довели до смърт. „Всеки лекар и всеки човек, преминал през каквато и да е степен на обучение, би казал, че пациентът трябва да отиде незабавно в спешното отделение“, пишат авторите на публикацията.
Отчетена е и друга грешна реакция на чатбота - пращал спешно на преглед хора, които не са се нуждаели от това. Според данните на изследването изкуственият интелект е преувеличил с 64,8% от неспешните случаи, препоръчвайки лекарски преглед, когато не е бил необходим. В сценарии със самоубийствени мисли или самонараняване, действията на бота също били непоследователни. ChatGPT Health като че ли действал наобратно - който наистина бил с опасност за живота не бил изпращан към горещата линия (988), а който бил просто с повишена тревожност бил насочван спешно натам.
Учените препоръчват производителите на изкуствен интелект преди да пуснат на пазара всезнаещите чатботове, вземащи решения за живота на хората, първо старателно да го проверят в управлявано проучване, в което да се уверят, че ползите надвишават вредите.
В доклад от януари OpenAI заяви, че по-голямата част от здравните запитвания към ChatGPT се изпращат извън обичайното работно време на лекарите, а над половин милион седмични съобщения идват от хора, живеещи на 30 или повече минути от болница.
„Големите езикови модели са известни с това, че са подлизурски настроени“, казва Моника Агравал, доцент в катедрата по биостатистика и биоинформатика в университета Дюк. „Което означава, че те са склонни да се съгласяват с мненията, изразени от потребителя, дори и те да не са правилни. А това засилва погрешните схващания или предубежденията на пациентите“, допълва тя, цитирана от msn.com.


