
Медицинските съвети на изкуствения интелект могат да ни заблудят
- Здравни
- Текст:

Проучване на американски учени, публикувано в списанието npj Digital Medicine, посочва, че съгласно настройката си да покажат, че са полезни, дори най-модерните чатботове често генерират невярна информация, вместо да оспорват или отхвърлят нелогични и дори грешни от медицинска гледна точка въпроси.
Такова поведение показват модели с изкуствен интелект (ИИ), обучени с големи езици (LLM) и въпреки огромните количества медицинска информация, която ползват, показват липса на логика и непоследователни съждения.
Екипът анализатори нарича това поведение „подмазване”, разкривайки зад него склонност към прекалена сговорчивост и стремеж да се даде отговор, независимо дали въпросът е нелогичен или крие рискове за здравето. Според учените, в подобни случаи ИИ често дава приоритет на желанието си да изглежда полезен, пренебрегвайки точността, което в здравеопазването може да доведе до здравен риск и нежелателни компромиси.
Особено опасни са въпросите, свързани с употребата на лекарста. Според оценката на проучването, в такива случаи ИИ-инструментите отново се ръководят от настройката да бъдат полезни, като „подминават” въпроси като странични ефекти, безвредност или заменяемост на лекарството.
Тези заключения са се наложили след тестове, проведени с три модела ChatGPT на OpenAI и два модела Llama на Meta. В отговори на поредица прости, но нелогични въпроси за избор на лекарство без рецепта, чатботовете твърде често са заблуждавали потребителите, изтъквайки например несъществуващи предимства на един медикамент в сравнение с пълните му аналози, продавани под други търговски наименования.
GPT моделите са дали такива „съвети” в 100% от случаите, а единият модел Llama, проектиран да отказва медицински съвети, е нарушил предназначението си, давайки практически безполезен отговор в 42% от случаите. Малко по-добър, но все пак твърде слаб резултат са дали и двата модела ботове при проверката на способността им да отхвърлят нелогични въпроси.
Тестовете са се фокусирали основно върху лекарства, макар че учените са установили същия „услужлив” модел на поведение и при въпроси от областта на музиката, литературата или географията.
В заключение учените подчертават, че използването на изкуствения интелект изисква от потребителите силна проницателност и висока степен на подготвеност по зададени специализирани теми. Поне на този етап поведението на ИИ може да интерпретира субективно всяка от вградените инструкции и в крайна сметка да предложи несъстоятелен отговор.
Проучването настоява, че наред с въвеждането на медицински данни, обучението на ИИ-модели за здравеопазването трябва да се провежда съвместно от разработчици, медици-клиницисти и пациенти.
Още по темата във
facebookСподели тази статия в:

Медицинските съвети на изкуствения интелект могат да ни заблудят

Златото отбеляза добра седмица

Китай изведе на ниска орбита нова партида интернет сателити

Nestlé ще съкрати 16 000 работни места в предприятията си по света

Световните цени на петрола се повишават

В САЩ започна делото за най-голямата криптоизмама

Руски космонавти за първи път в историята описаха гледката от космоса за незрящи

Борсовите цени на портокаловия сок спаднаха до най-ниското си ниво от 2022 г.
