Учени предупреждават: генеративният изкуствен интелект произвежда фалшиви научни данни

Учени предупреждават: генеративният изкуствен интелект произвежда фалшиви научни данни Снимка: taylordailypress.net

Конкретният „виновник” отново е ChatGPT, чатботът, генерирал този път масив неверни данни в подкрепа на научни хипотези в особено рискова област - медицината

В случая технологията с изкуствен интелект (ИИ) е използвана, за да сравни резултатите от две очни хирургични процедури, показвайки погрешно, че едната е по-добра от другата. За да докаже потенциалната възможност от научна измама и заблуда на пациентите, медицински екип е възложил на най-новата версия на ChatGPT, да създаде набор от данни за очното заболяване кератоконус, което влошава зрението и в до 20% от случаите се лекува с трансплантация на роговица чрез една от двете сравнявани хирургични процедури PK и DALK.

И ChatGPT си "свършва работата" – генерира данни от проучване сред несъществуващи 160 мъже и 140 жени, чиито фалшиви резултати дават преимущество на DALK, което всъщност противоречи на реалните клинични изпитания.

Така генерираното изследване и разобличаването му е публикувано в сп. JAMA Ophthalmology на 9 ноември от екипа учени, които са го провели, за да докажат рисковете. „Целта ни беше да подчертаем, че за няколко минути можете да създадете набор от данни, неподкрепени от реални резултати, противоречащи на наличните доказателства”, казва авторът на статията Джузепе Джанакаре, очен хирург в университета в Каляри в Италия.

Колегите му по света споделят притесненията. Според Джак Уилкинсън, биостатистик в Университета в Манчестър, „Изглежда, че е доста лесно да се създадат данни, които са поне повърхностно правдоподобни, така че нетренирано око лесно може да се заблуди”. 

„Проблемът със създаването на фалшиви масиви данни чрез ИИ е по-опасен дори от генерирани текстове, в които знаете, че има плагиатство, но е трудно да го откриете. Затрупват ви изцяло фалшиви данни за несъществуващи пациенти, с фалшиви резултатите и фалшиви отговори на въпросници, плюс купища фалшиви данни за експерименти с животнти – и това е ново ниво на безпокойствоказва и Елизабет Бик, микробиолог и независим консултант по научна почтеност в Сан Франциско, Калифорния. 

По искане на сп. Nature, фалшивото изследване е подложено на протокол за скрининг за автентичност и специалистите признават, че фалшивите данни са открити единствено на базата необичайно групиране на фиктивните пациенти. Д-р Джанакаре също казва, че „ако погледнете данните набързо, е много трудно да се разпознае „нечовешкия” им произход”.

В резултат на това медиците сега работят по проект за създаване на инструменти за оценка на потенциално проблематични проучвания и планират интегрирането и автоматичното им задействане в устройствата с ИИ. Засега обаче има поне един проблем – ИИ трябва да има цел, така че остава своевременно да се разбере какво трябва да търсят контролните инструменти. Учени коментират, че зад всички действия на ИИ все пак стои човек и ако трябва да се разчита на нещо, то това е обикновената човешка добросъвестност - все по-голяма рядкост напоследък.

Още по темата във

facebook

Сподели тази статия в: