Umělá inteligence (AI) v posledních letech výrazně pokročila. Transformovala mnoho průmyslových odvětví a zlepšila způsob, jakým lidé žijí a pracují. Ve vědeckém výzkumu může umělá inteligence zvýšit kvalitu a efektivitu analýzy a publikování dat. Umělá inteligence však také otevřela možnost vytvářet vysoce kvalitní podvodné dokumenty, které je obtížné odhalit, což vyvolává důležité otázky o integritě vědeckého výzkumu a důvěryhodnosti publikovaných dokumentů. Skupina předních lékařů Neurochirurgické a neuroonkologické kliniky 1. LF UK a ÚVN provedla studii, jejímž cílem bylo prozkoumat schopnosti současných jazykových modelů AI při vytváření vysoce kvalitních podvodných lékařských článků. Jak uvádějí v shrnutí studie https://www.jmir.org/2023/1/e46924/ předpokládali, že moderní modely AI mohou vytvářet vysoce přesvědčivé podvodné dokumenty, které mohou snadno oklamat čtenáře a dokonce i zkušené výzkumníky.

Tato studie použila ChatGPT (Chat Generative Pre-trained Transformer) poháněný jazykovým modelem GPT-3 (Generative Pre-trained Transformer 3) k vytvoření podvodného vědeckého článku týkajícího se neurochirurgie. GPT-3 je rozsáhlý jazykový model vyvinutý společností OpenAI, který využívá algoritmy hlubokého učení ke generování lidského textu v reakci na výzvy uživatelů. Model byl trénován na masivním korpusu textu z internetu a je schopen generovat vysoce kvalitní text v různých jazycích a na různá témata. Autoři pokládali modelu otázky a výzvy a vylepšovali je iterativně, jak model generoval odpovědi. Cílem bylo vytvořit kompletně vymyšlený článek včetně abstraktu, úvodu, materiálu a metod, diskuse, odkazů, grafů atd. Jakmile byl článek vytvořen, byl přezkoumán z hlediska přesnosti a soudržnosti odborníky v oblasti neurochirurgie, psychiatrie a statistiky a porovnán s existujícími podobnými články.
 
O závěrech studie se můžete dozvědět v článku
https://www.jmir.org/2023/1/e46924/
 

O studii také vyšly články: