OpenAI přinesla významné rozšíření své funkce Deep Research. Tato je nyní dostupná všem platícím uživatelům služeb ChatGPT Plus, Team, Edu a Enterprise. Současně s tímto krokem však společnost řeší i rostoucí bezpečnostní hrozby spojené se zneužíváním jejich technologií. Jak novinku použít?
Od počátečního uvedení prošla funkce Deep Research (v češtině Hluboký výzkum) několika vylepšeními. Mezi nejvýznamnější patří možnost vkládat obrázky s citacemi přímo do výstupu a lepší porozumění a odkazování na nahrané soubory. Tyto změny výrazně zlepšují použitelnost nástroje pro komplexní výzkumné úkoly.
Deep Research je nový nástroj od OpenAI, který umí samostatně provádět složité vyhledávání na internetu. Funguje na vylepšené verzi systému o3, která je speciálně upravená pro procházení webu. Nástroj dokáže vyhledávat, chápat a analyzovat texty, obrázky a PDF dokumenty na internetu, a přizpůsobovat své hledání podle toho, co nachází. Umí také pracovat se soubory, které mu uživatel nahraje, a analyzovat data pomocí programování v Pythonu. OpenAI očekává, že Deep Research bude užitečný pro širokou škálu lidí.

Novou funkci najdou platítí uživatelé v okně nového chatu pod tlačítkem „Hluboký výzkum“. Foto: Redakce inSmart.cz
Uživatelé služeb Plus, Team, Enterprise a Edu budou mít k dispozici 10 dotazů v režimu Deep Research měsíčně. Pro předplatitele úrovně Pro bude limit stanoven na 120 dotazů měsíčně, což odráží zaměření této služby na náročnější uživatele.
„Společnost také zveřejnila systémovou kartu, která detailně popisuje, jak byl Deep Research vytvořen, jak byly hodnoceny jeho schopnosti a rizika a jakým způsobem byla zlepšena bezpečnost,“ uvádí oficiální oznámení OpenAI. Na vývoji se podílela komunita stovek odborníků, kteří pomáhali s trénováním této funkce.
Bezpečnostní incidenty si žádají další opatření
Paralelně s rozšiřováním funkcí svých technologií musí OpenAI řešit i pokusy o jejich zneužití. Nedávno společnost zablokovala účty skupiny čínských uživatelů, kteří se pokusili využít ChatGPT k ladění a úpravě kódu pro nástroj na sledování sociálních médií.
Tato kampaň, kterou OpenAI označuje jako „Peer Review“, zahrnovala pokusy o generování prodejních prezentací pro program, který byl podle dostupných dokumentů navržen ke sledování protičínských nálad na platformách jako X, Facebook, YouTube a Instagram. Operace se zdála být zaměřena především na odhalování výzev k protestům proti porušování lidských práv v Číně s cílem sdílet tyto informace s čínskými úřady.

Čínská skupina využívala ChatGPT k vygenerování aplikace pro sledování sociálních sítí. Foto: Freepik AI
„Tato síť se skládala z účtů ChatGPT, které fungovaly v časovém vzoru odpovídajícím pracovní době v kontinentální Číně, dotazovaly naše modely v čínštině a používaly naše nástroje v objemu a různorodosti odpovídající manuálnímu dotazování, nikoli automatizaci,“ uvedla společnost OpenAI ve svém prohlášení.
Podle Bena Nimmoa, hlavního vyšetřovatele OpenAI, to bylo poprvé, kdy společnost odhalila nástroj umělé inteligence tohoto druhu. „Hrozby nám někdy poskytují pohled na to, co dělají v jiných částech internetu, kvůli způsobu, jakým používají naše modely AI,“ řekl Nimmo deníku The New York Times.
OpenAI bojuje proti zneužívání své umělé inteligence
Mnoho kódu pro sledovací nástroj bylo zřejmě založeno na open-source verzi jednoho z modelů Meta Llama. Skupina také údajně použila ChatGPT k vygenerování výročního hodnocení výkonu, kde tvrdí, že psala phishingové e-maily jménem klientů v Číně.
V samostatném případě OpenAI zablokovala účet, který používal ChatGPT k generování příspěvků na sociálních médiích kritizujících Cai Xia, čínskou politoložku a disidentku žijící v exilu v USA. Stejná skupina také využívala chatbota k vytváření článků ve španělštině kritizujících USA, které byly publikovány „mainstreamovými“ zpravodajskými organizacemi v Latinské Americe.
Tyto incidenty zdůrazňují dvojí povahu pokročilých AI systémů – na jedné straně poskytují inovativní nástroje pro legitimní výzkum a vývoj, na druhé straně představují potenciální bezpečnostní rizika, pokud jsou zneužity. OpenAI proto neustále zlepšuje své bezpečnostní protokoly a mechanismy detekce, aby minimalizovala možné zneužití svých technologií.
Zdroj: TZ OpenAI