Od praktických vylepšení nástroje Deep Research přes bezpečnostní varování Microsoftu až po právní spor Anthropic a ambiciózní plány Amazonu – svět umělé inteligence zažívá dynamické změny, které ukazují, že nadcházející měsíce budou plné napětí, inovací i nutnosti přehodnotit přístup k bezpečnosti a datům.
- 1. Deep Research v ChatGPT dostává nové ovládání i přehlednější režim zobrazení
- 2. Microsoft varuje před dvojitými AI agenty. Přílišná práva a slabé zábrany zvyšují riziko útoků
- 3. Anthropic se soudí s Anthropicem. Indická firma kvůli shodě jmen požaduje uznání i odškodnění
- 4. OpenAI spouští reklamy v ChatGPT: Zatím ale jen v USA a pro vybrané uživatele
- 5. Amazon pracuje na spuštění vlastního AI tržiště pro licencovaný obsah
- 6. Anthropic přichází o další klíčovou osobnost: šéf výzkumu bezpečnostních opatření vysvětluje svůj odchod
Deep Research v ChatGPT dostává nové ovládání i přehlednější režim zobrazení
Společnost OpenAI po delší době aktualizovala svůj nástroj Deep Research, který funguje jako agentní asistent určený pro analýzu nejrůznějších složitých témat. Výzkum prováděný prostřednictvím Deep Research lze nyní efektivněji řídit a směrovat – uživatelé mohou vybrat konkrétní webové zdroje, které má nástroj používat, a připojit tak nejrůznější důvěryhodné referenční kanály. Přibyla i možnost upravit plán analýzy ještě před samotným spuštěním, což v předchozí verzi nešlo.
Vylepšení se dočkala také práce s výsledným výstupem. Deep Research nabízí nový vzhled postranní lišty a také režim celé obrazovky s rozhraním připomínajícím dokumentový editor. Ten nabízí interaktivní obsah (index) po levé straně a panel s citacemi napravo, takže se uživatel rychle dostane k jakékoli části reportu. V neposlední řadě pak OpenAI aktualizovala i model GPT‑5.2 Instant, který Deep Research používá, aby byl rychlejší a lépe reagoval na změny v průběhu sestavování výsledků výzkumu.
Microsoft varuje před dvojitými AI agenty. Přílišná práva a slabé zábrany zvyšují riziko útoků
Nejnovější bezpečnostní zpráva společnosti Microsoft upozorňuje na vzestup AI agentů ve firmách a s tím související rizika. Dokument pak věnuje zvláštní pozornost fenoménu tzv. „AI double agents“, tedy agentům, kteří mají nadstandardní přístupová oprávnění a současně nedostatečné ochranné mechanismy. V takové konfiguraci jsou modely zranitelné vůči prompt engineeringu a podvrženým instrukcím v rozhraní či obsahu, což může útočníkům otevřít cestu k interním datům nebo změně chování systému. Microsoft ve své zprávě dodává, že více než 80 % firem z Fortune 500 už nasazuje agenty vytvořené pomocí nástrojů, u nichž často chybí základní bezpečnostní protokoly a dohled. Alarmující je i stínové používání: téměř třetina zaměstnanců využívá agenty k pracovním úkolům bez oficiálního schválení ze strany IT oddělení.
Řada podniků dnes aktivně využívá AI agenty. Přílišná důvěra v tyto nástroje se však nemusí vždy vyplatit, varuje Microsoft. Foto: Unsplash
Dokument uvádí také některá doporučení pro firmy, které AI agenty využívají – například přechod na tzv. Zero Trust architekturu, důslednou správu práv a celkové zvýšení kontroly nad procesy, které umělá inteligence provádí. Podle Microsoftu by tyto společnosti měly inventarizovat všechny používané agenty, omezit jejich přístup jen na nezbytná data a průběžně hlídat případné chyby, které by z jejich virtuálních pomocníků mohly nechtěně vytvořit dvojité agenty.
Anthropic se soudí s Anthropicem. Indická firma kvůli shodě jmen požaduje uznání i odškodnění
Plány společnosti Anthropic na vstup na indický trh čelí nečekanému problému. Místní firma Anthropic Software totiž na amerického AI vývojáře podala právní stížnost kvůli údajné záměně značek. Tvrdí přitom, že svůj název používá už od roku 2017. Příchod západního startupu na indický trh prý vyvolal v regionu zmatek a poškodil pověst domácího podniku. Anthropic Software proto žádá uznání předchozího užívání jména, jakož i o finanční kompenzaci ve výši 10 milionů rupií (zhruba 2,25 milionu korun). Případ nyní řeší místní obchodní soud.
Anthropic’s India expansion collides with a local company that already had the name https://t.co/EyePdSgUUx
— TechCrunch (@TechCrunch) February 9, 2026
Situace je navíc složitější tím, že indická firma zatím nemá úředně zapsanou ochrannou známku, což může ovlivnit výsledek sporu. Pokud by ale soud rozhodl v její prospěch, známý americký startup by mohl být nucen zvážit změnu názvu pro tamní trh.
OpenAI spouští reklamy v ChatGPT: Zatím ale jen v USA a pro vybrané uživatele
Po několika měsících spekulací začala společnost OpenAI testovat reklamy v ChatGPT. Ty se aktuálně zobrazují pouze americkým uživatelům a účtům bez aktivního předplatného či v tarifu ChatGPT Go. Firma ujišťuje, že veškerý reklamní obsah bude vždy jasně označen a bude vizuálně oddělen od běžných odpovědí. Konverzace, historie promptů a uživatelská data pak nebudou s inzerenty vůbec sdílena. Reklamu navíc bude možné omezit výměnou za snížení denního limitu promptů. Placené tarify Plus, Pro, Business, Enterprise a Education budou i nadále bez reklam.

Společnost OpenAI postupně testuje zobrazování reklam v ChatGPT. Foto: Se souhlasem OpenAI
OpenAI ve své zprávě tvrdí, že zavedení reklam je reakcí na neustále se rozvíjející infrastrukturu a rostoucí investice, a má tak pomoci udržet širokou dostupnost nástrojů ChatGPT. Testovací režim pak podle uživatelů umožňuje zobrazovat sponzorované návrhy kontextově – při vyhledávání receptu se tak mohou objevit odkazy na krabičkové diety či dovozové služby. Uživatelé mohou reklamy skrýt, spravovat personalizaci a zjistit, proč se konkrétní reklamní sdělení zobrazilo.
Amazon pracuje na spuštění vlastního AI tržiště pro licencovaný obsah
Společnost Amazon podle dostupných informací interně diskutuje o vzniku tzv. AI content marketplace, tedy platformy, kde by se mohli setkávat vydavatelé, AI firmy a vývojáři, a rychleji zde uzavírat licenční dohody na tréninková data. Projekt má být veden divizí Amazon Web Services (AWS) a aktuálně by se měl nacházet ve fázi konceptu. Vzhledem k tomu, že většina AI společností dnes čelí právním sporům za neoprávněné využívání chráněných textů či multimédií, má nově vznikající platforma nabídnout způsob, jak data získávat eticky, transparentně a bez dlouhých právních procesů. Amazon pak touto strategií zároveň reaguje na trend, kdy počet přímých dohod mezi mediálními domy a AI hráči zůstává velmi nízký a trénink dat ve velkém měřítku je komplikovaný.
Společnost Amazon údajně pracuje na vývoji nové AI platformy fungující na principu tržiště. Foto: Unsplash
Interní materiály AWS podle deníku The Information údajně zmiňují i možnost napojení na stávající služby, jako jsou Bedrock či Quick Suite, což naznačuje, že by tržistě mohlo sloužit nejen k licencování dat, ale i k jejich okamžitému využití ve vývojových nástrojích Amazonu. Přestože firma zatím neplánuje oznámení na nejbližší konferenci, tlak konkurence je zřejmý. Microsoft už svůj vlastní obsahový marketplace spustil a postupně na něj přivádí vydavatele i AI společnosti. Pokud se Amazon rozhodne projekt urychlit, může jít o další klíčový krok v boji o to, kdo bude kontrolovat ekosystém legálních dat pro trénink velkých jazykových modelů.
Anthropic přichází o další klíčovou osobnost: šéf výzkumu bezpečnostních opatření vysvětluje svůj odchod
Společností Anthropic aktuálně otřásá nejen výše zmíněný spor s indickou firmou, ale také další další významná rezignace. Mrinank Sharma, který byl šéfem Safeguards Research Team a patřil k hlavním tvářím výzkumu bezpečnosti AI, oznámil svůj odchod prostřednictvím příspěvku na sociálních sítích. Spolu s ním pak zveřejnil zveřejnil i dvoustránkový dopis, který předal svým nyní již bývalům kolegům. Popisuje v něm širší obavy z „prolínajících se globálních krizí“ a tvrdí, že lidstvo vstupuje do bodu, kdy musí moudrost růst stejným tempem jako technologická moc.
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Sharma během dvouletého působení ve firmě pracoval na problémech souvisejích se sycophancy (přílišná lichotivost AI), riziky spojenými AI bioterorismem či dopady intenzivního používání chatbotů na lidské přesvědčení. Vývojář pak uvedl, že nemá další kariérní plán a vrací se do Spojeného království, aby si vzal čas na rozmyšlenou. Rezignace klíčového bezpečnostního experta tak znovu otevírá diskusi o tlaku, který výzkumníci cítí v době rychle akcelerujících možností generativní AI i s ní spojených rizik v případě možného zneužití.


