Novinky ze světa AI #148: Anthropic bojuje proti Pentagonu i Číně, Gemini 3.1 Pro a Nano Banana 2 rozpoutávají novou revoluci

Svět umělé inteligence zažívá mimořádně turbulentní týden. Model Claude měl být podle médií nasazen v utajené operaci USA ve Venezuele, Anthropic čelí obviněním z geopolitického střetu i krádeže modelových schopností čínskými laboratořemi, zatímco Google a Perplexity představují nové generace AI systémů posouvající hranice výkonu. Technologie se tak ocitají nejen na špičce inovací, ale i v centru mocenských a etických sporů.

Claude měl být použit v tajné operaci USA ve Venezuele. Šéf Anthropicu se od podobných akcí distancuje

Tento týden eskaluje na půdě Spojených států amerických situace, která ve světě umělé inteligence nemá obdoby. Podle informací zveřejněných v polovině února deníkem The Wall Street Journal měl být model Claude od Anthropic využit americkým ministerstvem obrany v rámci utajené operace zaměřené na svrhnutí venezuelského prezidenta Nicoláse Madura. Nasazení mělo proběhnout prostřednictvím partnera Palantir, který dlouhodobě pracuje pro americké bezpečnostní složky. Jsou-li tyto údaje pravdivé, šlo by o vůbec první případ, kdy byl systém od komerčního vývojáře generativní AI použit v klasifikované vojenské akci. Podle firemních zásad společnosti Anthropic je navíc tento způsob využití umělé inteligence zakázán.

Zpráva přichází ve chvíli, kdy se otázka vojenského využití generativní AI dostává do centra globálních debat. Americké ministerstvo obrany totiž v návaznosti na tyto zprávy oslovilo Anthropic s požadavkem na neomezený přístup k systémům Claude. Generální ředitel společnosti Dario Amodei však této žádosti podle všeho vyhovět nehodlá. Své rozhodnutí odůvodnil tím, že umělá inteligence nesmí podkopávat základní demokratické hodnoty, například plošné sledování obyvatelstva či vývoj plně autonomních zbraní. Pentagon varuje, že pokud Anthropic neustoupí, může být označen za riziko v dodavatelském řetězci, což je status, který běžně nesou nepřátelské státy USA. Amodei trvá na zachování určité míry spolupráce s americkou armádou, avšak v souladu s etickými podmínkami užívání. Pokud Pentagon neustoupí, nabízí firma hladký přechod k jinému poskytovateli těchto kontroverzních služeb, aby nedošlo k narušení probíhajících vojenských operací.

Perplexity Computer: Nový nástroj má usnadnit komplexní AI výzkum

Společnost Perplexity AI nedávno představila svůj nový systém Perplexity Computer, který má zásadně rozšířit dosavadní možnosti umělé inteligence nad rámec jednorázových odpovědí. Novinka funguje jako multi‑modelový workflow engine, který kombinuje hned několik jazykových modelů a nástrojů v jednotném prostředí. Namísto toho, aby jeden model odpovídal na všechno, systém rozděluje složitý úkol na menší, deleguje práci specializovaným modelům, a nakonec výsledky spojí do strukturovaného výstupu.

Obrázek: Novinky ze světa AI #148: Anthropic bojuje proti Pentagonu i Číně, Gemini 3.1 Pro a Nano Banana 2 rozpoutávají novou revoluci

Nový nástroj Perplexity Computer by měl uživatelům pomoci s komplexními výzkumy. Foto: Freepik AI

Perplexity Computer je navržený pro náročné úkoly, jako je analýza obsáhlých dokumentů, vícekrokové uvažování, technický výzkum nebo sestavování odborných reportů. Nástroj se opírá mimo jiné o silné vyhledávací jádro, takže při zpracování dotazů stále aktivně využívá webové zdroje, umí je citovat a přenést do samotného výstupu. Uživatel může do systému nahrávat i vlastní dokumenty, které jsou zpracovány podobně jako vstupy z online zdrojů. Služba je aktuálně k dispozici na webu pro předplatitele tarifu Max, Perplexity však brzy plánuje její podporu rozšířit i pro uživatele programů Pro a Enterprise.

Gemini 3.1 Pro a Nano Banana 2 opět posouvají hranice možností umělé inteligence

S velkými novinkami se během posledních dní pochlubila i společnost Google. Ta koncem minulého týdne rozšířila svou řadu modelů Gemini 3 o Gemini 3.1 Pro, který staví na základech předchozího Gemini 3 Pro, ale cílí na podstatně náročnější úlohy. Novinka údajně dosáhla skóre 77,1 % v testu ARC‑AGI‑2, což je dramatický nárůst oproti původní verzi (31,1 %) a výrazně také překonala i modely OpenAI a Anthropic. Výrazného zlepšení (skóre 44,4 %) pak Gemini 3.1 Pro zaznamenal i v testu Humanity’s Last Exam dosáhl 44,4 %, což jej řadí nad GPT‑5.2 a výrazně nad Gemini 3 Pro.

Teprve včera pak Google představil i novou verzi svého generátoru a editoru obrázků Nano Banana 2, který je součástí řady Gemini 3.1 Flash Image. Nový model nahrazuje původní Nano Banana Pro a přináší srovnatelnou obrazovou kvalitu, ale výrazně vyšší rychlost zpracovávání. Uživatelé jej mohou vyzkoušet nejen v aplikaci Gemini, ale i v Režimu AI v rámci vyhledávání, v Google Lens či v prohlížeči. Novinka pak přináší řadu vylepšení i pro práci s českým jazykem, a to nejen v rámci textových příkazů, ale i v obrázcích. Google tvrdí, že Nano Banana 2 poskytne uživatelům lepší výsledky nejen u kreativní tvorby, ale také u nejrůznějších komerčních zakázek. Z hlediska celkové spolehlivosti jde zároveň o další krok v posilování multimodálních schopností Gemini.

Anthropic obvinil čínské laboratoře z krádeže modelových schopností. Zapojit se měl i DeepSeek

Aby toho nebylo málo, potýká se společnost Anthropic kromě sporů s americkým ministerstvem obrany ještě s dalším problémem. Firma tento týden zveřejnila závažná obvinění vůči několika čínským AI společnostem, včetně známé laboratoře DeepSeek, která začátkem loňského roku fascinovala výkonem svých jazykových modelů. Podle Anthropicu se tyto čínské subjekty pokusily ve velkém měřítku extrahovat schopnosti modelu Claude pomocí tzv. destilace znalostí (v angličtině knowledge distillation). Jde o techniku, při níž se menší model učí napodobovat velký model prostřednictvím masivního množství jeho odpovědí. V případě neoprávněného užití tak jde o zásah do práv duševního vlastnictví.

Anthropic tvrdí, že zachytil koordinované kampaně tří laboratoří – DeepSeek, Moonshot AI a MiniMax – a každou z nich podrobně popsal v příspěvku na svém blogu. V případě již zmíněného DeepSeeku mělo jít o více než 150 000 dotazů, zaměřených na schopnosti hlubokého uvažování, hodnocení odpovědí a citlivé oblasti, přičemž čínská firma údajně používala synchronizované účty, sdílené platební metody a identické vzorce načasování, aby se vyhnula detekci. V reakci na incident tak Anthropic posílil ochranná opatření vůči těmto destilačním útokům a své znalosti ohledně boje proti nim sdílel i s ostatními AI laboratořemi. Americká firma tvrdí, že kauzu medializovala mimo jiné proto, aby upozornila na rizika, která mohou v budoucnu ohrozit férové a bezpečné používání špičkových systémů umělé inteligence.

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Asus ProArt GoPro Edition v Česku. Extrémní notebook má fantastickou výbavu, 128 GB RAM stojí 84 tisíc
Konec šmírování v metru: Samsung S26 Ultra umí schovat obsah displeje před zvědavci. Jak vše funguje?
Obrázek: Konec čekání na pokyny ze Země: Perseverance si nově najde polohu na Marsu samo, jako by mělo GPS
Konec čekání na pokyny ze Země: Perseverance si nově najde polohu na Marsu samo, jako by mělo GPS
V remaku původní trilogie série God of War mají být změny v soubojích
God of War se vrací do Řecka, studio Santa Monica oznámilo remake původní trilogie
Změňte si svůj trapný e-mail ze střední školy, Gmail to konečně umožní
Vybere si každý, i s nízkým rozpočtem. Vybrali jsme nejzajímavější herní notebooky
Češi, pozor na falešné e-shopy, bazary a podvodné SMS. Jak na bezpečné vánoční nákupy?
Recenze AI překladače Timekettle W4: Zkusili jsme mluvit česky v Číně a fungovalo to