Umělá inteligence vstupuje do roku 2026 s novou energií. V nadcházejících měsících bychom se mohli dočkat nových AI zařízení i softwarových nástrojů, ale rovněž bezpečnostních prvků, které mají umělou inteligenci učinit přístupnou všem uživatelům.
Altman a Ive připravují hned tři tajná AI zařízení, naznačují úniky
Svět umělé inteligence již několik měsíců s napětím očekává, jaké novinky přinese loni oznámená spolupráce šéfa společnosti OpenAI Sama Altmana a bývalého šéfdesignéra společnosti Apple Jonyho Ivea. Po několika vágních náznacích nyní získávají chystaná AI zařízení konkrétnější obrysy. Ano, čtete správně. Novinky by totiž podle posledních úniků mohly být hned tři. Co o nich ale zatím víme?
As many requested, small supply chain updates about Openai / Jony ive hardware project now twice confirmed:
-internal codename is "Gumdrop" 🍬
-project was originally assigned to Luxshare 立讯
-now likely moving to Foxconn after dispute over mfg site locationOpenai does not… https://t.co/gkhogbIb4f
— 智慧皮卡丘 Smart Pikachu (Weibo) (@zhihuipikachu) December 30, 2025
Interní označení projektu nese název „Gumdrop“ a podle tiperů by měl Altman a Ive v budoucnu představit prototyp v podobě AI pera. Vývoj původně probíhal v čínské společnosti Luxshare, z geopolitických důvodů byl však později přesunut do Vietnamu a svěřen do rukou Foxconnu. Úniky pak potvrdil i sám Jony Ive, který v jednom z loňských rozhovorů uvedl, že funkční prototyp chytrého pera by se mohl na trhu objevit během dvou let. Kromě něj bychom se pak měli dočkat i přenosného audio zařízení, které by mohlo zprostředkovávat handsfree komunikaci s ChatGPT. Projekt je však prakticky na začátku, a nové informace tak jen umocňují přetrvávající napětí a velká očekávání.
ChatGPT by se měl být schopen učit nové dovednosti přes příkazy
A u úniků ještě chvíli zůstaneme. Podle nejnovějších zpráv se OpenAI chystá rozšířit schopnosti ChatGPT o funkci Skills. V praxi by mělo jít o modulární balíčky instrukcí, skriptů a zdrojů, které si uživatelé budou moci volit jednoduše pomocí tzv. slash‑příkazů (např. /analysis). Jednotlivé příkazy by pak mělo být možné vytvářet, upravovat a převádět z existujících modelů. Cílem tohoto vylepšení by měla být snaha o automatizaci opakujících se úkolů bez nutnosti opětovného zadávání základních promptů.

Chystaný nástroj Skills by mohl zefektivnit používání ChatGPT napříč různými platformami. Foto: Unsplash
Velkou výhodou funkce Skills by pak měla být její přenositelnost napříč různými platformami, což by z ChatGPT udělalo modulární dovednostní nástroj. Díky tomu, že budou jednotlivé „schopnosti“ spouštěny selektivně a nikoliv najednou, by pak umělá inteligence měla mít k dispozici více konverzační paměti, což zvýší její výkon i efektivitu. O tom, kdy však budou Skills oficiálně představeny, zatím společnost OpenAI neposkytla žádné informace.
Čína nastavuje AI přísnější pravidla. Chce chránit děti před emocionální manipulací
Čínská agentura pro správu kyberprostoru (CAC) nedávno představila návrh „dočasných opatření“ pro antropomorfní AI služby. Jedná se o takové nástroje, u nichž umělá inteligence využívá polidštěné chování, náznaky duševního cítění a další znaky, které byly až donedávna výsadou pouze lidí.

Čína se snaží nastavit umělé inteligenci jasné mantinely. Přístup k ní by tak měly mít umožněn prakticky všechny věkové kategorie. Foto: Pixabay
Čína chce tímto rozhodnutím omezit možnosti AI chatbotů generovat obsah podporující hazard, násilí, náboženský extrémismus či sebevražedné chování, a to především dětským uživatelům. Jedním z cílů je tak například zavedení režimu monitoringu emotivního stavu uživatelů: pokud umělá inteligence rozezná známky úzkosti či emoční závislosti, musí aktivně zasáhnout. Nezletilí uživatelé budou pro přístup k AI nástrojům potřebovat souhlas zákonných zástupců, hovoří se také o zavedení speciálního režimu či časových limitů. Poskytovatelé také budou muset nastavit přísnější úroveň zabezpečení v podobě filtrovaného obsahu či rodičovské kontroly. Zástupci CAC však zdůraznili, že by návrh, který je nyní ve fázi připomínkování, neměl nijak zasáhnout do soukromí uživatelů.
Meta koupila Manus AI: Zuckerberg pokračuje v progresivní strategii
Společnost Meta oznámila akvizici singapurského startupu Manus AI, jehož generální agent dokáže samostatně provádět komplexní úkoly na základě uživatelských dotazů. Podle deníku The Wall Street Journal dosáhla hodnota prodeje částky přes 2 miliardy dolarů, což představuje největší investici Mety od akvizice firmy Oculus v roce 2014.
Akvizice startupu Manus AI představuje zásadní krok ve strategii společnosti Meta v roce 2025. Jejím cílem je především posílení schopností v oblasti autonomních agentů, kteří v mnoha ohledech překonávají stávající chatboty. Manus AI disponuje multifunkčním modelovým systémem, který dokáže nejen plánovat a analyzovat, ale i provádět úkoly v reálném čase, přičemž jeho technologie má ambici konkurovat širším agentickým systémům od OpenAI či Google.
OpenAI hledá „manažera pro připravenost“. Nabízí mu pohádkový plat
Společnost OpenAI vypsala výběrové řízení na vskutku výjimečnou pozici nazvanou Head of Preparedness, která má za úkol předvídat a zmírňovat rizika spojená s vývojem vysoce pokročilých AI modelů. Šéf technologického gigantu Sam Altman uvedl, že tento manažer bude pracovat pod nemalým tlakem, což reflektuje i nabízená základní roční mzda, která dosahuje výše až 550 tisíc dolarů (více než 11,3 milionů korun) plus akcie.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Klíčovým úkolem této vedoucí pozice bude simulovat a následně i vyhodnocovat hrozby spojené s kybernetickou bezpečností, biotechnologiemi či duševním zdravím. OpenAI si od této funkce slibuje vytvoření komplexní strategie, která zajistí, že firemní modely budou nasazovány uvážlivě a se zabudovanými ochrannými mechanismy. Pracovní pozice vzniká v době, kdy se řada technologických společností obává možného zneužití AI nástrojů k nejrůznějším účelům, a OpenAI tak chce být v tomto ohledu připravena i na ty nejhorší scénáře.
