Zatímco někteří vývojáři naplňují své závazky a posouvají své AI technologie dál, jiní díky problémům a kontroverzím spíše stagnují. Opět se tak ukazuje, že i drobné klopýtnutí může být ve světě umělé inteligence osudovou chybou, která dokáže významně zamíchat již rozdanými kartami.
- 1. Google Veo 3 už umí vytvářet videa i z obrázku. Funkce je zatím dostupná jen vyvoleným
- 2. OpenAI odkládá vydání open-source modelu na neurčito
- 3. Evropský AI nástroj Voxtral se snaží dotáhnout Čínu a USA
- 4. Grok opět víří vody: Po vychvalování Hitlera přichází anime sexboti
- 5. Bezpečnostní slabina Meta AI umožnila přístup k soukromým konverzacím
Google Veo 3 už umí vytvářet videa i z obrázku. Funkce je zatím dostupná jen vyvoleným
Společnost Google výrazně vylepšila funkce svého videogenerátoru Veo 3. Uživatelé budou nově moci vytvářet videa i na základě obrázkových vstupů. V praxi je pak možné kombinovat textový prompt doplněný libovolným referenčním obrázkem, přičemž umělá inteligence následně vygeneruje cílový video-výstup. Všechny výstupy pak budou obsahovat dvojí vodoznak včetně technologie SynthID, díky kterému bude možné jednoznačně identifikovat, že jde o AI generovaný obsah. Google v souvislosti s příchodem nových nástrojů pro Veo 3 také zveřejnil video, ve kterých novinky demonstruje:
Ohledně dostupnosti této funkce panuje určitá nejistota, protože Google pouze uvedl, že je zaváděna ve „vybraných zemích“. Samotný model Veo 3 již funguje ve 154 státech světa včetně České republiky. Lze tedy předpokládat, že se rozšíření funkcí tohoto videogenerátoru časem dočkáme i u nás.
OpenAI odkládá vydání open-source modelu na neurčito
Společnost OpenAI oznámila další odklad svého open-source modelu umělé inteligence. Podle generálního ředitele společnosti Sama Altmana potřebuje firma čas k provedení bezpečnostních testů a analýze možných rizik. Model se tak odkládá na blíže nespecifikované datum.
we planned to launch our open-weight model next week.
we are delaying it; we need time to run additional safety tests and review high-risk areas. we are not yet sure how long it will take us.
while we trust the community will build great things with this model, once weights are…
— Sam Altman (@sama) July 12, 2025
Jedná se v pořadí již o druhý posun termínu, k prvnímu se OpenAI odhodlala letos v červnu. Altmanova společnost se v současné době zaměřuje na uvedení nové generace svého jazykového modelu GPT, tedy GPT-5. Ten by měl pomoci firmě v konkurenčním boji proti jiným technologickým gigantům, jejichž AI nástroje již stávající verze GPT v mnohém překonávají. Je tedy možné, že tento projekt má před open-source AI prioritu.
Evropský AI nástroj Voxtral se snaží dotáhnout Čínu a USA
Francouzská společnost Mistral v úterý představila rodinu modelů Voxtral, které jsou schopny porozumět lidské řeči a rovněž generovat mluvené slovo jako odpověď. Skupina obsahuje celkem tři nástroje – Voxtral Small s 24 miliardami parametrů, a dále Voxtral Mini a Voxtral Mini Transcribe s 3 miliardami parametrů. Voxtral Small je prémiový model společnosti zaměřený na aplikace v produkčním měřítku, zatímco Voxtral Mini je určen pro lokální a okrajové nasazení. Voxtral Mini Transcribe se pak zaměřuje na úkoly související s přepisováním, přičemž jeho přímým konkurentem má být OpenAI Whisper.
Na pomyslné mapě světa AI se kromě USA a Číny po delší době opět objevuje Evropa. Foto: Pixabay
Mistral nazývá Voxtral „prvním rozhraním lidstva“ a zdůrazňuje jej jako základní pilíř komunikace mezi člověkem a počítačem, která by měla být co nejpřirozenější. Mistral si klade za cíl vyplnit nástroji Voxtral mezeru na trhu mezi bezplatnými, ale omezenými modely na jedné straně a prémiovými, avšak cenově nepříliš dostupnými AI nástroji na straně druhé. Oproti výše zmíněné případu týkajícího se OpenAI se v tomto případě jedná o open-source modely, které jsou k dispozici zdarma v rámci licence Apache 2.0 mimo jiné i prostřednictvím aplikačního programovacího rozhraní (API).
Grok opět víří vody: Po vychvalování Hitlera přichází anime sexboti
Společnost xAI vlastněná Elonem Muskem v pondělí vydala novou funkci pro nejvyšší prémiové předplatitele služby Grok. Nadstavba zvaná Companions přináší animované postavičky reagující na pokyny uživatelů. Digitální avataři jsou schopni pohybovat hlavou i tělem a při odpovědích dokonce zapojují i mimiku. V současné době jsou k dispozici dvě verze těchto virtuálních společníků – liška jménem Bad Rudy a anime dívka Ani.
— Elon Musk (@elonmusk) July 14, 2025
Právě druhá zmiňovaná varianta pak vzbudila na sociálních sítích rozruch. Ani má totiž podle všeho tzv. NSFW režim (z angl. not safe for work), ve kterém ji lze svléknout do spodního prádla. Uživatelé navíc sdíleli příspěvky, ve kterých společnice sama komunikuje sexuálním tónem, aniž by ji k tomu původně vyzvali. Grok tak opět vyvolává kontroverzi v citlivém tématu virtuálních přítelkyň, které sice lidem pomáhají řešit problémy s osamělostí, na druhou stranu ale mohou vést k přílišné náklonností, která může mít v ojedinělých případech i fatální následky.
Bezpečnostní slabina Meta AI umožnila přístup k soukromým konverzacím
Sandeep Hodkasi, výzkumný pracovník společnosti AppSecure, nedávno poukázal na nedostatečné zabezpečení Meta AI, díky kterému bylo možné získat neautorizovaný k soukromým konverzacím s chatbotem. K přístupu k této chybě nebylo nutné proniknout do serverů Meta nebo manipulovat s kódem aplikace; stačilo pouze analyzovat síťový provoz. Podle zprávy serveru TechCrunch došlo k incidentu již na přelomu roku 2024 a 2025, teprve teď však na povrch vyplynuly detaily o této skutečnosti, a to díky výpovědi samotného Hodkasiho.
Nedávno odhalený případ týkající se bezpečnostní slabiny Meta AI ukázal, že dostat se k citlivým informacím ze soukromých chatů může být snazší, než se zdá. Foto: Unsplash
Zranitelnost v podstatě spočívala ve způsobu, jakým systém AI zpracovával autorizaci jedinečných ID jednotlivých promptů. Meta podle všeho nedokázala zajistit dostatečná bezpečnostní opatření k ověření, kdo k těmto údajům přistupuje. V rukou kybernetického zločince mohla tato metoda vést ke kompromitaci velkého množství soukromých údajů uživatelů. Podle zástupců společnosti však k žádnému úniku citlivých dat nedošlo. Meta AI by již měla disponovat bezpečnostní záplatou, přičemž sám Hodkasi byl za odhalení zranitelného místa odměněn sumou 10 tisíc dolarů (zhruba 212 tisíc korun).