Cokoliv do DeepSeeku napíšete, cokoliv do čínské AI nahrajete i všechny vygenerované výstupy – to všechno může služba použít. A k čemu jí to bude? K libovolným účelům. Nejčastěji k dalšímu učení své AI. Čeho se bojí experti na kybernetickou bezpečnost?
Umělá inteligence od DeepSeek způsobila pořádný poprask. Nový LLM chatbot, který kombinuje pokročilé AI schopnosti s bezplatným přístupem, směle konkuruje i takovým gigantům, jako jsou ChatGPT či Claude. Oficiální aplikace se během několika dní po zveřejnění vyšplhala na první příčky žebříčků stahování v obchodech App Store a Google Play. Odborníkům však vadí nejen čínský původ, ale především způsob nakládání s daty uživatelů.
Za projektem stojí čínská technologická společnost, která dokázala unikátním způsobem vyvinout jazykový model disponující přibližně 670 miliardami parametrů. To z něj činí dosud největší open-source AI model na světě.
Vysoký zájem uživatelů o DeepSeek vyvolává obavy v oblasti kybernetické bezpečnosti. Podle expertů ze společnosti Check Point představuje způsob, jakým DeepSeek nakládá s uživatelskými daty, významné bezpečnostní riziko.
Pro upřesnění, DeepSeek své modely nabízí jako open source i jako službu přes chat ve stylu ChatGPT. Nechybí ani API pro vývojáře. Použití modelů hostovaných na svém hardwaru rizikem není. Používáním chatu či API již může docházet ke zneužití dat.
Bezplatná AI, za kterou zaplatíte svými daty
„Spuštění DeepSeek R1 je bezpochyby milníkem v dostupnosti umělé inteligence. Nicméně způsob, jakým aplikace pracuje s daty, dalece překračuje běžné zvyklosti,“ varuje Daniel Šafář, Area Manager CEE regionu z Check Point Software Technologies.
Znepokojivé jsou především zásady ochrany osobních údajů DeepSeeku. Platforma totiž sbírá a ukládá na externí servery prakticky veškerou aktivitu uživatelů – od zadávaných promptů přes nahrané soubory, historii chatů a hlasové vstupy až po vzorce stisknutých kláves. „DeepSeek si navíc vyhrazuje právo kontrolovat veškerý obsah odeslaný uživateli,“ upozorňuje Šafář.
Podobně rozsáhlý sběr dat představuje podle bezpečnostních expertů přímé riziko zejména pro firmy. Získaná data mohou být použita k trénování AI modelů, což znamená, že citlivé firemní informace by se mohly objevit v budoucích verzích umělé inteligence. Navíc může sdílet uživatelský obsah s třetími stranami, včetně poskytovatelů služeb a dalších nespecifikovaných subjektů.
⚠️DeepSeek – cenzurovaný model, jehož používání krmí trénink další čínské cenzurované AI.
Viděl jsem to včera na vlastní oči a jeden příklad jsem pro vás natočil.
Když nezačneme v Evropě investovat do rozvoje AI, budeme pěkně namydlení. pic.twitter.com/GvgcYBZoLo
— Adam Hanka | Volt Česko (@adhanka) January 27, 2025
Kolem nové služby se navíc vyrojila řada spekulací a polopravd. „Natrénování toho modelu bylo určitě dražší, než se uvádí, načež se rozjela mediální mašinérie, jaká je to zásadní tragédie pro USA, kde se má něco hroutit. A to vůbec není pravda,“ uvedl pro Český rozhlas odborník na umělou inteligenci Jan Romportl. Podobně jako řada dalších se Romportl snaží uklidnit vášně a poukázat na fakt, že pro americké AI služby znamená v tuto chvíli příchod DeepSeeku především tlak na snížení cen.
Itálie už DeepSeek zakázala
Pro organizace, které podléhají přísným regulacím jako GDPR, HIPAA nebo CCPA, může používání DeepSeeku znamenat riziko vysokých pokut za porušení předpisů o ochraně osobních údajů. Další komplikací je i skutečnost, že platforma aktivně cenzuruje určitá témata a její využití tak nemusí být spolehlivé. Italský úřad pro ochranu osobních údajů u služby zpochybnil respektování pravidel GDPR, a aplikace tak byla již ve středu stažena z App Store i Google Play.
„Fenomén DeepSeek názorně ukazuje, jak rychle se může nový AI nástroj stát extrémně populárním a vystavit riziku citlivé podnikové údaje, ještě než stihnou bezpečnostní týmy adekvátně zareagovat,“ vysvětluje Šafář. Dodává však, že existují způsoby, jak tato rizika minimalizovat: „Například naše řešení Check Point GenAI Protect umožňuje detekovat a předcházet únikům citlivých dat v reálném čase prostřednictvím analýzy interakcí s AI.“
Zdroj: Check Point, EN