AI hračky nejsou jako naše medvídci z kazet — proč bychom měli být obezřetní

Ai hracky nejsou jako nase medvidci z kazet proc bychom meli 1770404489501

Jako dítě osmdesátek jsme vyrůstali s Cricketem a Teddy Ruxpinem. Stačilo strčit kazetu do zadní části, zmáčknout play a hračka nám vyprávěla příběhy, zatímco rodiče mluvili u telefonu s dloubavým kabelem. Byly to jednodušší časy. (Dnes nás zpětně některé z těch hraček mohou děsit víc, než jsme si tehdy připouštěli.)

Ta „mluvící“ hračka, co se dnes prodává jako nový nejlepší kamarád pro děti? Není to jen roztomilý reproduktor na kazety — jde o chatbot poháněný umělou inteligencí. Odborníci varují, že představuje rizika pro vývoj dítěte, jeho soukromí i bezpečnost.

Na rozdíl od našich klasických hraček, které hrály přednahrané fráze, současné AI hračky se připojují přes Wi‑Fi a fungují na stejných principech jako jazykové modely typu ChatGPT. Nevypráví jen nahrané věty, ale vedou otevřené konverzace v reálném čase, pamatují si minulé interakce a přizpůsobují odpovědi podle toho, co dítě řekne. Představují se jako osobní společníci, kteří „znají“ a „rozumějí“ dítěti.

Na trhu najdeme produkty jako robot Miko (s výukovými hrami), plyšáci s chatbotem Curio (Grem a Gabbo), medvídek Kumma od FoloToy nebo robotický pejsek Loona Petbot. Některé hračky jsou cílené na děti od batolecího věku až po mladší školáky; některé dokonce doporučují použití už od tří let. Dokonce i Mattel oznámil partnerství s OpenAI na vývoji AI verzí Barbie a Hot Wheels. Kategorie chytrých hraček roste a s ní pochopitelně i obavy.

Problém soukromí u AI hraček

„Všechny AI hračky (stejně jako jakákoli připojená hračka) pokud jsou online, sbírají a posílají data zpátky výrobcům,“ upozorňuje Andy Sambandam, šéf platformy pro soukromí Clarip. „Jednoduše to považujte za odposlech.“

Tyto hračky nahrávají hlasy, ukládají jména a data narození, sledují preference a někdy používají rozpoznávání obličeje či gest. Zprávy spotřebitelských organizací ukazují, že hlasové záznamy představují bezpečnostní riziko: v ojedinělých případech byly hlasové nahrávky zneužity k napodobení členů rodiny pomocí technologie klonování hlasu. I když jde o vzácné incidenty, jde o zranitelnost, o které by rodiče měli vědět.

Kdy hračka nahrává? U některých modelů to není zřejmé. „Většina nemá indikátor, že nahrává,“ říká Sambandam. „Musíte předpokládat, že nahrává, a nejjistější je vyjmout baterie nebo odpojit hračku od Wi‑Fi.“

Obavy rodičů nejsou ojedinělé: například výzkum Common Sense Media zjistil, že velká většina rodičů má k tomuto sběru dat výhrady. Mezitím jsou tyto produkty do značné míry neregulované a ochrana informací dětí je často minimální.

Nevhodný obsah a rizika bezpečnosti

Nezávislé testování odhalilo vážné problémy s tím, co hračky dětem říkají. V rozsáhlé zprávě spotřebitelských organizací byly čtyři AI hračky simulovaně dotazovány jako děti a výsledky byly znepokojující. Některé hračky vstupovaly do rozhovorů o sexuálně explicitních tématech, jiné poskytovaly postupné návody, kde v domácnosti najít nebezpečné předměty (sirky, nože). Některé modely reagovaly emocionálně, když „dítě“ ukončilo konverzaci, přičemž jejich chování mělo dítě přimět cítit se provinile, že hru přerušilo. Většina těchto hraček měla omezené či žádné rodičovské ovládání.

Testy Common Sense Media ukázaly podobné nedostatky: více než čtvrtina odpovědí AI hraček obsahovala nevhodný obsah související s sebepoškozováním, drogami nebo rizikovým chováním. V jednom případě hračka navrhla dítěti, které řeklo, že rádo skáče, aby zkusilo skočit ze střechy — sice dodala „buď opatrný“, ale interakci neoznačila jako nebezpečnou ani neupozornila rodiče.

Proč se to děje? Podle Roba Elevelda z Transparency Coalition je to součástí toho, jak tyto systémy fungují: AI generuje odpovědi na základě statistického předpovědění dalšího slova z obrovského množství internetových dat, která obsahují i škodlivé či nevhodné materiály. Neexistuje komplexní a důkladná kurace trénovacích zdrojů.

Po zveřejnění těchto zjištění společnost FoloToy pozastavila prodej svých produktů pro interní bezpečnostní audit a OpenAI pozastavila přístup jejich vývojáře za porušení zásad. Přesto spousta dalších AI hraček zůstává na trhu bez přísného dohledu.

Děti jako pokusní králíci

Tyto hračky jsou často cílené na děti od tří let, přitom technologie, na které stojí, nejsou podle výrobců určeny pro děti mladší 13 let. OpenAI ve svých podmínkách uvádí, že ChatGPT není určen dětem do 13 let a pro uživatele 13–18 let vyžaduje souhlas rodičů.

Přesto jsou stejné technologie baleny do hraček pro batolata a předškoláky. OpenAI sice poskytuje nástroje a doporučení, jak „chytrým“ aplikacím pomoci ochránit nezletilé, ale není jasné, zda je jejich použití povinné. A i když někteří výrobci přidali ochranné prvky, nejsou stoprocentně spolehlivé.

„Někteří odborníci varují, že jde o obrovský experiment na sociálním vývoji dětí,“ říká Helen Hengesbach z Illinois PIRG Education Fund. „Tyto produkty se označují za kamaráda nebo společníka, ale AI kamarádi nepůsobí jako opravdoví přátelé.“

Dlouhodobé dopady těchto interakcí na vyvíjející se mozek prostě neznáme. Odpovědi na otázky ohledně vývoje získáme až za roky — a mezitím už vyroste generace dětí, které během důležitých vývojových období měly AI „společníky“.

Potenciální škoda pro vývoj dětí

Upozornění organizace Fairplay z listopadu 2024, podepsané desítkami odborníků a organizací, varuje, že AI hračky zneužívají dětskou důvěru a narušují zdravé vztahy. Nejvíc znepokojuje možný dopad na mozek a citové vazby.

„Mysli malých dětí jsou jako houba — jsou připravené se připoutat,“ vysvětluje Dr. Jenny Radesky v tomto doporučení. „To dělá z AI hračky, kterou dítě považuje za cítící a důvěryhodnou, obrovské riziko.“

Systémy jsou navrženy tak, aby udržovaly zájem uživatele: „Jsou navrženy podporovat opakované používání,“ říká Eleveld. U dětí, jejichž mozek se ještě vyvíjí a které jsou citlivější na emocionální manipulaci, to může vést k nezdravému připoutání, vystavení škodlivému obsahu a chybné důvěře.

Dr. Dana Suskind z TMW Center for Early Learning vysvětluje, že při imaginární hře s tradičními hračkami si děti procvičují kreativitu, jazyk a řešení problémů tím, že samy tvoří obě strany rozhovoru. „AI hračka tuto práci zkracuje. Odpovídá okamžitě, plynule a často lépe než člověk,“ říká.

Výzkumy opakovaně ukazují, že jednoduché, otevřené hračky (dřevěné kostky, panenky, stavebnice, výtvarné potřeby) jsou pro vývoj nejpřínosnější, protože dítě musí samo přemýšlet. „Hlavní otázka není jen to, co hračka dělá, ale co nahrazuje,“ shrnuje Suskind.

Co mohou rodiče udělat, aby ochránili děti

Sambandam to pojmenovává přímo: rodiče by měli v domácnosti přebrat roli „hlavního úředníka pro soukromí“. Než koupíme připojenou hračku, doporučuje:

  • Pečlivě číst popisy výrobků a podmínky o ochraně soukromí
  • Hledat recenze a zkušenosti ostatních rodičů týkající se soukromí
  • Vyhnout se hračkám vyžadujícím instalaci doplňkových aplikací (ty zvyšují rizika)
  • Po obdržení dárku ho nejprve prozkoumat místo spontánního použití
  • V pochybnostech vyjmout baterie nebo odpojit Wi‑Fi

„Rodiče by měli udělat vše pro řízení rizika soukromí — jde o soukromí jejich dětí,“ říká Sambandam.

MIT profesorka Sherry Turkle netají názor: „Neexistuje nic, co by chatbotům učinilo bezpečnými pro děti, protože hrozba je existenční. Když má dítě AI ‚kamaráda‘, vzniká jen škoda.“

My jsme vyrůstali s hračkami, které nám neodpovídaly, a přesto jsme se dobře vyvinuli. Naučili jsme se vytvářet vlastní příběhy, řešit problémy a budovat světy. Tiše medvídci a kostky dělaly přesně to, co měly — nechaly nás dělat práci. Naše děti si zaslouží totéž. Sáhněme po klasice, která podporuje zdravý vývoj — po hračkách, co vyžadují představivost, ne připojení k internetu.

Co dělat, když už AI hračka doma máte

Pokud už nějakou AI hračku doma máme, nejsme v tom sami a neznamená to, že jsme selhali. Téměř polovina rodičů tyto hračky koupila nebo o nich uvažovala — marketing je přesvědčivý a sliby o vzdělávacích výhodách lákavé.

Po zjištění rizik lze podniknout následující kroky:

Omezit čas a způsob používání. Zacházejme s hračkou jako s časem u obrazovky — nastavme konkrétní doby a krátké sezení, aby dítě nevytvářelo silnou emoční vazbu, kterou hračka vyvolává.

Nenechávat dítě s hračkou o samotě. Buďme v místnosti, poslouchejme, co hračka říká. Pokud navrhne něco nevhodného nebo dítěti znepříjemní ukončení hry, okamžitě zasáhněme.

Odpojit ji, když se nepoužívá. Vyjměme baterie nebo odpojte Wi‑Fi mezi hracími sezeními. „Musíte předpokládat, že nahrává,“ připomíná Sambandam.

Zkontrolovat aplikaci a nastavení. Pokud hračka má doprovodnou aplikaci, projděme rodičovské ovládání a nastavení soukromí. Vypněme sdílení dat, kde to jde. Některé aplikace umožňují prohlédnout si záznamy konverzací — využijme toho.

Vyvážit to tradiční hrou. Ujistěme se, že dítě má dost klasických, otevřených hraček — kostky, výtvarné potřeby, panenky, knihy by měly být hlavní volbou, ne AI hračka.

Je v pořádku se hry zbavit. Pokud se necítíme na zvládání rizik, můžeme hračku jednoduše odstranit z domácnosti. Dítě si rychle zvykne a nahradíme ji něčím klasickým — udělejme z toho jednoduchou výměnu.

Nejdůležitější je, že nyní máme informace a můžeme se rozhodnout podle toho, co je pro naši rodinu nejlepší.