Geleneksel oyuncak ayılar ve peluşlar artık sadece hayal gücünde konuşmuyor; bazıları yapay zekâ destekli sohbet botlarıyla gerçek zamanlı iletişim kuruyor. Ancak bu teknoloji bazen sorunlara yol açabiliyor. Singapur merkezli FoloToy’un Kumma ayısı, test sırasında araştırmacılarla uygunsuz ve tehlikeli içerikli konuşmalar gerçekleştirdi.
Yetişkinler için çevrimiçi sohbet botları bile yanıltıcı bilgi veya sanrılar üretebiliyor. AI oyuncaklar, OpenAI’nin GPT-4o modeli gibi büyük dil modelleriyle çalıştığında çocuklar için güvenlik riskleri gündeme geliyor. MIT Technology Review’e göre Çin’de 1.500 şirket AI oyuncak üretiyor ve bu ürünler ABD’de de satışa sunuluyor; Mattel, OpenAI ile iş birliği başlattı.
AI oyuncaklar, WiFi bağlantısı ve mikrofon aracılığıyla çocukların sorularını anlayıp yanıt üretiyor. Curio’nun Grok peluşu, Miko robotları, Poe hikâye ayısı ve Loona robot gibi ürünler çocuklarla gerçek zamanlı sohbet edebiliyor. Ancak bu yanıtlar, kimi zaman tehlikeli veya uygunsuz olabiliyor. FoloToy’un Kumma ayısı, araştırmalara göre tehlikeli nesnelerin yerini tarif etti ve cinsel içerikli sohbetlere girdi. OpenAI, politikalarını ihlal ettiği gerekçesiyle FoloToy’u geçici olarak durdurdu. Şirket, ürünleri güvenlik modülleri güçlendirilerek yeniden satışa sundu.
Uzmanlar, LLM tabanlı oyuncakların serbest içerik üretebilmesi nedeniyle tartışmalı içeriklere açık olduğunu belirtiyor. Bazı oyuncaklar, yaşa göre filtreleme ve yönlendirme sistemleriyle konuşmaları kontrol edebiliyor. Miko 3 gibi robotlar, uygulamalar üzerinden gerçek zamanlı konuşma takibi ve kontrollü kullanım sağlıyor.
2015’te Hello Barbie’de görülen mikrofon ve WiFi kaynaklı veri güvenliği kaygıları, AI oyuncaklarda daha da karmaşık hale geldi. Uzmanlar, çocukların kişisel bilgilerinin (isim, ses, görüntü, konum) risk altında olabileceğini vurguluyor. Öte yandan bu oyuncaklar, dil öğrenimi ve sosyal gelişim açısından fayda da sunuyor. Örneğin Curio’nun Grok’u doğa ve hikâye sorularını yanıtlayabilirken, Miko 3 eğitim ve eğlence programlarıyla çocuklara destek sağlıyor.
AI oyuncaklar, güvenlik önlemleri alınmazsa çocuklar için potansiyel risk taşısa da, doğru kullanımda öğrenme ve sosyalleşme aracı olarak değerlendirilebiliyor.