
به گزارش سرویس علم و فناوری تابناک، بر اساس یافتههای منتشرشده از سوی گروههای تحقیقاتی مانند Public Interest Research Group (PIRG) و نیز گزارشهای رسانهای، موارد نگرانکنندهای از عملکرد اسباببازیهای هوشمند مجهز به مدلهای پیشرفته هوش مصنوعی ثبت شده است. در یکی از نمونههای بحثبرانگیز، عروسکی طراحیشده با استفاده از مدل GPT–4o به پرسش یک کودک درباره «چگونگی روشنکردن آتش» پاسخی توضیحی، نامناسب و بالقوه خطرناک ارائه کرده است؛ موضوعی که موجی از نگرانی را میان والدین و متخصصان برانگیخته است.
این رخدادها به باور کارشناسان، زنگ خطری جدی برای نهادهای نظارتی و قانونگذار محسوب میشود. روانشناسان رشد هشدار میدهند که تعامل مستمر کودک با یک عامل هوش مصنوعی سخنگو میتواند به شکلگیری وابستگی عاطفی ناسالم یا تضعیف مهارتهای ارتباط انسانی منجر شود. جایگزینی تماسهای واقعی انسانی با رابطه یکطرفه با یک اسباببازی هوشمند، به گفته متخصصان، احتمال اختلال در رشد هیجانی و اجتماعی کودکان را افزایش میدهد.
نگرانیها محدود به نوع پاسخدهی این دستگاهها نیست. بخش قابلتوجهی از اسباببازیهای هوش مصنوعی مجهز به میکروفون و حتی دوربین هستند و دادههای صوتی، تصویری و رفتاری کودکان را گردآوری میکنند. نبود شفافیت درباره نحوه ذخیرهسازی و پردازش این دادهها، احتمال نشت اطلاعات حساس یا سوءاستفاده از آنها را بالا میبرد و انتقاد ناظران حقوق کودک را برانگیخته است.
شرکتهایی مانند Mattel که در همکاری با شرکتهای فناوری به سمت تولید اسباببازیهای مبتنی بر هوش مصنوعی حرکت کردهاند، اکنون زیر فشار افکار عمومی و سازمانهای مدافع حقوق کودکان قرار دارند. منتقدان میگویند ادغام برندهای شناختهشده با مدلهای قدرتمند زبانی، بدون وجود چارچوبهای سختگیرانه ایمنی، نوعی «آزمایش اجتماعی ناخواسته» بر روی گروهی آسیبپذیر—کودکان—ایجاد میکند.
از منظر فنی نیز چالشها کم نیست. آزمونهای مستقل نشان داده است مدلهای زبانی بزرگ (LLM) امکان تولید اطلاعات نادرست، گمراهکننده یا محتوای نامناسب را دارند؛ مسئلهای که در تعامل با کودکان میتواند پیامدهای بسیار جدی داشته باشد. به همین دلیل پژوهشگران خواستار تدوین استانداردهای اعتبارسنجی، فیلترهای محتوایی متناسب با سن و ابزارهای قوی کنترل والدین شدهاند.
راهکارهای پیشنهادی شامل تصویب مقررات ملی و بینالمللی برای هدایت تولیدات هوش مصنوعی ویژه کودکان، الزام شرکتها به شفافسازی سیاستهای داده، و اجرای آزمایشهای ایمنی مستقل پیش از عرضه است. توسعه «حالتهای امن» و تنظیمات محدودکننده برای والدین نیز بهعنوان راهحلهای میانی مطرح میشود.
در جمعبندی، کارشناسان تأکید میکنند که ورود فناوریهای هوش مصنوعی به حوزه حساس کودکان، بدون قوانین و ملاحظات اخلاقی دقیق، میتواند مخاطرهآمیز باشد. تا زمان تدوین استانداردهای سختگیرانه، توصیه میشود والدین با احتیاط بیشتری چنین محصولاتی را انتخاب کنند و شرکتهای سازنده نیز در برابر سلامت، امنیت و حریم خصوصی کودکان مسئولیتپذیرتر عمل کنند.