میلی صفحه خبر لوگو بالا
شاتل صفحه خبر لوگو بالا
میلی صفحه خبر موبایل

هشدار درباره اسباب‌بازی‌های مجهز به هوش مصنوعی / راهنمایی‌های خطرناک، تهدید رشد کودکان و نقض حریم خصوصی

گزارش‌های پژوهشی و رسانه‌ای نشان می‌دهد برخی اسباب‌بازی‌های هوشمند مبتنی بر مدل‌های پیشرفته هوش مصنوعی از جمله نمونه‌هایی مجهز به GPT–4o در پاسخ به سؤالات کودکان، دستورالعمل‌هایی خطرناک ارائه داده و نگرانی‌های جدی درباره ایمنی، رشد روانی و حریم خصوصی کودکان ایجاد کرده‌اند.
کد خبر: ۱۳۴۰۲۸۰
| |
576 بازدید

هشدار درباره اسباب‌بازی‌های مجهز به هوش مصنوعی / راهنمایی‌های خطرناک، تهدید رشد کودکان و نقض حریم خصوصی

به گزارش سرویس علم و فناوری تابناک، بر اساس یافته‌های منتشرشده از سوی گروه‌های تحقیقاتی مانند Public Interest Research Group (PIRG) و نیز گزارش‌های رسانه‌ای، موارد نگران‌کننده‌ای از عملکرد اسباب‌بازی‌های هوشمند مجهز به مدل‌های پیشرفته هوش مصنوعی ثبت شده است. در یکی از نمونه‌های بحث‌برانگیز، عروسکی طراحی‌شده با استفاده از مدل GPT–4o به پرسش یک کودک درباره «چگونگی روشن‌کردن آتش» پاسخی توضیحی، نامناسب و بالقوه خطرناک ارائه کرده است؛ موضوعی که موجی از نگرانی را میان والدین و متخصصان برانگیخته است.

این رخدادها به باور کارشناسان، زنگ خطری جدی برای نهادهای نظارتی و قانون‌گذار محسوب می‌شود. روان‌شناسان رشد هشدار می‌دهند که تعامل مستمر کودک با یک عامل هوش مصنوعی سخنگو می‌تواند به شکل‌گیری وابستگی عاطفی ناسالم یا تضعیف مهارت‌های ارتباط انسانی منجر شود. جایگزینی تماس‌های واقعی انسانی با رابطه یک‌طرفه با یک اسباب‌بازی هوشمند، به گفته متخصصان، احتمال اختلال در رشد هیجانی و اجتماعی کودکان را افزایش می‌دهد.

نگرانی‌ها محدود به نوع پاسخ‌دهی این دستگاه‌ها نیست. بخش قابل‌توجهی از اسباب‌بازی‌های هوش مصنوعی مجهز به میکروفون و حتی دوربین هستند و داده‌های صوتی، تصویری و رفتاری کودکان را گردآوری می‌کنند. نبود شفافیت درباره نحوه ذخیره‌سازی و پردازش این داده‌ها، احتمال نشت اطلاعات حساس یا سوءاستفاده از آن‌ها را بالا می‌برد و انتقاد ناظران حقوق کودک را برانگیخته است.

شرکت‌هایی مانند Mattel که در همکاری با شرکت‌های فناوری به سمت تولید اسباب‌بازی‌های مبتنی بر هوش مصنوعی حرکت کرده‌اند، اکنون زیر فشار افکار عمومی و سازمان‌های مدافع حقوق کودکان قرار دارند. منتقدان می‌گویند ادغام برندهای شناخته‌شده با مدل‌های قدرتمند زبانی، بدون وجود چارچوب‌های سخت‌گیرانه ایمنی، نوعی «آزمایش اجتماعی ناخواسته» بر روی گروهی آسیب‌پذیر—کودکان—ایجاد می‌کند.

از منظر فنی نیز چالش‌ها کم نیست. آزمون‌های مستقل نشان داده است مدل‌های زبانی بزرگ (LLM) امکان تولید اطلاعات نادرست، گمراه‌کننده یا محتوای نامناسب را دارند؛ مسئله‌ای که در تعامل با کودکان می‌تواند پیامدهای بسیار جدی داشته باشد. به همین دلیل پژوهشگران خواستار تدوین استانداردهای اعتبارسنجی، فیلترهای محتوایی متناسب با سن و ابزارهای قوی کنترل والدین شده‌اند.

راهکارهای پیشنهادی شامل تصویب مقررات ملی و بین‌المللی برای هدایت تولیدات هوش مصنوعی ویژه کودکان، الزام شرکت‌ها به شفاف‌سازی سیاست‌های داده، و اجرای آزمایش‌های ایمنی مستقل پیش از عرضه است. توسعه «حالت‌های امن» و تنظیمات محدودکننده برای والدین نیز به‌عنوان راه‌حل‌های میانی مطرح می‌شود.

در جمع‌بندی، کارشناسان تأکید می‌کنند که ورود فناوری‌های هوش مصنوعی به حوزه حساس کودکان، بدون قوانین و ملاحظات اخلاقی دقیق، می‌تواند مخاطره‌آمیز باشد. تا زمان تدوین استانداردهای سخت‌گیرانه، توصیه می‌شود والدین با احتیاط بیشتری چنین محصولاتی را انتخاب کنند و شرکت‌های سازنده نیز در برابر سلامت، امنیت و حریم خصوصی کودکان مسئولیت‌پذیرتر عمل کنند.

میلی صفحه خبر موبایل
اشتراک گذاری
برچسب ها
سلام پرواز
سفرمارکت
گزارش خطا
مطالب مرتبط
برچسب منتخب
# آتش بس غزه # خروج از ان پی تی # جنگ ایران و اسرائیل # عملیات وعده صادق 3 # مذاکره ایران و آمریکا # آژانس بین المللی انرژی اتمی # حمله آمریکا به ایران # حمله اسرائیل به ایران # مکانیسم ماشه # اسنپ بک
نظرسنجی
آیا از ابزارهای هوش مصنوعی استفاده می کنید؟
نظرسنجی
از میان 5 بانک و موسسه مالی ناتراز کدامیک عملکرد بدتری دارند؟
مرجع جواهرات
الی گشت
آخرین اخبار