
به گزارش سرویس علم و فناوری تابناک، در تاریخ ۲۸ فوریه ۲۰۲۵، خبرگزاری رویترز گزارش داد که یوروپل طی یک عملیات گسترده بینالمللی ۲۵ نفر را به اتهام تولید و توزیع تصاویر سوءاستفاده جنسی از کودکان که توسط هوش مصنوعی خلق شده بود بازداشت کرده است. بنا بر اطلاعیه رسمی یوروپل، نیروهایی از ۱۹ کشور در این عملیات مشارکت داشتند؛ رخدادی که نشان میدهد تهدید محتوای تولیدشده توسط هوش مصنوعی دیگر صرفاً یک موضوع فناورانه نیست، بلکه به یک چالش جدی امنیتی تبدیل شده است.
این عملیات نقطه عطفی در درک جهانی از تهدیدی نوظهور به شمار میرود؛ تهدیدی که در آن محتوایی کاملاً ساختگی اما از نظر بصری و فنی پیچیده، میتواند در گستره شبکههای اجتماعی منتشر شود و تشخیص آن برای عموم دشوار باشد.
پیشتر، اینترپل در ژوئن ۲۰۲۴ با انتشار گزارشی با عنوان «فراتر از توهمات» نسبت به نقش جدید رسانههای مصنوعی در ارتکاب جرایم سازمانیافته هشدار داده بود. در این سند تأکید شده است که فناوریهای مولد میتوانند روند تشخیص اصالت شواهد را با چالش جدی مواجه کنند و زمینهساز جرایمی پیچیده شوند.
در ایالات متحده نیز وزارت امنیت داخلی در ژانویه ۲۰۲۵ گزارشی درباره تهدید سوءاستفاده خصمانه از مدلهای مولد منتشر کرد. در این تحلیل آمده است که مجرمان سازمانیافته میتوانند از هوش مصنوعی برای جعل اسناد هویتی، پولشویی، قاچاق انسان و حتی شبیهسازی صدا و چهره استفاده کنند.
کاربردهای مجرمانه هوش مصنوعی سالهاست نگرانیزا شده است. در سال ۲۰۱۹، فوربس گزارش داد که مدیرعامل یک شرکت با تماس تلفنی روبهرو شد که صدای مدیر ارشد مالی شرکت را تقلید میکرد؛ درحالیکه این صدا کاملاً با هوش مصنوعی تولید شده بود. نتیجه این فریب، انتقال ۲۴۳ هزار دلار مالی بود.
در پروندهای دیگر، گاردین در فوریه ۲۰۲۴ گزارش داد که در هنگکنگ مدیران یک شرکت فریب تماس ویدئویی کاملاً تولیدشده توسط هوش مصنوعی را خوردند و مبلغ ۲۰ میلیون پوند را انتقال دادند؛ نمونهای که نشان میدهد فناوریهای مولد میتوانند در سطح سازمانی نیز به ابزار سرقتهای کلان تبدیل شوند.
بازداشت فردی در چین در مه ۲۰۲۳ به دلیل انتشار اخبار جعلی تولیدشده با چتجیپیتی درباره حادثهای که هرگز رخ نداده بود، یکی از نخستین موارد برخورد قضایی با سوءاستفاده از این فناوری بود. این پرونده نشان داد که مدلهای مولد میتوانند به سرعت به ابزار ایجاد هرجومرج اطلاعاتی و انتشار اخبار نادرست تبدیل شوند.
مدلهای مولد از ساختارهایی مانند ترنسفورمر و شبکههای مولد رقابتی بهره میبرند؛ سازوکارهایی که ایجاد تصاویر، ویدئوها و صداهای شبهواقعی را با دقتی باورپذیر ممکن میکنند. این قابلیتها در جعل صدا، تولید ویدئوهای دیپفیک و ساخت اسناد رسمی دستکاریشده به کار گرفته میشوند.
پیشرفت سریع این فناوریها باعث ایجاد چالشهایی جدی برای دادگاهها و نهادهای قضایی شده است؛ بهویژه با گسترش پدیدهای به نام «سود دروغگو» که طی آن متهمان میتوانند اعتبار شواهد واقعی را با ادعای جعلی بودن زیر سؤال ببرند.
پیچیدگی جرایم مبتنی بر رسانههای مصنوعی تنها به خسارتهای مالی محدود نمیشود. جعل صدا یا تصویر میتواند آسیبهای روانی و اخلاقی ایجاد کند، اعتماد سازمانی را تضعیف کند و سطح اطمینان عمومی به رسانهها و شواهد دیجیتال را بهشدت کاهش دهد.
برای مقابله مؤثر با این تهدید، یک رویکرد چندسطحی ضروری است:
تقویت توان فنی و تخصصی نیروهای انتظامی
توسعه ابزارهای تشخیص محتوای مصنوعی با همکاری دانشگاهها و بخش خصوصی
تصویب قوانین ملی و بینالمللی برای جرمانگاری محتوای سوءاستفادهآمیز تولیدشده با هوش مصنوعی
ارتقای همکاری پلیس بینالملل و دادگستریها
ایجاد مکانیزمهای ایمنی و شفافیت در پلتفرمهای تولید هوش مصنوعی
افزایش آگاهی عمومی نیز نقش مهمی در مقابله با این تهدید دارد؛ از جمله آموزش درباره شناسایی محتواهای جعلی و هشدار درباره خطرات ارتباطات دیجیتال.
در نهایت، دستگیریهای یوروپل و هشدارهای نهادهای بینالمللی پیام روشنی به همراه دارد: بدون واکنش سریع و هماهنگ جهانی، هوش مصنوعی مولد میتواند به یکی از خطرناکترین ابزارهای جرایم سازمانیافته بدل شود.