بازدید 9705
۱

آشنایی با برخی از چالش‌های نظام‌های حقوقی با هوش مصنوعی

شاید تا همین ده سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا می‌توان گفت هوش مصنوعی جزیی از زندگی عادی ما است.
کد خبر: ۱۰۴۳۳۸۴
تاریخ انتشار: ۱۲ فروردين ۱۴۰۰ - ۰۷:۴۵ 01 April 2021

آشنایی با برخی از چالش‌های نظام‌های حقوقی با هوش مصنوعی

شاید تا همین ده سال پیش استفاده از هوش مصنوعی و نقش آن در زندگی عادی ما تنها محدود به مواردی محدود و بسیار فنی بود که جز اهل فن توانایی فهم آن را نداشتند اما حالا می‌توان گفت هوش مصنوعی جزیی از زندگی عادی ما است. امروز خودروهای خودران که توانمندی هدایت خودروها را بدون دخالت انسان داشته باشند، در مرز دریافت مجوز از نهادی‌های قانونگذاری است. الگوریتم‌های تحلیل گر در شرکت‌های بیمه ریسک ابتلای هر مشتری را به بیماری با استفاده از داده‌های قبلی و سبک زندگی شخص استخراج کرده و حق بیمه سودده را برای طرف مقابل محاسبه می‌کنند.

به گزارش «تابناک» نرم افزارهای امنیتی که در خدمت نهادهای امنیتی و انتظامی هستند، امکان ارتکاب و تکرار آن از سوی افراد دارای سوء سابقه را محاسبه کرده و در صورت لزوم محل حضور آنان را به مراکز مراقبتی اطلاع می‌دهند. هوش مصنوعی شاید زندگی را برای بسیاری از ما سهل‌تر کرده باشد. اما در ادامه سوالات جدی را به خصوص در حوزه قانونی و قضائی پدید می‌آورد.

به عنوان مثال هم اکنون بسیاری از ارتش‌های جهان در حال ساخت جنگنده و یا ربات‌های جنگجویی هستند که بدون کاربر و تنها با هوش مصنوعی کار کنند. آیا سپردن کنترل شلیک یک سلاح به یک یک برنامه رایانه‌ای اخلاقی است. در صورتی که این سلاح به سمت یک بیمارستان و یک پناهگاه حمله و آن را تخریب کند، مسئولیت انسانی و حقوقی این کشتار بر عهده چه کسی بود.این‌ها سوالات پیچیده‌ای است که امروز انسان به خصوص در بکار بردن هوش مصنوعی روبه رو است.برای پاسخ به سوالات فوق باید نگاهی به اساس و کاربرد بحث هوش مصنوعی و به خصوص پایه‌های آن داشت و ارتباط آن را با امور حقوقی و قانونگذاری دریافت.

*نگاهی به مفهوم هوش مصنوعی

به نوشته حامی عدالت در ابتدا باید به مفهوم تصمیم‌گیری خودکار نگاهی انداخت. منظور از تصمیم‌گیری خودکار، بخش بخش کردن یک تصمیم به مجموعه‌ای از معیارها است. تصمیم‌گیری به منزله الگوریتمی از قواعد است که از میان آلترناتیوهای از پیش تعیین شده دست به انتخاب می‌زند. بر این اساس یک ماشین هوش مصنوعی به صورت نظام مند بررسی می‌کند که آیا شرایط یک قاعده برقرار شده است یا خیر؟ اگر آن شرایط برقرار شده باشد، پس می‌توان نتیجه گرفت که آلترناتیو پیش‌بینی شده قابل به کارگیری است. نظام‌های تصمیم‌گیری خودکار درحال نزدیک شدن به فناوری‌هایی از زیرمجموعه‌های هوش مصنوعی و نظامهای اطلاعاتی هستند که کار تصمیم‌گیری را برای تصمیم گیران و خط مشی سازان تسهیل می‌کنند. در این نظامها استفاده از نیروی انسانی در فرایند اتخاذ نتیجه به حداقل رسیده و یا به طور کلی حذف می‌شود. اتخاذ تصمیم‌ها می‌تواند بهصورت تمام خودکار و بدون برقراری هرگونه تماسی ازسوی مقام‌های مسئول انجام گیرد؛ بدینصورت که شهروند می‌تواند فرایند تصمیم‌گیری را از طریق ابزارهای آغاز کند، سپس همه اطلاعات مرتبط با پرونده خود را در اختیار سیستم قرار دهد. در ادامه نتیجه‌گیری می‌شود و حاصل آن بدون هیچگونه دخالت عامل انسانی در فرایند حصول به تصمیم به شهروند منتقل شود.

دقت تصمیم‌گیری خودکار تاحدودی به میزان قابل اعتماد بودن شهروندان به هنگام ارائه اطلاعات مرتبط و متناسب با خودشان به نظام خودکار بستگی دارد و از این جنبه شبیه به اتخاذ تصمیم عامل انسانی است. اما تفاوت در این نکته نهفته است که خودکارسازی تصمیمها، بازیابی و تأیید اطلاعات را از میان پایگاههای دادهای تسهیل می‌کند که بخشهای مختلف دولت یک سیستم به صورت مشترک از آن استفاده می‌کنند.

به عنوان مثال چین بزرگترین سیستم اعتبار سنجی و دقیق‌ترین آن را به راه انداخته است. تمام اطلاعات درونی سیستم‌های دولتی از پرداخت‌های مالی و یا حتی روابط اجتماعی فرد در داخل الگوریتم‌ها جمع‌آوری شده و تبدیل به نمره‌ای برای گرفتن وام می‌شود.

نرم افزارهایی که در حال تحلیل اطلاعات و تصمیم‌گیری برای شهروندان هستند به تدریج درحال تکامل و پیچیده‌تر شدن هستند. همچنین تصمیمگیری خودکار را شهروندان رااغلب به صورت مستقیم انجام می‌دهند. شهروندان اطلاعات خود را به صورت برخط و بی‌نیاز به پر کردن فورم در اختیار این نرم افزارها قرار می‌دهند تا از نتایج آن استفاده کنند.حالا سوال اینجاست که این الگوریتم‌ها که در قالب هوش مصنوعی جمع شده‌اند چه چالش‌هایی را در مقابل یک نظام حقوقی قرار می‌دهند و اصولاً این چالش‌ها چه طور قابل حل خواهند بود.

هوش مصنوعی راه قانونگریزی را می‌بندد

یکی از مهم‌ترین چالش‌هایی که هر سیستم و نظام اداری با آن روبه رو است نفوذ فساد به خصوص در عملکرد کارمندان است. یکی از مهم‌ترین مسائلی که در مورد اتوماسیون و جایگزینی رویه‌های رایانه‌ای به جای انسان‌های است، تقویت عمل به قانون و رعایت قواعد است. هیچ کس نمی‌تواند به یک برنامه رایانه‌ای بدون نفوذ سایبری ضربه وارد کند یا با استفاده از رشوه آن را وادار به دور زدن قانون کند.

مطالعات به خوبی نشان می‌دهد که انسان‌ها در زمان تصمیم‌گیری امکان تبعیت صددرصدی از قواعد قانونی وضع شده را به هنگام تصمیم‌گیری درباره افراد دیگر ندارند. این امر دلایل مختلفی می‌تواند داشته باشد از جمله این که افراد ممکن است آگاهی کاملی از قواعد مرتبط با آن مورد خاص تصمیم‌گیری نداشته باشند یا اینکه افراد درخصوص پیش نیازها و الزام‌های آن تصمیم‌گیری دچار سوءتفاهم شده باشند؛ افراد می‌توانند در فرهنگ‌هایی با محیط اداری گوناگونی باشند که در آن قواعد حقوقی فقط عاملی از میان عوامل متعدد هم ردیف باشند.

تصمیم‌گیری خودکار در مقایسه با آنچه که انسان‌ها انجام می‌دهند، می‌تواند اجرای منسجم‌تری از قواعد رسمی مورد تأیید نظام حاکمیتی را در پی داشته باشد. خودکارسازی فرایند تصمیم‌گیری مبتنی بر به کارگیری معیارهای عینی و حذف سوگیری‌ها بوده و قطعیت حقوقی در آن به صورت پیشفرض در قالب بروز رفتار و اتخاذ تصمیم‌های یکسان در مواجه با موارد مشابه را به طور کامل رعایتم یکند. همچنین خودکارسازی تصمیم‌ها با استفاده از هوش مصنوعی به ما این اطمینان را می‌دهد که در عین اینکه به تمام عوامل مرتبط در فرایند اتخاذ تصمیم توجه شده، هیچگونه ملاحظه غیرمرتبطی مثل پرداخت رشوه یا سفارش و توصیه از جانب مقامهای مسئول در فرایند تصمیم‌گیری دخالت داده نشده است. در اینجاست که می‌توان مدعی بود حرکت به سوی خودکارسازی تصمیم‌ها، گامی بزرگ به سوی تقویت حکومت قانون در کشور است.

اما این عقیده که تصمیم‌گیری خودکار رسیدن به نتایج عاری از خطا را تضمین می‌کند، جای شک و تردید دارد. مطالعات تجربی گذشته در مقیاس کوچک، اشتباه‌هایی را از میان تصمیمهایی که ماشینها گرفته‌اند شناسایی کرده است. اگرچه بیشتر مطالعات نشان می‌دهد که استفاده از رایانه به اتخاذ تصمیم‌هایی با حاشیه خطای کمتر منجر می‌شود. درکل به لحاظ حقوق اساسی این پیشفرض که رایانه همیشه راست میگویدگزاره بسیار خطرناکی است.

مورد نگران کننده‌تر این است که درنتیجه خودکارسازی تصمیمها دیگر نیازی به سازوکارهایی برای به چالش کشیدن تصمیم‌های دولت ازسوی شهروندان نیست، ایده‌ای که بی‌شک در نزد برخی از نظام‌ها می‌تواند جذاب باشد. یکی از عناصر مهم حکومت‌های قانونی این است که همیشه باید سازوکارها و فرایندهایی را در اختیار شهروندان قرار داد تا با آنها بتوانند بدون فوت وقت و صرف هزینه، مناقشات و اختلافات خود را با دولت رفع و رجوع کنند. بعضی مواقع زمینه به چالش کشیدن یک تصمیم تنها زمانی فراهم می‌شوند که منطق اتخاذ آن تصمیم را قانون‌گذار ارائه کنند.

از طرف یکی دیگر از چالش‌ها این است که ممکن است حملاتی از سوی هکرها متوجه سیستم‌های قانونگذاری و هوش مصنوعی شده باشد. امری که اتفاقاً امروز به خوبی خود را نشان می‌دهد. مشکلات حملات سایبری این است که در بسیاری از مواقع زمانی ناظران امنیتی متوجه روی دادن اتفاقی در داخل یک سیستم رایانه شده‌اند که ممکن است ماه‌ها از زمان نفوذ گذاشته باشد. حالا اگر در اثر تصمیم‌گیری استباه هوش مصنوعی صدمات غیر قابل جبرانی اتفاق افتاده باشد چگونه می‌توان آن را حل و فصل کرد.این نکاتی است که هنوز پاسخ چندان صحیحی برای آن یافت نشده است. به نظر می‌رسد باید یکی سیتسم نظارتی ۲۴ ساعته برای ارائه گزارش و بررسی اشتباهات سیستم ایجاد کرد تا در صورت هر واقعه‌ای بتوان آن را بررسی کرد اما در آن صورت باز هم ممکن این سوال مطرح شود که چرا این سیستم ایجاد شده تا عده‌ایانشان همیشه بر آن نظارت کنند این سوالی است که باید یک پاسخ جدی برای آن یافت.

وقتی نرم افزارهای هوش مصنوعی دور زدن قانون را هم باید بگیرند

یکی دیگر از نکات حقوقی در مورد نظام‌های تصمیم‌گیری مرتبط با هوش مصنوعی مطرح است، ابتکار شخصی تصمیم گیران برای حل مشکلات در مواقع خاص است.

از پیش فرضها درباره تصمیم‌گیری خودکار این است که زمینه‌ای برای طراحی نظام‌های تصمیم‌گیری فراهم می‌کند که بیشترین تأکید آنها بر قواعد سفت و سخت است و از این طریق امکان تأثیرگذاری مقامهای تصمیمگیر را برای ارائه راهکارهای شخصی شده حذف یا به حداقل می‌رساند. رایانه‌ها تنها در محدوده الگوریتم‌هایی که برای آنها برنامه نویسی شده‌اند، قادر به فعالیت هستند.

در صورتی که تمام تصمیمات به رایانه‌ها سپرده شود آیا می‌توان اطمینان داشت که در تمام شرایط این امکان فعالیت درست آن وجود داشته باشد. فرض می‌کنیم یک ربات پلیس یک خودرو باسرعت بالا را به دلیل عدول از قانون متوقف کرده است، سوال اینجاست که بر فرض این ماشین یک زن باردار یا با فردی با خونریزی بالا را به بیمارستان می‌رساند در این حالت دیگر نمی‌توان امیدی به این داشت که ربات به ماشین اجازه طی کردن راه خود برای نجات بیمار را بدهد چرا که اساساً برای این کار برنامه ریزی نشده است.

چنین موارد نقصی را می‌توان بارها و بارها در موقعیت‌های مختلف یافت. اساساً برنامه ریزی برای هر امکانی ناممکن است. استنتاج شخصی همان چیزی است که می‌توان آن را به عنوان یک نقطه امید در این مواقع داشت. ماجرا این است که بررسی چنین مواردی نیاز به تجربیات بیشتری دارد.

تجربیاتی که شاید فقط بتوان آن را با هزینه سنگین دریافت. درهر صورت باید این را در نظر داشت که ممکن است یک نظام قانونی برای موارد خاص اجازه دور زدن قانون را به یک الگوریتم رایانه‌ای در مواقع خاص را هم بدهد. نکته‌ای که به شدت در شرایط فعلی خنده دار به نظر می‌رسد.

هوش مصنوعی تا کجا در زندگی انسان‌ها جلو خواهد رفت؟

نکته بعدی که در خصوص یک نظام حقوقی پیرامون ماشین‌ها وجود دارد، دامنه اختیارات الگوریتم‌ها یا هوش مصنوعی است. شاید کمتر کسی باشد که مشکلی با هدایت خودکار ماشین‌ها توسط رایانه‌ها و یا محاسبه مالیات وی داشته باشد اما اگر قرار باشد اختیار تیر‌اندازی به یک انسان به یک ماشین سپرده شود شاید بسیاری با این ایده دچار مشکل شوند که چنین اتفاقی توسط یک ماشین هدایت شود.

البته هم اکنون نیز برخی از تسلیحات جنگی توسط سیستم‌های رایانه‌ای هدایت می‌شوند ولی حساسیت بالایی نسبت به ورود این سیستم‌ها به زندگی عادی بشر وجود دارد. با یک نگاه کل می‌توان موارد فراوانی را یافت که نباید تصمیم‌گیری به دست یک ماشین هوشمند سپرده شود. به نظر می‌رسد اولین مورد مسائلی هستند که به حقوق اساسی انسان‌های مربوط هستند. مواردی مانند حق حیات، حق آزادی و یا حق بهره مندی از انتخاب قضاوت عادلانه که در هر سیستم حقوقی به رسمیت شناخته شده است.

در کنار این تصمیم‌گیری توسط ماشین‌های هوشمند نباید به گونه‌ای باشد که امکان قضاوت حرفه‌ای توسط انسان‌ها را محدود کند. از سوی دیگر باید به این نکته هم توجه کرد که داده‌های استخراج شده نباید به گونه‌ای باشد که تصمیمات انسان‌ها در موارد خاص را کانالیزه کند. به عنوان مثال یک سیستم هوش مصنوعی ممکن است با ارائه تحلیل‌ها و اطلاعات جهت دار سیاستمداران و یا قضات را به صدور یک حکم غیر عادلانه سوق دهند. از این رو باید امکان پیش‌بینی مناسب برای این امر فراهم شود تا برای تصمیم گیری‌های حساس امکان چک کردن داده‌ها با یک نظام انسانی فراهم شود.

نکته دیگر در خصوص ماشین‌های خودکار تصویب قوانین و آیین نامه‌هایی برای بکارگیری آن‌ها است. واقعیت این است که هم اکنون قوانین موجود نه تنها در نظام حقوقی جهان بلکه در نظام حقوقی دنیا نیز برای برخورد با مسئله هوش مصنوعی مبهم و حتی گنگ است. به عنوان مثال فرض کنیم که هوش مصنوعی ربات‌ها را برای اداره تمام شئونات زندگی ما هدایت کنند. آیا یک ربات این حق را دارد که در صورت نیاز که در صورت خراب شدن از حق تعمیر بر خوردار باشد.

در این میان یک نظر ساختار شکنانه جدی وجود دارد که نرم افزار و الگوریتم‌های هوشمند می‌توانند یه طور کامل جای قانون را بگیرند. بر اساس این نظریه انسان باید نرم افزار یا برنامه رایانه یی که قادر به تصمیم‌گیری درخصوص موارد مختلف است را به منزله قانون در نظر بگیرد و این که این نرم افزار است که رابطه قانونی میان شهروندان و دولت و مجلس را در نظام تصمیمگیری ماشینی تنظیم می‌کند و نه قوانینی که با اجماع به تصویب رسیده باشد.

البته این نظریه دچار یک مشکل اساسی که مبانی چدید آورندگان این نرم افزارها چه چیز است و این که چگونه می‌توان امکان نظارت دمکراتیک را بر آن‌ها پدید آورد. بر طبق این نظریه اساساً این نرم افزار نویسان هستند که تبدیل به قانونگذاران جامعه ما خواهند شد نه سیاستمداران که وظفیه اجرای قانون را بر عهده خواهند داشت.

حتی اگر این اتفاق روی ندهد، هم اکنون الگوریتم‌ها و هوش مصنوعی تبدیل به نوعی اجرا‌کننده قانون شده‌اند. به عنوان مثال در رویدادهای اخیر آمریکا و شورش‌های مرتبط با آن یکی از مسائلی که به شدت سبب مناقشه در بین رأی دهندگان شد حدف توییت‌ها و پست‌های طرفداران ترامپ توسط الگوریتم‌های هوش مصنوعی بود. بسیاری از طرفداران ترامپ معتقد بودند که شرکت‌های بزرگ فناوری در حال سانسور سخنان آن‌ها در فضای مجازی هستند و این مخالف قانون اساسی آمریکا است. در طرف مقابل استدلال شرکت‌های بزرگ فناوری این بود که این سانسور اساساً به وسیله الگوریتم‌های ماشینی روی می‌دهد و آنان دخالتی در این ماجرا ندارد. حالا سوال این است که کدام یک در این باره به درستی صحبت می‌کنند.

کنگره آمریکا اخیراً کمیته‌ای را برای بررسی ابعادقانونی مسائل مرتبط با هوش مصنوعی را تشکیل داده است. در اروپا نیز پارلمان اروپا در حال بررسی موارد مرتبط با این مسئله هستند از جمله این که چگونه می‌توانند مسئولیت کیفری مرتبط با خودورهای خودران را حل کنند. در آسیا نیز شورای دولتی این کشور در حال بررسی آیین نامه‌های جدیدی برای بحث‌های قانونی مرتبط با هوش مصنوعی است به خصوص این که چین سرمایه‌گذاری سنگینی را صرف توسعه این حوزه از فناوری کرده است.

به این ترتیب امروزه روند غالب در مجالس قانون‌گذاری اغلب کشورها تعیین خطوط و حرکت به نحوی است که قوانین تصویب شده به طور مستقیم همراستا و متناسب با مقتضیات نظام‌های تصمیم‌گیری ماشینی باشد. البته نگرش کشورهای مختلف متناسب با نظام سیاسی آن‌ها نیز درباره این مسئله فرق می‌کند. به عنوان مثال کشور چین به عنوان یک کشور دیکتاتوری ممکن است نظر متفاوتی درباره هوش مصنوعی و نحوه نظارت مردمی تا کشوری هم چون ایالات متحده آمریکا داشته باشد. تفاوت‌هایی که گاه ممکن است به ایجاد دو قطب متفاوت در فوانین مرتبط با بحث‌های هوش مصنوعی در دنیای آینده بیانجامد.

ایران چه خواهد کرد؟

با مروری بر موارد مطرح شده می‌توان گفت که نظام‌های حقوقی تازه در ابتدای راه مواجه با هوش مصنوعی مستقل هستند. به طور حتم هوش مصنوعی همان طور که سایر عرصه‌ها را تحت تأثیر قرار نظام‌های حقوقی در دنیا را متأثر خواهد کرد.

در شرایط فعلی هر نظام حقوقی که دراین مسیر زودتر از بقیه وارد عمل شود می‌تواند در تحت تأثیر قراردادن رویه‌های مشابه در دنیا پیشتاز باشد. مسئله که باید مد نظر متولیان نظام حقوقی در ایران نیز قرار بگیرد. به خصوص آن که ایران همواره کشوری پیشتاز در این حوزه است.

تور تابستان ۱۴۰۳
تبلیغات تابناک
اشتراک گذاری
نظرات بینندگان
غیر قابل انتشار: ۰
در انتظار بررسی: ۲
انتشار یافته: ۱
یکی از بزرگترین خطرات هوش مصنوعی علیرغم فایده های فراوان قرار گرفتن آن در دست رژیمهای توتالیتر و محدود کردن آزادی انسانها از طریق کنترل مافوق تصور اعمال آنهاست که نمونه آنرا در چین می بینیم
برچسب منتخب
# حمله به کنسولگری ایران در سوریه # جهش تولید با مشارکت مردم # اسرائیل # حمله ایران به اسرائیل