جرایم اینترنتی

ابعاد حقوقی و کیفری هوش مصنوعی: صفر تا صد

در این مقاله به توضیح و تفسیر مسئولیت کیفری هوش مصنوعی و نقش هوش مصنوعی در دادن لوایح کیفری و ابعاد حقوقی و کیفری آن خواهیم پرداخت.

شما با خواندن این مقاله به ابعاد جامعی از وضعیت حقوقی و کیفری هوش مصنوعی در نظام حقوقی ایران می‌رسید که می‌توانید این نکات را به ویژه در قراردادهای خود لحاظ کنید و با آگاهی کامل به دنبال احقاق حقوق تضییع شده خود در برابر هوش مصنوعی برسید.

با من همراه باشید.

مفاهیم اولیه حوزه حقوقی هوش مصنوعی

در این فصل به بررسی مفاهیم اولیه درباره تعریف هوش مصنوعی، پیشینه پرونده‌های مربوط به هوش مصنوعی و نقش آن در حقوق جزا خواهیم پرداخت.

مفاهیم اولیه حوزه حقوقی هوش مصنوعی

هوش مصنوعی چیست؟

در گذشته، این پرسش ارتباطی به حقوق دانان نداشت، اما اکنون اهمیت زیادی یافته است. به زبان ساده، هوش مصنوعی به هر برنامه سخت‌افزاری یا نرم‌افزاری گفته می‌شود که رفتاری هوشمندانه نشان دهد. تعریف دیگر آن توانایی رایانه یا ربات در انجام کارهایی است که معمولاً به موجودات هوشمند نسبت داده می‌شود.

به طور کلی، هوش مصنوعی شامل توسعه و طراحی سیستم‌هایی است که قادر به فکر کردن، کشف کردن، نتیجه‌گیری و یادگیری از تجربیات گذشته هستند. برنامه‌های هوشمند امروزی می‌توانند با آزمون و خطا یاد بگیرند، استدلال کنند، معماها را حل کنند و محیط خود را درک کنند. این قابلیت‌ها اگرچه محدود هستند، اما به سرعت در حال پیشرفت و پیچیده‌تر شدن می‌باشند.

گروه تخصصی کمیسیون اروپا هوش مصنوعی را چنین تعریف کرده است:

«سیستم‌های هوش مصنوعی، سیستم نرم‌افزارها و حتی گاها سخت‌افزارهایی هستند که توسط انسان‌ها طراحی شده‌اند تا در صورتی‌ که یک تکلیف پیچیده به عهده ی آنان قرار می‌گیرد آنان به‌ صورت فیزیکی یا در ابعاد دیجیتالی با درک محیط اطراف خود از طریق به دست آوردن داده‌ها و تحلیل و تفسیر داده‌ها با تجزیه و تحلیل اطلاعاتی که از این داده‌ها به دست آورده‌اند عمل کنند و برای انجام دادن بهترین عمل با هدف انجام دادن تکلیف اولیه تصمیم بگیرند. سیستم‌های هوش مصنوعی می‌توانند قواعد نمادین یا مدل‌های اعدادی را یاد بگیرند، آن‌ها همچنین می‌توانند رفتار خود را براساس تحلیل تاثیر اعمال قبلی خود بر محیط وفق دهند.»

در نهایت اینکه، تعریف یکسان و واحدی از هوش مصنوعی وجود ندارد، چرا که با پیشرفت علم و گسترش این حوزه، این تعاریف مدام در حال تغییرند. یادگیری ماشین یکی از زیرشاخه‌های هوش مصنوعی است که به پیشرفت آن کمک بسیاری کرده است.

پیشینه نیاز به اجرای قانون هنگام استفاده از هوش مصنوعی

در سال ۲۰۱۸ خانم میان‌سالی درحال رکاب زدن با دوچرخه‌اش در خیابانی در یکی از ایالت‌های آمریکا به‌نام آریزونا با یکی از خودروهای شرکت اوبر که در حال حرکت آزمایشی بود برخورد کرد و کشته شد در پی این تصادف شرکت اوبر و خانواده متوفی برای حل اختلاف و جبران خسارت وارده به توافق رسیدند و کارشان به شکایت و دادگاه نرسید.

درحال‌حاضر ساخت اولیه خودروهای خودران با پیشرفت تکنولوژی هوش مصنوعی و ابر داده‌ها میسر شده‌است. اما خودروهایی که به‌طور کامل خودران باشند هنوز وارد عرصه بازار نشده‌اند. مثلا در آمریکا فقط در برخی از ایالت‌ها اجازه استفاده از این تکنولوژی به‌صورت محدود وجود دارد.

در ایران نیز در سال سال ۱۳۹۶ متخصصان شرکت دانش بنیان صنعت و فناوری هوشمند خلیج فارس موفق به تولید خودروی ایرانی بدون راننده شدند، هرچند هنوز به مرحله استفاده عموم نرسیده است.

اما در آینده نزدیک و با استفاده بیشتر از خودروهای خودران، تصادفات این خودروها و درنتیجه سؤالات و چالش‌های حقوقی به وجود خواهد آمد.

استفاده از هوش مصنوعی در حقوق

امروزه پیشرفت‌های مربوط به هوش مصنوعی با استفاده از داده‌ها و الگوریتم ها در اجرای عدالت از جمله عدالت کیفری نیز حضور یافته و بسیاری از کشورهای مدرن دنیا در برخی از فرآیندهای دادرسی و کیفری از این سیستم استفاده میکنند. این مسئله باعث ایجاد تحولی بنیادین در عدالت کیفری خواهد شد.

هم اکنون هوش مصنوعی در آمریکا حتی در حوزه حوزه حقوق جزا هم راه یافته است. مثلا برای اجازه‌ صدور قرار آزادی موقت یا قرار بازداشت، با به‌کارگیری برخی نرم‌افزارها میزان ریسک بروز مجدد جرم توسط مجرم را مورد بررسی قرار می‌دهد، سپس به بازداشت یا آزادی فرد اقدام می‌کند.

نمونه‌های به کار گیری هوش مصنوعی نیازمند تدوین قوانین جزائی

در حال حاضر دو نمونه از بکارگیری هوش مصنوعی در زندگی وجود دارد که احتمالا نیاز به پدید آوردن مجموعه قوانین حقوقی در آن وجود دارد. درست مانند قوانینی که در زمینه جرایم رایانه‌ای نگاشته شد.

استفاده از خودروهای خودران

خودروهای خودران از تکنولوژی یادگیری ماشین بهره می‌برند، که به ۶ سطح از بدون اتوماسیون تا خودروهای کاملا خودران تقسیم می‌شود.

این تکنولوژی شامل هوش مصنوعی پیشرفته است که داده‌ها را از سنسورهای خودرو به شبکه‌های عصبی منتقل می‌کند. این خودروها بر اساس داده‌ها دستورالعمل‌هایی برای راه‌اندازی، ترمز و سایر سیستم‌ها ارائه می‌دهند، با هدف انطباق عمل‌ها به رفتار انسان راننده.

این فناوری به اندازه‌ای پیچیده است که درک رفتارهای غیر معمول مانند رد کردن چراغ قرمز برای طراحان آن چالش بزرگی ایجاد می‌کند.

در ایالات متحده، قوانین فدرال برای استفاده از خودروهای خودران هنوز تصویب نشده است، با این حال برخی ایالت‌ها مانند کالیفرنیا از آن‌ها استفاده مجاز می‌کنند، در حالی که ایالت‌های دیگر مانند نیویورک این استفاده را فقط در صورت همراهی انسان تایید می‌کنند.

در ایران، هنوز قانونی برای استفاده از خودروهای خودران تصویب نشده است، با این وجود پس از آزمایش موفق خودروی خودران ایرانی، استفاده از آنها توسط پلیس تردد ممنوع اعلام شده است، حتی به صورت موقت و مشروط.

استفاده از  هوش مصنوعی در پزشکی

استفاده از ابرداده‌ها و هوش مصنوعی در حرفه پزشکی، به‌ویژه برای تشخیص بیماری، به‌ عنوان “جعبه سیاه” شناخته می‌شود. این روش‌ها با مدل‌های کامپیوتری تشخیص بیماری می‌دهند که فرایند رسیدن به نتیجه در آن‌ها نامعلوم است. هوش مصنوعی و یادگیری ماشین در تشخیص بیماری و ارائه خدمات به بیماران کمک زیادی کرده‌اند.

به عنوان مثال، اپلیکیشن‌های گوشی‌های هوشمند می‌توانند سرطان پوست را تشخیص دهند یا سیستم‌های مانیتور سالمندان زمان احتمال افتادن آن‌ها را پیش‌بینی کنند.

این تکنولوژی مورد توجه قانون‌گذاران بهداشت و درمان آمریکا قرار گرفته، اما هنوز قانون الزام‌آوری در این زمینه وجود ندارد. همچنین، استفاده از هوش مصنوعی در پزشکی ممکن است منجر به خسارات و مسئولیت‌های مدنی شود.

هوش مصنوعی و چالش مسئولیت مدنی مبتنی بر تقصیر

هوش مصنوعی احتمالا با چالش‌های متعدی در قوانین ایران مواجه خواهد شد که در ادامه بررسی می‌شود:

هوش مصنوعی و چالش مسئولیت مدنی مبتنی بر تقصیر

مبانی مسئولیت مدنی در حقوق ایران

در حقوق ایران مباحث مسئولیت مدنی محدود به قانون مسئولیت مدنی مصوب ۱۳۳۹ نیست و قوانین دیگری نیز به‌ طور پراکنده به مباحث مرتبط با مسئولیت مدنی پرداخته‌اند.

این قوانین و قواعد عمومی مسئولیت مدنی را به ۳ عنصر تقسیم کرده‌اند:

وجود ضرر

همان‌طور که می‌دانیم در حقوق ایران ضرری قابل جبران است که «مسلم باشد نه احتمالی، مستقیم باشد، شخصی باشد، ناشی از لطمه‌ای باشد که به‌حق شخص یا نفع مشروع او وارد شده‌است، قبلا جبران نشده باشد و قابل‌پیش‌بینی باشد.» در هوش مصنوعی پیش‌بینی ضرر با چالش‌هایی روبه‌رو است.

برای مثال اگر پزشکی برای تشخیص بیماری از دستگاهی استفاده کند که نمی‌داند درست پیش‌بینی می‌کند یا خیر، در صورت ایجاد ضرر به فرد، می‌توان آن را اثبات کرد؟

بهتر است در نظر بگیریم که به‌کارگیری هوش مصنوعی به‌خاطر این است که این تکنولوژی می‌تواند از تحلیل‌های انسان فراتر برود و با پردازشی قوی‌تر و هوشمندانه به نتیجه‌ای برای کاربری خاصی برسد.

در سوال مطرح‌شده ممکن است سازنده دستگاه مدعی شود که پزشک عادی هم توانایی ایجاد تردید در پروسه دستگاه را ندارد زیرا دستگاه حجم داده‌هایی را بررسی کرده که در توان یک پزشک عادی نبوده است.

با ناآگاهی از روندی که دستگاه طی کرده چگونه می‌توان ثابت کرد که دستگاه پیش‌بینی اشتباهی ارائه داده است؟ هر چند به‌نظر می‌رسد که با تکیه بر روش‌هایی از یادگیری ماشین که الگوریتم آن قابلیت بررسی است بتوان برخی از این مشکلات را حل کرد.

در بحث خودروهای خودران نیز پرسش پیش‌بینی ضرر قابل طرح است و با وجود قانون بیمه اجباری خسارات واردشده به شخص ثالث در اثر حوادث ناشی از وسایل نقلیه مصوب اردیبهشت ۱۳۹۵ از جبران خسارت اطمینان حاصل آمده‌است.

همچنین تصویب قانون جدید و گسترش دایره حوادثی که قابلیت جبران خسارت دارند و اضافه شدن لفظ (حوادث غیرمترقبه) می‌توان خیلی از حوادث و ضررهای وارده را مشمول تعریف قانون جدید دانست.

ارتکاب فعل زیان بار تقصیر

در ایران به‌طورکلی مسئولیت مبتنی بر تقصیر است و مسئولیتی که مبتنی بر تقصیر نباشد جنبه مباری دارد. در مسئولیت مبتنی بر تقصیر لازم است تا فعل زیان‌بار تقصیر محسوب شود. در زمینه مسئولیت مدنی مبتنی بر استفاده از هوش مصنوعی عوامل مختلفی دخالت دارند. چالش دیگر، معیار تشخیص تقصیر است.

برای مثال پزشکی که برابر با عرف جامعه پزشکی برای تشخیص بیماری از هوش مصنوعی استفاده کرده را می‌توان مقصر دانست؟ در ماده ۳۱۹ قانون مجازات اسلامی منسوخ در سال ۱۳۷۰ تقصیر شرط ضمان پزشک نبود. اما قانون جدید در ماده ۴۹۵ تقصیر را یکی از شروط مسئولیت پزشک دانسته است.

به‌ نظر برخی از حقوقدانان طبق قانون جدید مجازات اسلامی «به‌کارگیری هر روش درمانی جدید برای اولین‌بار، خطرات پیش‌بینی ‌نشده‌ای به‌همراه دارد و این خطر بیش ‌از میزان متعارف در دوران عادی است، لذا قرار دادن بیمار در یک وضعیت پرمخاطره به‌خودی‌خود تقصیر محسوب می شود. لذا اگر پزشک بخواهد روش درمانی جدید را برای درمان به‌کار گیرد باید به بیمار اطلاع دهد که قصد استفاده از روش جدیدی را دارد و رضایت و یا برائت اخذ نماید».

لیکن باید بدانیم با گذشت زمان، استفاده از این تکنولوژی همانند دیگر تکنولوژی‌ها عادی خواهد شد و چیزی که حائز اهمیت است، معیار عرفی در طول زمان میباشد؛ و این معیار عرفی در سایر شرایطی که از هوش مصنوعی در امری استفاده می‌شود، قابل‌انطباق است.

رابطه سببیت

زمانی‌ که انسان از ماشین استفاده می‌کند و نظام حقوقی انسان را مسئول جبران خسارت می‌داند اثبات رابطه سببیت مانند هر حادثه دیگری می‌باشد. اما گاها امکان دارد نظام حقوقی یا فردی که از ماشینی استفاده کرده ‌است و منجر به ضرر شده‌، بخواهد ماشین مبتنی بر هوش مصنوعی را مسئول بداند.

در این مورد آیا می‌توان به‌جای انسان، ماشین یا ربات را مسئول بدانیم؟ همانطوری‌که قبلا گفته شد هوش مصنوعی یک انتخاب بر مبنای علیت نیست بلکه انتخابی بر مبنای داده‌های موجود است، فی‌الواقع رابطه سببیت و چرایی وجود ندارد.

راه‌حل‌های پیشنهادی برای چالش‌های مسئولیت مدنی هوش مصنوعی در ایران

مواردی وجود دارد که می‌توان از آن به عنوان راه‌حل‌های پیشنهادی برای مواجهه با چالش‌های مسئولیت مدنی هوش مصنوعی استفاده کرد:

نظریه مسئولیت محض

بعضی از حقوق‌دانان معتقدند با توجه به عدم امکان اثبات برخی از عناصر مسئولیت مدنی می‌توان با استفاده از مسئولیت محض به جبران خسارت زیان‌دیده اقدام کرد.

در این شرایط نیازی به اثبات تقصیر نیست و به صرف وقوع حادثه، ایجاد کننده مسئول جبران خسارت است. در واقع مسئولیت مبتنی بر نظریه ایجاد خطر است.

در ایران قانون حمایت از مصرف‌کنندگان خودرو بر مبنای مسئولیت محض تدوین شده‌ و در ماده ۳ بدون نیاز به تقصیر، مسئولیت محض بر عهده‌ عرضه‌کننده خودرو قرار گرفته است.

استفاده از بیمه اجباری

یکی از راه‌حل‌ها برای جبران خسارت، اجباری کردن بیمه جبران خسارت برای همه کالاها و نرم‌افزارهایی است که بر مبنای یادگیری ماشین عمل می‌کنند. با این ترفند تولیدکنندگان نرم‌افزارها و سخت‌افزارها از جبران خسارت مصون می شوند.

چراکه مسئولیت محض می‌تواند موجب ایجاد هراس ناشی از مسئولیت برای مهندسان و مخترعان شود و از پیشرفت در این زمینه بازمانیم. اما با وجود بیمه اجباری، این ترس هم مرتفع می‌گردد.

مسئولیت نیابتی

با استفاده از مسئولیت نیابتی می‌توان شرکت یا طراح رباتی را مسئول دانست که موجب ایجاد ضرر می‌شود. البته این مسئله با آنچه در ایران آنچه به‌ عنوان مسئولیت نیابتی مطرح‌ شده در ماده ۵۱۹ قانون مجازات اسلامی در ارتباط با ریزش دیوار و بنا، بنده متفاوت است. در این بحث مسئولیت مدنظر آن است که در آمریکا رایج میباشد.

نایب به‌ خاطر وجود یک رابطه، مسئول ضرری است که به دیگری وارد کرده‌است. حتی اگر خود هیچ ضرری مرتکب نشده باشد. بر این اساس، مسئولیت یک شرکت طراحی ماشین یا طراح برنامه‌ ای مبتنی بر مبنای هوش مصنوعی، مشکل احتمالی ایجاد وقفه در توسعه و پیشرفت علم را دربردارد که به‌هیچ‌وجه مناسب برای تشویق دانشمندان نیست.

استفاده از هوش مصنوعی برای امور قضایی

یکی از مواردی که پیرامون هوش مصنوعی مطرح می‌شود، استفاده از آن در امور قضایی است. در حال حاضر برخی کشورها مانند آمریکا، از هوش مصنوعی در امور قضایی و کیفری استفاده می‌کنند.

استفاده از هوش مصنوعی برای امور قضایی

در این بخش به بررسی شخصیت هوش مصنوعی و امکان استفاده از آن در قضاوت و اجرای عدالت خواهیم پرداخت.

شخصیت حقوقی هوش مصنوعی

اکثریت بر این نظرند که بهتر است برای هوش مصنوعی شخصیت حقوقی قائل شویم، همچنان‌که برای مسئولیت شرکت‌ها نیز از شخصیت حقوقی استفاده می‌شود.

بدین ترتیب در صورت بروز خسارت، شخص حقوقی هوش مصنوعی خوانده دعوا قرار می‌گیرد. در ایران نیز بعضی حوزه‌های مسئولیت کیفری خودروهای خودران به امکان‌سنجی این فرد پرداخته‌اند.

هوش مصنوعی و قابلیت صدور حکم کیفری

اصولا حضور فناوری هوش مصنوعی در سایر مراحل دادرسی کیفری مناقشه کمتری را به‌ همراه دارد. برای مثال در مراحل کشف و تعقیب جرایم، به‌ کار گرفتن هوش مصنوعی به شرط در نظر گرفتن حریم خصوصی افراد و با رعایت فرض برائت، قابلیت اجرا دارد.

یا در مرحله تحقیقات مقدماتی یا قرارهای تامین کیفری، مقام قضایی به‌دنبال پیش‌بینی این مهم است که آیا متهم در زمان تعیین‌ شده در مرجع قضایی حضور پیدا می‌کند؟! یا در فرض آزادی آیا مرتکب جرم دیگری خواهد شد؟ دراین‌صورت اگر متهم با ریسک عدم حضور یا بروز خطر برای جامعه شناخته شود، قاضی دستور بازداشت خواهد داد و متهم کم ریسک تا قبل‌از شروع دادرسی آزاد است.

به‌ همین دلیل اشکال ندارد که روند تصمیم‌گیری قضایی با کمک نرم‌افزارهای ارزیابی هوش مصنوعی تقویت شود. اما بحث صدور حکم متفاوت از این مباحث است. چراکه به ملاحظات خیلی بیشتری نیاز دارد و قدم‌ها در این مبحث باید با آهستگی بسیار برداشته شود. زیرا اشتباه در تعیین مجازات، کل سیستم عدالت کیفری و امنیت جامعه را زیر سوال می برد و تهدید جدی می‌کند.

هر چند برخی از دانشمندان به‌جهت تسریع در امر رسیدگی و صدور حکم اذعان داشته‌اند: «هیچ پروتکلی برای تصمیمات قضات وجود ندارد، اطلاعاتی که آن‌ها در اختیار دارند جزئیات جرم فعلی و سابقه‌ ی قبلی، سن، خانواده، وضعیت شغلی، سابقه تحصیلی و ظاهر مجرم است.»

توصیف جنبه‌های مورد ایراد این پروسه واقعا سخت می‌باشد. مضاف بر آن‌که این مشاهده‌ اخیر با داده‌های تجربی ثابت می‌شود. قضات انسانی در پیش‌بینی‌های تکراری خود به اندازه‌ پرتاب کردن یک سکه دقیق هستند! آن‌ها همچنین معمولا سوگیری ناخودآگاه خود را در تصمیم‌گیری در مورد مجازات نشان می‌دهند و علاوه‌بر این هیچ مکانیزمی برای مهار آن وجود ندارد.

در مقابل دیدگاه اشاره‌شده منتقدان اعتقاد دارند که تصمیم‌گیری خودکار در نظام عدالت چه کیفری به ۳ دلیل اصلی غیرممکن یا ناعادلانه است:

  • الگوریتم‌هایی که این سیستم براساس آن بنا شده‌اند ناقص هستند.
  • سیستم یادگیری ماشین بر داده‌هایی متکی هستند که به‌طور اجتناب‌ناپذیری تبعیض را رمزگذاری می‌کنند.
  • سیستم‌های یادگیری ماشین جعبه‌های سیاهی هستند که قابلیت پاسخ‌گویی ندارند.

با این توصیف به‌دلیل اختلافات زیاد موجود در این حوزه، معمولا کشورها تمایلی به به‌ کار گیری از این فناوری ندارند.

به‌ همین دلیل است که برخلاف ایالت متحده، خیلی از کشورها مثل استرالیا و ایران تصمیم‌گیری درباره مجازات و صدور حکم به صلاحدید قاضی است و از هوش مصنوعی در صدور حکم استفاده نمی‌کنند.

ساز و کار تعیین کیفر از طریق هوش مصنوعی

۳ رویکرد اصلی در خصوص از هوش مصنوعی در تعیین کیفر قابل بررسی است.

  • رویکرد اول: جایگزینی کامل هوش مصنوعی با سیستم قضایی. سیستم به‌طور مستقل با وارد کردن اطلاعات، حکم صادر می‌کند و نیازی به تشکیل جلسه نیست.
  • رویکرد دوم: مشابه رویکرد اول، اما طرفین دعوا حق انتخاب بین حکم هوش مصنوعی و قاضی را دارند و رضایت هر دو طرف برای استفاده از هوش مصنوعی لازم است.
  • رویکرد سوم: استفاده از هوش مصنوعی به‌عنوان راهنما برای قضات. قاضی از توصیه‌های رایانه برای صدور احکام منسجم و اصولی بهره می‌برد.

رویکرد اول برای اکثریت مردم قابل‌ قبول نیست. رویکرد دوم نگران‌کننده است زیرا هوش مصنوعی به گزینه پیش‌فرض تبدیل می‌شود و ممکن است به نابرابری و تعارض بین حکم قضایی و هوش مصنوعی منجر شود. اما   رویکرد سوم قابل‌قبول‌تر است زیرا قضات برای راهنمایی از آن استفاده می‌کنند.

هوش مصنوعی و تعیین کیفر؛ تصمیم‌گیری یا تصمیم‌سازی

آیا هوش مصنوعی می‌تواند در رابطه با مباحث کیفری نقش داشته باشد؟ آیا می‌تواند امر مهم قضاوت را به ربات‌ها و الگوریتم‌ها سپرد؟ برخی از حقوقدان‌ها موافق با این امر هستند و معتقدند به‌ طور کلی ملاحظاتی که بر احتمال ارتکاب مجدد اثر می‌گذارد مبتنی با واقعیت است و بر موضوعات ذهنی مانند رفتاری و عاطفه تکیه نمی‌کنند.

بنابراین از نظر تئوری آن واقعیت‌ها می‌بایست توسط یک الگوریتم مبتنی بر داده ثبت شود. از منظر مقایسه‌ای درحالی‌که عوامل مؤثر بر جرم کیفری بسیار متعدد و پیچیده هستند اما نسبت ‌به مسائل مربوط به امور بیمه‌ای مانند بیمه عمر ملاحظات کمتری وجود دارد.

لذا در مقام مقایسه می‌توان گفت همان‌گونه که «هیچ شرکت بیمه‌ای اجازه نمی‌دهد که حق بیمه و براساس قضاوت انسان تعیین شود، در مورد مجازات نیز رویکرد صحیح می‌تواند این باشد.

به‌ همین دلیل ما پیشنهاد می‌کنیم که هیچ سیستم حقوقی آگاهانه‌ای نباید اجازه دهد که خطر تکرار جرم صرفا توسط قضات تعیین شود و می‌توان چنین استدلال نمود که از رایانه‌ها باید در تصمیم‌گیری‌های مربوط به مجازات وثیقه و آزادی مشروط استفاده شود.

برخی دیگر نیز اذعان داشته‌اند که تصمیم‌گیری و تعیین مجازات از طریق هوش مصنوعی با مشکل روزهای تعطیل و احساسات و مشکلات شخصی روبه‌رو نیست و می‌توان اطمینان داشت در جرایم مشابه بر روی افراد مختلف مجازات مشابه صادر شده‌است.

صرف‌نظر از اعمال سلایق فردی قضات یا اعمال تبعیض‌ها فی الواقع تصمیمات سریع‌تر و مؤثرتر صادر می‌شود. فلذا فاصله زمان دستگیری مجرم تا اعمال مجازات تقلیل می‌یابد و پیامدهای نامطلوب تاخیر صدور یا اجرای مجازات و کاهش کارایی کیفرها را کاهش می‌دهد.

با وجود جنبه‌های مثبت هوش مصنوعی، نمی‌توان از چالش‌های آن چشم‌پوشی کرد. برای مثال، هوش مصنوعی نمی‌تواند عنصر روانی متهم را شناسایی و بر مبنای آن مسئولیت کیفری تعیین کند؛ چرا که تعیین مسئولیت کیفری نیاز به تخصص انسانی دارد. با این حال، هوش مصنوعی می‌تواند به‌ عنوان یک کمک‌رسان در سیستم عدالت کیفری حضور داشته باشد.

سیستم عدالت کیفری نیز باید مانند سایر علوم از این فناوری بهره‌مند شود، اما همیشه در کنار نیروی انسانی، زیرا هوش مصنوعی نمی‌تواند به‌ طور کامل جایگزین انسان شود.

هوش مصنوعی در مجموعه های حقوقی امروزی

در حال حاضر بیشتر کشورهای دنیا به حضور هوش مصنوعی در زندگی انسان امروزی توجه نشان داده و سعی کرده‌اند قوانینی پیرامون آن وضع کند.

هوش مصنوعی در مجموعه های حقوقی امروزی 

در این بخش به بررسی جایگاه هوش مصنوعی در مجموعه‌های حقوقی امروزی خواهیم پرداخت.

ماهیت و مبنای مسئولیت هوش مصنوعی در حقوق ایران

متاسفانه علی‌رغم گسترش روزافزون هوش مصنوعی، ابعاد حقوقی و مسئولیت مدنی ناشی از آن در نظام حقوقی ایران چندان مشهود نیست. با توجه به عدم وجود قانون در این زمینه، (هوش مصنوعی) برای یافتن قانون متناسب مسئولیت مدنی، تعیین تکلیف در زمینه ماهیت هوش مصنوعی ضروری است.

توجه به هوش مصنوعی در قوانین ایالات متحده آمریکا

تاکنون قوانین جامعی در سطح فدرال ایالات متحده آمریکا برای استفاده از هوش مصنوعی وجود ندارد، اما چندین نهاد و سازمان دولتی در حال تدوین راهنماها و مقررات هستند. در ادامه به برخی از تلاش‌ها و قوانین مرتبط با هوش مصنوعی در آمریکا اشاره می‌شود:

راهنماهای دولتی

  • NIST (National Institute of Standards and Technology): این موسسه در حال کار بر روی تهیه چارچوب‌های استاندارد برای استفاده مسئولانه از هوش مصنوعی است.
  • FTC (Federal Trade Commission): این کمیسیون دستورالعمل‌هایی را برای استفاده اخلاقی از هوش مصنوعی در حوزه‌های تجاری و حفاظت از حریم خصوصی منتشر کرده است.

قوانین ایالتی

  • کالیفرنیا: ایالت کالیفرنیا قوانین سخت‌گیرانه‌ای برای حفظ حریم خصوصی داده‌ها دارد، مانند قانون حریم خصوصی مصرف‌کنندگان کالیفرنیا (CCPA) که می‌تواند بر استفاده از هوش مصنوعی تاثیرگذار باشد.
  • ایلینوی: ایالت ایلینوی قانون بیومتریک اطلاعات حریم خصوصی (BIPA) را تصویب کرده است که محدودیت‌هایی بر استفاده از تکنولوژی‌های تشخیص چهره و سایر داده‌های بیومتریک اعمال می‌کند.

فرمان‌های اجرایی و طرح‌های پیشنهادی

  • فرمان اجرایی ۱۳۹۶۰: این فرمان توسط رئیس‌جمهور ترامپ در سال ۲۰۱۹ صادر شد و هدف آن افزایش هماهنگی بین نهادهای دولتی در زمینه تحقیق و توسعه هوش مصنوعی است.
  • AI Initiative Act: طرح پیشنهادی که هدف آن ترویج و تقویت تحقیق و توسعه در زمینه هوش مصنوعی، همچنین ایجاد هماهنگی بین دولت، صنعت و دانشگاه‌ها است.

مقررات بخش‌های خاص

  • FDA (Food and Drug Administration): این سازمان مقرراتی را برای استفاده از هوش مصنوعی در ابزارهای پزشکی تنظیم کرده است.
  • DOT (Department of Transportation): این وزارتخانه راهنماها و مقرراتی را برای استفاده از هوش مصنوعی در خودروهای خودران و سایر فناوری‌های حمل‌ و نقل منتشر کرده است.

رویکرد اخیر پارلمان و کمیسیون اروپا در خصوص رژیم مسئولیت مدنی هوش مصنوعی

در عصر حاضر سازگاری مقررات با چالش‌های هوش مصنوعی بسیار حائز اهمیت است. کشورهای اتحادیه اروپا به‌ طور ویژه توجه خود را معطوف به تنظیم مقررات مسئولیت مدنی و هوش مصنوعی کرده‌اند. این توجه را می‌توان با قانون‌گذاری مربوط به هواپیماهای بدون سرنشین به‌وضوح مشاهده کرد.

در اتحادیه اروپا هم نبود رویکرد مشترک باعث به وجود آمدن قوانین ملی واگرایی شده‌است که با طرح پیشنهادی (اکتبر ۲۰۲۰) پارلمان اروپا رژیم مسئولیت دوگانه‌ای را برحسب سیستم‌های هوش مصنوعی با ریسک بالا و سایر سیستم‌های هوش مصنوعی با دو اصل مشترک (مسئولیت اپراتور، مسئولیت مشترک و تضامنی اپراتورها) در نظر گرفته شده است.

همچنین برای سیستم‌های پرخطر هوش مصنوعی مبنای مسئولیت محض و برای سایر سیستم‌های هوش مصنوعی مسئولیت مبتنی بر تقصیر در نظر می‌گیرند.

ایجاد اصول اخلاقی و حقوق پیشنهادی برای برنامه نویسان

با در نظر گرفتن ابهامات موجود در هوش مصنوعی، حقوقدانان و سیاست گذاران، دست به نگارش اصولی راهبردی برای تولیدکنندگان سیستم‌های مبتنی بر هوش مصنوعی زده‌اند.

هرچند که همه ابعاد هوش مصنوعی را نمی‌توان پیش‌بینی و تصور نمود. لیکن با چنین اصولی می‌توان به هموار ساختن راه حقوق‌دانان در آینده امیدوار بود.

برای مثال می‌توان به سند کمیسیون اتحادیه اروپا به نام:

  • راهنمایی اخلاقی برای هوش مصنوعی قابل‌اعتماد
  • قواعد هوش مصنوعی پکن
  • اضطراب جدی هوش مصنوعی آلمان

اشاره کرد.

نتیجه‌گیری

با توجه به گسترش روزافزون هوش مصنوعی و یادگیری ماشین در ایران و جهان در حوزه‌های مختلف، نیاز به قانون‌گذاری مناسب و سازگار با قوانین ملی و بین‌المللی احساس می‌شود.

مشاوره حقوقی حقوقی و کیفری هوش مصنوعی

در حال حاضر، با توجه به عدم وجود یک قانون قطعی و لازم‌الاجرا برای مدیریت هوش مصنوعی و مسئولیت مدنی آن، این فضا هنوز به‌طور کامل پاسخگو نیست. با این حال، با تأکید بر اصل راهبردی پیشنهادی، می‌توان در آینده نزدیک به چالش‌ها را به‌خوبی مدیریت کرد.

قوانین ملی و بین‌المللی از انعطاف‌پذیری متفاوتی برخوردارند که می‌توانند تناسب مناسبی را با هوش مصنوعی برقرار کنند. به عنوان مثال، در برخی مناطق، مسئولیت ناشی از تقصیر پیش‌بینی شده است که این مسائل می‌توانند در حوزه‌های مختلف مورد استفاده قرار گیرند.

در پارلمان اروپا، طرح پیشنهادی برای مسئولیت دوگانه در سیستم‌های هوش مصنوعی با ریسک بالا و دیگر سیستم‌ها را در نظر گرفته است. این طرح شامل مسئولیت اپراتور و تضامنی اپراتور است. در حقوق ایران، نیز مسئولیت مدنی مبتنی بر فعل غیر ممکن با پذیرش هوش مصنوعی به‌منزله شخص حقوقی است.

در زمینه حقوق کیفری، هوش مصنوعی می‌تواند به‌عنوان یک گام بلند برای پیشرفت‌های روز دنیا مورد استفاده قرار گیرد، اما همچنان نیاز به حضور انسانی در تصمیم‌گیری‌های قضایی حائز اهمیت است.

مشاوره حقوقی حقوقی و کیفری هوش مصنوعی با بنیاد وکلا

آیا شما یا یکی از نزدیکان‌تان با چالش‌های حقوقی و کیفری هوش مصنوعی مواجه هستید؟ گروه حقوقی بنیاد وکلا به عنوان معتبرترین مرکز حقوقی ایران در این زمینه تخصص و تجربه لازم را دارد تا شما را در هر مرحله از رسیدگی قانونی راهنمایی کند.

خدمات ما در حوزه هوش مصنوعی شامل:

  • تحلیل دقیق پرونده‌های مربوط به هوش مصنوعی توسط وکیل آنلاین پایه یک دادگستری
  • نمایندگی قانونی در محاکم و فرآیندهای قضایی
  • راهنمایی در خصوص اقدامات پیشگیرانه و حقوقی

اگر در طلب حل و فصل مشکلات حقوقی هوش مصنوعی هستید و می‌خواهید هر چه سریع‌تر خسارات وارده را دریافت کنید، وارد صفحه مشاوره حقوقی تلفنی شوید و با متخصص وارد گفتگو شوید.

میانگین امتیازات ۵ از ۵
از مجموع ۳ رای

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا