در این مقاله به توضیح و تفسیر مسئولیت کیفری هوش مصنوعی و نقش هوش مصنوعی در دادن لوایح کیفری و ابعاد حقوقی و کیفری آن خواهیم پرداخت.
شما با خواندن این مقاله به ابعاد جامعی از وضعیت حقوقی و کیفری هوش مصنوعی در نظام حقوقی ایران میرسید که میتوانید این نکات را به ویژه در قراردادهای خود لحاظ کنید و با آگاهی کامل به دنبال احقاق حقوق تضییع شده خود در برابر هوش مصنوعی برسید.
با من همراه باشید.
مفاهیم اولیه حوزه حقوقی هوش مصنوعی
در این فصل به بررسی مفاهیم اولیه درباره تعریف هوش مصنوعی، پیشینه پروندههای مربوط به هوش مصنوعی و نقش آن در حقوق جزا خواهیم پرداخت.
هوش مصنوعی چیست؟
در گذشته، این پرسش ارتباطی به حقوق دانان نداشت، اما اکنون اهمیت زیادی یافته است. به زبان ساده، هوش مصنوعی به هر برنامه سختافزاری یا نرمافزاری گفته میشود که رفتاری هوشمندانه نشان دهد. تعریف دیگر آن توانایی رایانه یا ربات در انجام کارهایی است که معمولاً به موجودات هوشمند نسبت داده میشود.
به طور کلی، هوش مصنوعی شامل توسعه و طراحی سیستمهایی است که قادر به فکر کردن، کشف کردن، نتیجهگیری و یادگیری از تجربیات گذشته هستند. برنامههای هوشمند امروزی میتوانند با آزمون و خطا یاد بگیرند، استدلال کنند، معماها را حل کنند و محیط خود را درک کنند. این قابلیتها اگرچه محدود هستند، اما به سرعت در حال پیشرفت و پیچیدهتر شدن میباشند.
گروه تخصصی کمیسیون اروپا هوش مصنوعی را چنین تعریف کرده است:
«سیستمهای هوش مصنوعی، سیستم نرمافزارها و حتی گاها سختافزارهایی هستند که توسط انسانها طراحی شدهاند تا در صورتی که یک تکلیف پیچیده به عهده ی آنان قرار میگیرد آنان به صورت فیزیکی یا در ابعاد دیجیتالی با درک محیط اطراف خود از طریق به دست آوردن دادهها و تحلیل و تفسیر دادهها با تجزیه و تحلیل اطلاعاتی که از این دادهها به دست آوردهاند عمل کنند و برای انجام دادن بهترین عمل با هدف انجام دادن تکلیف اولیه تصمیم بگیرند. سیستمهای هوش مصنوعی میتوانند قواعد نمادین یا مدلهای اعدادی را یاد بگیرند، آنها همچنین میتوانند رفتار خود را براساس تحلیل تاثیر اعمال قبلی خود بر محیط وفق دهند.»
در نهایت اینکه، تعریف یکسان و واحدی از هوش مصنوعی وجود ندارد، چرا که با پیشرفت علم و گسترش این حوزه، این تعاریف مدام در حال تغییرند. یادگیری ماشین یکی از زیرشاخههای هوش مصنوعی است که به پیشرفت آن کمک بسیاری کرده است.
پیشینه نیاز به اجرای قانون هنگام استفاده از هوش مصنوعی
در سال ۲۰۱۸ خانم میانسالی درحال رکاب زدن با دوچرخهاش در خیابانی در یکی از ایالتهای آمریکا بهنام آریزونا با یکی از خودروهای شرکت اوبر که در حال حرکت آزمایشی بود برخورد کرد و کشته شد در پی این تصادف شرکت اوبر و خانواده متوفی برای حل اختلاف و جبران خسارت وارده به توافق رسیدند و کارشان به شکایت و دادگاه نرسید.
درحالحاضر ساخت اولیه خودروهای خودران با پیشرفت تکنولوژی هوش مصنوعی و ابر دادهها میسر شدهاست. اما خودروهایی که بهطور کامل خودران باشند هنوز وارد عرصه بازار نشدهاند. مثلا در آمریکا فقط در برخی از ایالتها اجازه استفاده از این تکنولوژی بهصورت محدود وجود دارد.
در ایران نیز در سال سال ۱۳۹۶ متخصصان شرکت دانش بنیان صنعت و فناوری هوشمند خلیج فارس موفق به تولید خودروی ایرانی بدون راننده شدند، هرچند هنوز به مرحله استفاده عموم نرسیده است.
اما در آینده نزدیک و با استفاده بیشتر از خودروهای خودران، تصادفات این خودروها و درنتیجه سؤالات و چالشهای حقوقی به وجود خواهد آمد.
استفاده از هوش مصنوعی در حقوق
امروزه پیشرفتهای مربوط به هوش مصنوعی با استفاده از دادهها و الگوریتم ها در اجرای عدالت از جمله عدالت کیفری نیز حضور یافته و بسیاری از کشورهای مدرن دنیا در برخی از فرآیندهای دادرسی و کیفری از این سیستم استفاده میکنند. این مسئله باعث ایجاد تحولی بنیادین در عدالت کیفری خواهد شد.
هم اکنون هوش مصنوعی در آمریکا حتی در حوزه حوزه حقوق جزا هم راه یافته است. مثلا برای اجازه صدور قرار آزادی موقت یا قرار بازداشت، با بهکارگیری برخی نرمافزارها میزان ریسک بروز مجدد جرم توسط مجرم را مورد بررسی قرار میدهد، سپس به بازداشت یا آزادی فرد اقدام میکند.
نمونههای به کار گیری هوش مصنوعی نیازمند تدوین قوانین جزائی
در حال حاضر دو نمونه از بکارگیری هوش مصنوعی در زندگی وجود دارد که احتمالا نیاز به پدید آوردن مجموعه قوانین حقوقی در آن وجود دارد. درست مانند قوانینی که در زمینه جرایم رایانهای نگاشته شد.
استفاده از خودروهای خودران
خودروهای خودران از تکنولوژی یادگیری ماشین بهره میبرند، که به ۶ سطح از بدون اتوماسیون تا خودروهای کاملا خودران تقسیم میشود.
این تکنولوژی شامل هوش مصنوعی پیشرفته است که دادهها را از سنسورهای خودرو به شبکههای عصبی منتقل میکند. این خودروها بر اساس دادهها دستورالعملهایی برای راهاندازی، ترمز و سایر سیستمها ارائه میدهند، با هدف انطباق عملها به رفتار انسان راننده.
این فناوری به اندازهای پیچیده است که درک رفتارهای غیر معمول مانند رد کردن چراغ قرمز برای طراحان آن چالش بزرگی ایجاد میکند.
در ایالات متحده، قوانین فدرال برای استفاده از خودروهای خودران هنوز تصویب نشده است، با این حال برخی ایالتها مانند کالیفرنیا از آنها استفاده مجاز میکنند، در حالی که ایالتهای دیگر مانند نیویورک این استفاده را فقط در صورت همراهی انسان تایید میکنند.
در ایران، هنوز قانونی برای استفاده از خودروهای خودران تصویب نشده است، با این وجود پس از آزمایش موفق خودروی خودران ایرانی، استفاده از آنها توسط پلیس تردد ممنوع اعلام شده است، حتی به صورت موقت و مشروط.
استفاده از هوش مصنوعی در پزشکی
استفاده از ابردادهها و هوش مصنوعی در حرفه پزشکی، بهویژه برای تشخیص بیماری، به عنوان “جعبه سیاه” شناخته میشود. این روشها با مدلهای کامپیوتری تشخیص بیماری میدهند که فرایند رسیدن به نتیجه در آنها نامعلوم است. هوش مصنوعی و یادگیری ماشین در تشخیص بیماری و ارائه خدمات به بیماران کمک زیادی کردهاند.
به عنوان مثال، اپلیکیشنهای گوشیهای هوشمند میتوانند سرطان پوست را تشخیص دهند یا سیستمهای مانیتور سالمندان زمان احتمال افتادن آنها را پیشبینی کنند.
این تکنولوژی مورد توجه قانونگذاران بهداشت و درمان آمریکا قرار گرفته، اما هنوز قانون الزامآوری در این زمینه وجود ندارد. همچنین، استفاده از هوش مصنوعی در پزشکی ممکن است منجر به خسارات و مسئولیتهای مدنی شود.
هوش مصنوعی و چالش مسئولیت مدنی مبتنی بر تقصیر
هوش مصنوعی احتمالا با چالشهای متعدی در قوانین ایران مواجه خواهد شد که در ادامه بررسی میشود:
مبانی مسئولیت مدنی در حقوق ایران
در حقوق ایران مباحث مسئولیت مدنی محدود به قانون مسئولیت مدنی مصوب ۱۳۳۹ نیست و قوانین دیگری نیز به طور پراکنده به مباحث مرتبط با مسئولیت مدنی پرداختهاند.
این قوانین و قواعد عمومی مسئولیت مدنی را به ۳ عنصر تقسیم کردهاند:
وجود ضرر
همانطور که میدانیم در حقوق ایران ضرری قابل جبران است که «مسلم باشد نه احتمالی، مستقیم باشد، شخصی باشد، ناشی از لطمهای باشد که بهحق شخص یا نفع مشروع او وارد شدهاست، قبلا جبران نشده باشد و قابلپیشبینی باشد.» در هوش مصنوعی پیشبینی ضرر با چالشهایی روبهرو است.
برای مثال اگر پزشکی برای تشخیص بیماری از دستگاهی استفاده کند که نمیداند درست پیشبینی میکند یا خیر، در صورت ایجاد ضرر به فرد، میتوان آن را اثبات کرد؟
بهتر است در نظر بگیریم که بهکارگیری هوش مصنوعی بهخاطر این است که این تکنولوژی میتواند از تحلیلهای انسان فراتر برود و با پردازشی قویتر و هوشمندانه به نتیجهای برای کاربری خاصی برسد.
در سوال مطرحشده ممکن است سازنده دستگاه مدعی شود که پزشک عادی هم توانایی ایجاد تردید در پروسه دستگاه را ندارد زیرا دستگاه حجم دادههایی را بررسی کرده که در توان یک پزشک عادی نبوده است.
با ناآگاهی از روندی که دستگاه طی کرده چگونه میتوان ثابت کرد که دستگاه پیشبینی اشتباهی ارائه داده است؟ هر چند بهنظر میرسد که با تکیه بر روشهایی از یادگیری ماشین که الگوریتم آن قابلیت بررسی است بتوان برخی از این مشکلات را حل کرد.
در بحث خودروهای خودران نیز پرسش پیشبینی ضرر قابل طرح است و با وجود قانون بیمه اجباری خسارات واردشده به شخص ثالث در اثر حوادث ناشی از وسایل نقلیه مصوب اردیبهشت ۱۳۹۵ از جبران خسارت اطمینان حاصل آمدهاست.
همچنین تصویب قانون جدید و گسترش دایره حوادثی که قابلیت جبران خسارت دارند و اضافه شدن لفظ (حوادث غیرمترقبه) میتوان خیلی از حوادث و ضررهای وارده را مشمول تعریف قانون جدید دانست.
ارتکاب فعل زیان بار تقصیر
در ایران بهطورکلی مسئولیت مبتنی بر تقصیر است و مسئولیتی که مبتنی بر تقصیر نباشد جنبه مباری دارد. در مسئولیت مبتنی بر تقصیر لازم است تا فعل زیانبار تقصیر محسوب شود. در زمینه مسئولیت مدنی مبتنی بر استفاده از هوش مصنوعی عوامل مختلفی دخالت دارند. چالش دیگر، معیار تشخیص تقصیر است.
برای مثال پزشکی که برابر با عرف جامعه پزشکی برای تشخیص بیماری از هوش مصنوعی استفاده کرده را میتوان مقصر دانست؟ در ماده ۳۱۹ قانون مجازات اسلامی منسوخ در سال ۱۳۷۰ تقصیر شرط ضمان پزشک نبود. اما قانون جدید در ماده ۴۹۵ تقصیر را یکی از شروط مسئولیت پزشک دانسته است.
به نظر برخی از حقوقدانان طبق قانون جدید مجازات اسلامی «بهکارگیری هر روش درمانی جدید برای اولینبار، خطرات پیشبینی نشدهای بههمراه دارد و این خطر بیش از میزان متعارف در دوران عادی است، لذا قرار دادن بیمار در یک وضعیت پرمخاطره بهخودیخود تقصیر محسوب می شود. لذا اگر پزشک بخواهد روش درمانی جدید را برای درمان بهکار گیرد باید به بیمار اطلاع دهد که قصد استفاده از روش جدیدی را دارد و رضایت و یا برائت اخذ نماید».
لیکن باید بدانیم با گذشت زمان، استفاده از این تکنولوژی همانند دیگر تکنولوژیها عادی خواهد شد و چیزی که حائز اهمیت است، معیار عرفی در طول زمان میباشد؛ و این معیار عرفی در سایر شرایطی که از هوش مصنوعی در امری استفاده میشود، قابلانطباق است.
رابطه سببیت
زمانی که انسان از ماشین استفاده میکند و نظام حقوقی انسان را مسئول جبران خسارت میداند اثبات رابطه سببیت مانند هر حادثه دیگری میباشد. اما گاها امکان دارد نظام حقوقی یا فردی که از ماشینی استفاده کرده است و منجر به ضرر شده، بخواهد ماشین مبتنی بر هوش مصنوعی را مسئول بداند.
در این مورد آیا میتوان بهجای انسان، ماشین یا ربات را مسئول بدانیم؟ همانطوریکه قبلا گفته شد هوش مصنوعی یک انتخاب بر مبنای علیت نیست بلکه انتخابی بر مبنای دادههای موجود است، فیالواقع رابطه سببیت و چرایی وجود ندارد.
راهحلهای پیشنهادی برای چالشهای مسئولیت مدنی هوش مصنوعی در ایران
مواردی وجود دارد که میتوان از آن به عنوان راهحلهای پیشنهادی برای مواجهه با چالشهای مسئولیت مدنی هوش مصنوعی استفاده کرد:
نظریه مسئولیت محض
بعضی از حقوقدانان معتقدند با توجه به عدم امکان اثبات برخی از عناصر مسئولیت مدنی میتوان با استفاده از مسئولیت محض به جبران خسارت زیاندیده اقدام کرد.
در این شرایط نیازی به اثبات تقصیر نیست و به صرف وقوع حادثه، ایجاد کننده مسئول جبران خسارت است. در واقع مسئولیت مبتنی بر نظریه ایجاد خطر است.
در ایران قانون حمایت از مصرفکنندگان خودرو بر مبنای مسئولیت محض تدوین شده و در ماده ۳ بدون نیاز به تقصیر، مسئولیت محض بر عهده عرضهکننده خودرو قرار گرفته است.
استفاده از بیمه اجباری
یکی از راهحلها برای جبران خسارت، اجباری کردن بیمه جبران خسارت برای همه کالاها و نرمافزارهایی است که بر مبنای یادگیری ماشین عمل میکنند. با این ترفند تولیدکنندگان نرمافزارها و سختافزارها از جبران خسارت مصون می شوند.
چراکه مسئولیت محض میتواند موجب ایجاد هراس ناشی از مسئولیت برای مهندسان و مخترعان شود و از پیشرفت در این زمینه بازمانیم. اما با وجود بیمه اجباری، این ترس هم مرتفع میگردد.
مسئولیت نیابتی
با استفاده از مسئولیت نیابتی میتوان شرکت یا طراح رباتی را مسئول دانست که موجب ایجاد ضرر میشود. البته این مسئله با آنچه در ایران آنچه به عنوان مسئولیت نیابتی مطرح شده در ماده ۵۱۹ قانون مجازات اسلامی در ارتباط با ریزش دیوار و بنا، بنده متفاوت است. در این بحث مسئولیت مدنظر آن است که در آمریکا رایج میباشد.
نایب به خاطر وجود یک رابطه، مسئول ضرری است که به دیگری وارد کردهاست. حتی اگر خود هیچ ضرری مرتکب نشده باشد. بر این اساس، مسئولیت یک شرکت طراحی ماشین یا طراح برنامه ای مبتنی بر مبنای هوش مصنوعی، مشکل احتمالی ایجاد وقفه در توسعه و پیشرفت علم را دربردارد که بههیچوجه مناسب برای تشویق دانشمندان نیست.
استفاده از هوش مصنوعی برای امور قضایی
یکی از مواردی که پیرامون هوش مصنوعی مطرح میشود، استفاده از آن در امور قضایی است. در حال حاضر برخی کشورها مانند آمریکا، از هوش مصنوعی در امور قضایی و کیفری استفاده میکنند.
در این بخش به بررسی شخصیت هوش مصنوعی و امکان استفاده از آن در قضاوت و اجرای عدالت خواهیم پرداخت.
شخصیت حقوقی هوش مصنوعی
اکثریت بر این نظرند که بهتر است برای هوش مصنوعی شخصیت حقوقی قائل شویم، همچنانکه برای مسئولیت شرکتها نیز از شخصیت حقوقی استفاده میشود.
بدین ترتیب در صورت بروز خسارت، شخص حقوقی هوش مصنوعی خوانده دعوا قرار میگیرد. در ایران نیز بعضی حوزههای مسئولیت کیفری خودروهای خودران به امکانسنجی این فرد پرداختهاند.
هوش مصنوعی و قابلیت صدور حکم کیفری
اصولا حضور فناوری هوش مصنوعی در سایر مراحل دادرسی کیفری مناقشه کمتری را به همراه دارد. برای مثال در مراحل کشف و تعقیب جرایم، به کار گرفتن هوش مصنوعی به شرط در نظر گرفتن حریم خصوصی افراد و با رعایت فرض برائت، قابلیت اجرا دارد.
یا در مرحله تحقیقات مقدماتی یا قرارهای تامین کیفری، مقام قضایی بهدنبال پیشبینی این مهم است که آیا متهم در زمان تعیین شده در مرجع قضایی حضور پیدا میکند؟! یا در فرض آزادی آیا مرتکب جرم دیگری خواهد شد؟ دراینصورت اگر متهم با ریسک عدم حضور یا بروز خطر برای جامعه شناخته شود، قاضی دستور بازداشت خواهد داد و متهم کم ریسک تا قبلاز شروع دادرسی آزاد است.
به همین دلیل اشکال ندارد که روند تصمیمگیری قضایی با کمک نرمافزارهای ارزیابی هوش مصنوعی تقویت شود. اما بحث صدور حکم متفاوت از این مباحث است. چراکه به ملاحظات خیلی بیشتری نیاز دارد و قدمها در این مبحث باید با آهستگی بسیار برداشته شود. زیرا اشتباه در تعیین مجازات، کل سیستم عدالت کیفری و امنیت جامعه را زیر سوال می برد و تهدید جدی میکند.
هر چند برخی از دانشمندان بهجهت تسریع در امر رسیدگی و صدور حکم اذعان داشتهاند: «هیچ پروتکلی برای تصمیمات قضات وجود ندارد، اطلاعاتی که آنها در اختیار دارند جزئیات جرم فعلی و سابقه ی قبلی، سن، خانواده، وضعیت شغلی، سابقه تحصیلی و ظاهر مجرم است.»
توصیف جنبههای مورد ایراد این پروسه واقعا سخت میباشد. مضاف بر آنکه این مشاهده اخیر با دادههای تجربی ثابت میشود. قضات انسانی در پیشبینیهای تکراری خود به اندازه پرتاب کردن یک سکه دقیق هستند! آنها همچنین معمولا سوگیری ناخودآگاه خود را در تصمیمگیری در مورد مجازات نشان میدهند و علاوهبر این هیچ مکانیزمی برای مهار آن وجود ندارد.
در مقابل دیدگاه اشارهشده منتقدان اعتقاد دارند که تصمیمگیری خودکار در نظام عدالت چه کیفری به ۳ دلیل اصلی غیرممکن یا ناعادلانه است:
- الگوریتمهایی که این سیستم براساس آن بنا شدهاند ناقص هستند.
- سیستم یادگیری ماشین بر دادههایی متکی هستند که بهطور اجتنابناپذیری تبعیض را رمزگذاری میکنند.
- سیستمهای یادگیری ماشین جعبههای سیاهی هستند که قابلیت پاسخگویی ندارند.
با این توصیف بهدلیل اختلافات زیاد موجود در این حوزه، معمولا کشورها تمایلی به به کار گیری از این فناوری ندارند.
به همین دلیل است که برخلاف ایالت متحده، خیلی از کشورها مثل استرالیا و ایران تصمیمگیری درباره مجازات و صدور حکم به صلاحدید قاضی است و از هوش مصنوعی در صدور حکم استفاده نمیکنند.
ساز و کار تعیین کیفر از طریق هوش مصنوعی
۳ رویکرد اصلی در خصوص از هوش مصنوعی در تعیین کیفر قابل بررسی است.
- رویکرد اول: جایگزینی کامل هوش مصنوعی با سیستم قضایی. سیستم بهطور مستقل با وارد کردن اطلاعات، حکم صادر میکند و نیازی به تشکیل جلسه نیست.
- رویکرد دوم: مشابه رویکرد اول، اما طرفین دعوا حق انتخاب بین حکم هوش مصنوعی و قاضی را دارند و رضایت هر دو طرف برای استفاده از هوش مصنوعی لازم است.
- رویکرد سوم: استفاده از هوش مصنوعی بهعنوان راهنما برای قضات. قاضی از توصیههای رایانه برای صدور احکام منسجم و اصولی بهره میبرد.
رویکرد اول برای اکثریت مردم قابل قبول نیست. رویکرد دوم نگرانکننده است زیرا هوش مصنوعی به گزینه پیشفرض تبدیل میشود و ممکن است به نابرابری و تعارض بین حکم قضایی و هوش مصنوعی منجر شود. اما رویکرد سوم قابلقبولتر است زیرا قضات برای راهنمایی از آن استفاده میکنند.
هوش مصنوعی و تعیین کیفر؛ تصمیمگیری یا تصمیمسازی
آیا هوش مصنوعی میتواند در رابطه با مباحث کیفری نقش داشته باشد؟ آیا میتواند امر مهم قضاوت را به رباتها و الگوریتمها سپرد؟ برخی از حقوقدانها موافق با این امر هستند و معتقدند به طور کلی ملاحظاتی که بر احتمال ارتکاب مجدد اثر میگذارد مبتنی با واقعیت است و بر موضوعات ذهنی مانند رفتاری و عاطفه تکیه نمیکنند.
بنابراین از نظر تئوری آن واقعیتها میبایست توسط یک الگوریتم مبتنی بر داده ثبت شود. از منظر مقایسهای درحالیکه عوامل مؤثر بر جرم کیفری بسیار متعدد و پیچیده هستند اما نسبت به مسائل مربوط به امور بیمهای مانند بیمه عمر ملاحظات کمتری وجود دارد.
لذا در مقام مقایسه میتوان گفت همانگونه که «هیچ شرکت بیمهای اجازه نمیدهد که حق بیمه و براساس قضاوت انسان تعیین شود، در مورد مجازات نیز رویکرد صحیح میتواند این باشد.
به همین دلیل ما پیشنهاد میکنیم که هیچ سیستم حقوقی آگاهانهای نباید اجازه دهد که خطر تکرار جرم صرفا توسط قضات تعیین شود و میتوان چنین استدلال نمود که از رایانهها باید در تصمیمگیریهای مربوط به مجازات وثیقه و آزادی مشروط استفاده شود.
برخی دیگر نیز اذعان داشتهاند که تصمیمگیری و تعیین مجازات از طریق هوش مصنوعی با مشکل روزهای تعطیل و احساسات و مشکلات شخصی روبهرو نیست و میتوان اطمینان داشت در جرایم مشابه بر روی افراد مختلف مجازات مشابه صادر شدهاست.
صرفنظر از اعمال سلایق فردی قضات یا اعمال تبعیضها فی الواقع تصمیمات سریعتر و مؤثرتر صادر میشود. فلذا فاصله زمان دستگیری مجرم تا اعمال مجازات تقلیل مییابد و پیامدهای نامطلوب تاخیر صدور یا اجرای مجازات و کاهش کارایی کیفرها را کاهش میدهد.
با وجود جنبههای مثبت هوش مصنوعی، نمیتوان از چالشهای آن چشمپوشی کرد. برای مثال، هوش مصنوعی نمیتواند عنصر روانی متهم را شناسایی و بر مبنای آن مسئولیت کیفری تعیین کند؛ چرا که تعیین مسئولیت کیفری نیاز به تخصص انسانی دارد. با این حال، هوش مصنوعی میتواند به عنوان یک کمکرسان در سیستم عدالت کیفری حضور داشته باشد.
سیستم عدالت کیفری نیز باید مانند سایر علوم از این فناوری بهرهمند شود، اما همیشه در کنار نیروی انسانی، زیرا هوش مصنوعی نمیتواند به طور کامل جایگزین انسان شود.
هوش مصنوعی در مجموعه های حقوقی امروزی
در حال حاضر بیشتر کشورهای دنیا به حضور هوش مصنوعی در زندگی انسان امروزی توجه نشان داده و سعی کردهاند قوانینی پیرامون آن وضع کند.
در این بخش به بررسی جایگاه هوش مصنوعی در مجموعههای حقوقی امروزی خواهیم پرداخت.
ماهیت و مبنای مسئولیت هوش مصنوعی در حقوق ایران
متاسفانه علیرغم گسترش روزافزون هوش مصنوعی، ابعاد حقوقی و مسئولیت مدنی ناشی از آن در نظام حقوقی ایران چندان مشهود نیست. با توجه به عدم وجود قانون در این زمینه، (هوش مصنوعی) برای یافتن قانون متناسب مسئولیت مدنی، تعیین تکلیف در زمینه ماهیت هوش مصنوعی ضروری است.
توجه به هوش مصنوعی در قوانین ایالات متحده آمریکا
تاکنون قوانین جامعی در سطح فدرال ایالات متحده آمریکا برای استفاده از هوش مصنوعی وجود ندارد، اما چندین نهاد و سازمان دولتی در حال تدوین راهنماها و مقررات هستند. در ادامه به برخی از تلاشها و قوانین مرتبط با هوش مصنوعی در آمریکا اشاره میشود:
راهنماهای دولتی
- NIST (National Institute of Standards and Technology): این موسسه در حال کار بر روی تهیه چارچوبهای استاندارد برای استفاده مسئولانه از هوش مصنوعی است.
- FTC (Federal Trade Commission): این کمیسیون دستورالعملهایی را برای استفاده اخلاقی از هوش مصنوعی در حوزههای تجاری و حفاظت از حریم خصوصی منتشر کرده است.
قوانین ایالتی
- کالیفرنیا: ایالت کالیفرنیا قوانین سختگیرانهای برای حفظ حریم خصوصی دادهها دارد، مانند قانون حریم خصوصی مصرفکنندگان کالیفرنیا (CCPA) که میتواند بر استفاده از هوش مصنوعی تاثیرگذار باشد.
- ایلینوی: ایالت ایلینوی قانون بیومتریک اطلاعات حریم خصوصی (BIPA) را تصویب کرده است که محدودیتهایی بر استفاده از تکنولوژیهای تشخیص چهره و سایر دادههای بیومتریک اعمال میکند.
فرمانهای اجرایی و طرحهای پیشنهادی
- فرمان اجرایی ۱۳۹۶۰: این فرمان توسط رئیسجمهور ترامپ در سال ۲۰۱۹ صادر شد و هدف آن افزایش هماهنگی بین نهادهای دولتی در زمینه تحقیق و توسعه هوش مصنوعی است.
- AI Initiative Act: طرح پیشنهادی که هدف آن ترویج و تقویت تحقیق و توسعه در زمینه هوش مصنوعی، همچنین ایجاد هماهنگی بین دولت، صنعت و دانشگاهها است.
مقررات بخشهای خاص
- FDA (Food and Drug Administration): این سازمان مقرراتی را برای استفاده از هوش مصنوعی در ابزارهای پزشکی تنظیم کرده است.
- DOT (Department of Transportation): این وزارتخانه راهنماها و مقرراتی را برای استفاده از هوش مصنوعی در خودروهای خودران و سایر فناوریهای حمل و نقل منتشر کرده است.
رویکرد اخیر پارلمان و کمیسیون اروپا در خصوص رژیم مسئولیت مدنی هوش مصنوعی
در عصر حاضر سازگاری مقررات با چالشهای هوش مصنوعی بسیار حائز اهمیت است. کشورهای اتحادیه اروپا به طور ویژه توجه خود را معطوف به تنظیم مقررات مسئولیت مدنی و هوش مصنوعی کردهاند. این توجه را میتوان با قانونگذاری مربوط به هواپیماهای بدون سرنشین بهوضوح مشاهده کرد.
در اتحادیه اروپا هم نبود رویکرد مشترک باعث به وجود آمدن قوانین ملی واگرایی شدهاست که با طرح پیشنهادی (اکتبر ۲۰۲۰) پارلمان اروپا رژیم مسئولیت دوگانهای را برحسب سیستمهای هوش مصنوعی با ریسک بالا و سایر سیستمهای هوش مصنوعی با دو اصل مشترک (مسئولیت اپراتور، مسئولیت مشترک و تضامنی اپراتورها) در نظر گرفته شده است.
همچنین برای سیستمهای پرخطر هوش مصنوعی مبنای مسئولیت محض و برای سایر سیستمهای هوش مصنوعی مسئولیت مبتنی بر تقصیر در نظر میگیرند.
ایجاد اصول اخلاقی و حقوق پیشنهادی برای برنامه نویسان
با در نظر گرفتن ابهامات موجود در هوش مصنوعی، حقوقدانان و سیاست گذاران، دست به نگارش اصولی راهبردی برای تولیدکنندگان سیستمهای مبتنی بر هوش مصنوعی زدهاند.
هرچند که همه ابعاد هوش مصنوعی را نمیتوان پیشبینی و تصور نمود. لیکن با چنین اصولی میتوان به هموار ساختن راه حقوقدانان در آینده امیدوار بود.
برای مثال میتوان به سند کمیسیون اتحادیه اروپا به نام:
- راهنمایی اخلاقی برای هوش مصنوعی قابلاعتماد
- قواعد هوش مصنوعی پکن
- اضطراب جدی هوش مصنوعی آلمان
اشاره کرد.
نتیجهگیری
با توجه به گسترش روزافزون هوش مصنوعی و یادگیری ماشین در ایران و جهان در حوزههای مختلف، نیاز به قانونگذاری مناسب و سازگار با قوانین ملی و بینالمللی احساس میشود.
در حال حاضر، با توجه به عدم وجود یک قانون قطعی و لازمالاجرا برای مدیریت هوش مصنوعی و مسئولیت مدنی آن، این فضا هنوز بهطور کامل پاسخگو نیست. با این حال، با تأکید بر اصل راهبردی پیشنهادی، میتوان در آینده نزدیک به چالشها را بهخوبی مدیریت کرد.
قوانین ملی و بینالمللی از انعطافپذیری متفاوتی برخوردارند که میتوانند تناسب مناسبی را با هوش مصنوعی برقرار کنند. به عنوان مثال، در برخی مناطق، مسئولیت ناشی از تقصیر پیشبینی شده است که این مسائل میتوانند در حوزههای مختلف مورد استفاده قرار گیرند.
در پارلمان اروپا، طرح پیشنهادی برای مسئولیت دوگانه در سیستمهای هوش مصنوعی با ریسک بالا و دیگر سیستمها را در نظر گرفته است. این طرح شامل مسئولیت اپراتور و تضامنی اپراتور است. در حقوق ایران، نیز مسئولیت مدنی مبتنی بر فعل غیر ممکن با پذیرش هوش مصنوعی بهمنزله شخص حقوقی است.
در زمینه حقوق کیفری، هوش مصنوعی میتواند بهعنوان یک گام بلند برای پیشرفتهای روز دنیا مورد استفاده قرار گیرد، اما همچنان نیاز به حضور انسانی در تصمیمگیریهای قضایی حائز اهمیت است.
مشاوره حقوقی حقوقی و کیفری هوش مصنوعی با بنیاد وکلا
آیا شما یا یکی از نزدیکانتان با چالشهای حقوقی و کیفری هوش مصنوعی مواجه هستید؟ گروه حقوقی بنیاد وکلا به عنوان معتبرترین مرکز حقوقی ایران در این زمینه تخصص و تجربه لازم را دارد تا شما را در هر مرحله از رسیدگی قانونی راهنمایی کند.
خدمات ما در حوزه هوش مصنوعی شامل:
- تحلیل دقیق پروندههای مربوط به هوش مصنوعی توسط وکیل آنلاین پایه یک دادگستری
- نمایندگی قانونی در محاکم و فرآیندهای قضایی
- راهنمایی در خصوص اقدامات پیشگیرانه و حقوقی
اگر در طلب حل و فصل مشکلات حقوقی هوش مصنوعی هستید و میخواهید هر چه سریعتر خسارات وارده را دریافت کنید، وارد صفحه مشاوره حقوقی تلفنی شوید و با متخصص وارد گفتگو شوید.