مسئولیت مدنی هوش مصنوعی
هوش مصنوعی یا به اختصار AI، یکی از شاخههای علوم کامپیوتر و یک تکنولوژی بسیار پیشرفته دهه حاضر است که بوسیله آن، سیستمهای کامپیوتری مانند انسانها امکان تفکر و یادگیری پیدا کرده و میتوانند اقدام به تصمیمگیری مستقل کنند. عمده این واکنشها، در درک شرایط پیچیده، استفاده از شیوههای استدلالی، یادگیری، ارائه نتیجه و توصیه خلاصه میشود. از هوش مصنوعی در زمینههای مختلف علوم مانند حقوق، علوم نظامی، روانشناسی، حمل و نقل، پزشکی و درمان، زیستشناسی و علوم اجتماعی استفاده میشود. استفاده از هوش مصنوعی در برخی از این زمینهها ممکن است نتایجی نامطلوبی از جهت حقوقی به بار بیاورد که سبب خساراتی شود که آن خسارات، موجب ایجاد مسئولیت مدنی یا کیفری شوند.
نظاممند کردن مقولة مسئولیت هوش مصنوعی، هم به لحاظ اجتماعی هم به لحاظ اقتصادی، حائز اهمیت است و نظام مناسب مسئولیت مدنی مسلماً بر گسترش سیستمهای هوش مصنوعی تأثیر می گذارد. از یک سو وضع مقررات مشترک در عرصة جهانی دربارة مسئولیت و بیمة هوش مصنوعی از لحاظ اجتماعی، علاوه بر کاهش تعداد تصادفات، آثار بهداشتی و زیست محیطی، تأثیر بر کاربر را نیز در پی دارد و از سوی دیگر وجود مقررات توزیع کنندة مخاطرات و سازکارهای جبران خسارت، به ویژه اگر با انصاف و عدالت همراه باشد، موجب می شود مردم پذیرای انواع فناوریها باشند.
در ادامه ماهیت و مبنای مسئولیت هوش مصنوعی در نظام حقوقی ایران را بررسی خواهیم کرد:
ماهیت هوش مصنوعی در تحلیل مسئولیت مدنی ناشی از آن در حقوق ایران
1: هوش مصنوعی به منزله حیوان
برخی حقوقدانان هوش مصنوعی را به حیوانات تشبیه کرده اند و از قواعد موجود در خصوص سگ ها بهره گرفته اند و از این طریق نوع مسئولیت را تبیین کرده اند؛ بدین ترتیب که هوش مصنوعی خودکار و نیمه مستقل را با حیوان اهلی و هوش مصنوعی کاملاً خودمختار و متحرک را با حیوان وحشی تطبیق داده اند. در فرض نخست، از آنجا که هوش مصنوعی تا حد زیادی تحت کنترل و نگهداری مالک متصرف خود است، مستند به مادة 334 قانون مدنی ایران، در صورت تقصیر مالک یا کاربر در نگهداری آن، وی در قبال خسارات ایجاد شده مسئول است. اما در فرض دوم، در تطبیق هوش مصنوعی پرخطر با حیوان وحشی و خطرناک، مطابق تبصره 1 و 2 مادة 522 قانون مجازات اسلامی حکم میشود. بدین ترتیب که مالک و کاربر هوش مصنوعی به صورت مطلق در قبال خسارت های ایجاد شده توسط هوش مصنوعی مسئول خواهد بود. اگرچه نگه داشتن حیوان وحشی به خودی خود تقصیر محسوب میشود، این تحلیل و تطبیق با این ایراد مبنایی مواجه است که انسان در طرح و تولید حیوان نقشی ندارد و رفتار حیوان تابع طبیعت و ذات اوست؛ اما پدیدآورندة هوش مصنوعی انسان است و ربات محصول انسان و مخلوق اوست. به علاوه، عملکرد هوش مصنوعی مبتنی بر الگوریتم های مشابه تفکر منطقی انسان است.[1]
2: هوش مصنوعی به منزله شیء و محصول
این تلقی ناشی از دو نظام «مسئولیت ناشی از مالکیت و نگهداری اشیاء» و «مسئولیت ناشی از تولید و عرضه کالا» است. طبق مبنای اول، مالک یا متصرف هوش مصنوعی مسئول خسارت های ناشی از آن است و در رویکرد دوم، قواعد مسئولیت ناشی از عیب تولید بر هوش مصنوعی مترتب میشود و تولیدکننده یا عرضه کننده مسئول خواهد بود. از آنجا که برای تولید هوش مصنوعی مجموعه ای از سخت افزار و نرم افزار لازم است و هوش مصنوعی از نظر فنی باید کمترین خطر را داشته باشد تا به مردم و اموال خصوصی و عمومی آسیب نرسد، از دیدگاه قانونی نیز باید قواعد و مقررات تعیین شده در فضای عمومی و خصوصی رعایت شود. به این ترتیب افرادی همچون تولیدکننده، عوامل مرتبط، مانند مهندس نرم افزار و سخت افزار، و توسعه دهندگان نرم افزار وجود دارند و نقص عملکرد هر یک میتواند بر عملکرد هوش مصنوعی تأثیرگذار باشد. با این تحلیل، ارادة هوش مصنوعی ویژگی بالذات آن نیست. بنابراین، نمیتوان شخصیت انسانی برای هوش مصنوعی قائل شد، بلکه این اراده، ناشی از محصول بودن آن است. اما، از آنجا که در تولید این عامل خوداجرا و واجد اراده نقش انسان در مقام تولیدکننده مطرح میشود، مسئولیت تولیدکننده قابل شناسایی خواهد بود. بر مبنای این نظر، در انتساب زیان به تولیدکننده دو عنصر باید وجود داشته باشد؛ نخست، وجود عیب و دوم اینکه این عیب مستند به تولیدکننده باشد. در این صورت میتوان تولیدکننده را مسئول شمرد.[2]
3: هوش مصنوعی در مقام شخص حقوقی
با توجه به اینکه رباتهای به طور کامل خودمختار و هوشمند، چون به سطحی از خودمختاری رسیده اند که میتوانند با درک محیط اطراف و تحلیل داده ها تصمیم مناسب بگیرند، لذا میتوان آنان را بعنوان شخص حقوقی در نظر گرفت و به آنها شخصیت حقوقی اعطا نمود. بدین ترتیب هوش مصنوعی، دارای حقوق و تکالیف مستقل از مالک یا کاربر خود است و میتواند مانند شرکت ها؛ دارای اموال و ذمه باشد، به عنوان خواهان اقامه دعوا کند و بعنوان خوانده طرف دعوا قرار بگیرد، مالیات بپردازد و خساراتی که ایجاد میکند را از اموال خود جبران کند و این حقوق از طریق عامل انسانی اجرا میشود.
میتوان گفت که مبانی نظری قابل اعتنایی برای تلقی شخصیت حقوقی برای هوش مصنوعی وجود دارد، اما از یک سو، معیارهای ویژه شخص حقوقی، قابل انطباق کامل بر ویژگیهای هوش مصنوعی نیست، چون با چالشهایی از قبیل دشواری توصیف اهلیت استیفا، تعیین اقامتگاه، تابعیت و دارایی شخص حقوقی روبه روست. از سوی دیگر، به فرض اثبات شخصیت حقوقی برای هوش مصنوعی، یکی از ایرادهای مهم آن است که با انتساب مسئولیت به هوش مصنوعی در خصوص رفتارهای زیان بار آن، تولیدکننده و کاربر و مالک از مسئولیت احتمالی معاف میشوند و چه بسا رفتار هوش مصنوعی به واسطة نقص در تولید و تجاری سازی یا استفاده نادرست مالک و کاربر باشد. علاوه بر تمام اینها، ایجاد شخصیت حقوقی برای الگوریتمهای هوش مصنوعی مستلزم تقنین نیز میباشد.
اما در پاسخ به این نقدها و به ویژه این نقد که هوش مصنوعی مالک اموالی نیست که بتواند غرامت زیانهایی را که وارد کرده بپردازد و همچنین اینکه مسئول قلمداد کردن هوش مصنوعی کارکردِ بازدارندگی مسئولیت مدنی را به انزوا میکشاند، باید گفت نیازی نیست خود هوش مصنوعی پرداخت خسارت را انجام دهد تا اهداف مسئولیت مدنی محقق شود؛ بلکه میتوان تولیدکنندگان، توسعه دهندگان یا کاربران را مسئول جبران خسارت دانست. همچنین در فرض خودآگاهی قوی، هوش مصنوعی میتواند به گونه ای برنامه ریزی شود که پیامدهای بالقوة بی احتیاطی خود را به عنوان بخشی از متغیرهایی که قبل از تصمیم گیری به سنجش آن میپردازد، لحاظ کند.
مبنای مسئولیت مدنی هوش مصنوعی در حقوق ایران
1: مسئولیت مبتنی بر تقصیر
مطابق مادة 953 قانون مدنی ایران، تقصیر به معنای تعدی و تفریط است. با این مبنا، اگر زیان دیده رابطة سببیت میان زیان و تقصیر واردکنندة زیان را احراز اند، مسئولیت اثبات میشود. مبنای تقصیر در صورتی که هوش مصنوعی به صورت نادرست استفاده شود، قابل توجیه خواهد بود؛ زیرا بر اساس این تئوری میتوان مالک، تولیدکننده، طراح، و سایر عوامل تجاری سازی هوش مصنوعی را مسئول دانست. به منظور اثبات مسئولیت تولیدکننده لازم است، ابتدا بی احتیاطی و تخطی وی از تعهدات قانونی مراقبت (که وجود این تعهد نیز نیازمند اثبات است) ثابت شود؛ و نیز اینکه ناشی از این نقض، آسیب هایی به زیان دیده وارد شده است. بنابراین، با وقوع ضرر و استناد آن به هوش مصنوعی، تولیدکننده مسئول است؛ مگر آنکه عدم تقصیر خود را اثبات کند، که امری قابل تأمل است.
2: مسئولیت محض
بر اساس این نظریه، مسئولیت ناشی از خود فعل است. از این رو، در مسئولیت محض احراز تقصیر نیاز نیست. بنابراین، این نظر در موارد خاص اعمال میشود؛ آنجا که مقنن تصریح دارد و عمدتاً مسئولیت ناشی از رفتار همراه با خطر به شمار میرود. در بیشتر سیستمهای حقوقی، این نظر در سه زمینة صدمة ناشی از حیوانات وحشی، مسئولیت ناشی از محصول، و فعالیت های خطرناک غیر متعارف کاربرد دارد و البته به نظر میرسد نمیتوان صرف تولید هوش مصنوعی را محصول خطرناک دانست؛ لکن قانون گذار میتواند برای زیان دیده، با فرض تقصیر، تسهیل در اثبات قائل شود.
3: استناد عرفی
استدلالی که در رد نظریة شیء و محصول بودن هوش مصنوعی آمده و قواعد مسئولیت ناشی از عیب تولید کالا را منطبق با هوش مصنوعی نمیداند، این است که اولاً، هوش مصنوعی سامانة یادگیری است که تجارب خود را میآموزد و تصمیمات مستقل میگیرد و فقط زمانی سازنده مسئول است که بتوان زیان را به او منتسب کرد. دوماً، ورود زیان از ناحیة این محصول (هوش مصنوعی)، به گونه ای است که گاه رابطه سببیت را از بین میبرد و زیان قابل انتساب به مالک یا متصرف و متصدیان نیست. بنابراین، تحلیل دیگر تبیین و توجیه مسئولیت هوش مصنوعی، اعم از خطرناک و غیر خطرناک، در حقوق ایران بر مبنای استناد عرفی است.
4: مسئولیت مشترک
هنگام بررسی و تعیین اشخاص مسئول، حسب مورد، ممکن است هر یک از تولیدکننده، طراح، فروشنده، مالک، یا متصرف هوش مصنوعی مسوولِ خسارتهای ناشی از آن شناخته شوند و از این رو مبنای مسئولیت نیز ممکن است به تبع و متناسب با هر یک تبیین و دگرگون شود. به طور کلی، در صورت تعدد اشخاص مسئول در فرایند تولید و توزیع و بهره گیری از هوش مصنوعی، مسئولیت ایشان در حقوق ایران، با توجه به استثنایی بودن مسئولیت تضامنی، اشتراکی است. به علاوه، با توجه به حرفه ای بودن برنامه نویسی الگوریتم های هوش مصنوعی و ملاحظات نظارتی سازمانهای تأییدکنندة ایمنی فناوریهای نوظهور، میتوان به مسئولیتهای اشتراکی بین برنامه نویسان، توسعه دهندگان، نهادهای مرتبط و در مواردی دولتها قائل شد؛ که بر پیچیدگی نظام مسئولیتی میافزاید.[3]
5: مسئولیت مبتنی بر فعل غیر (مسئولیت نیابتی)
مبنای مسئولیت مدنی هوش مصنوعی را میتوان در قالب «مسئولیت مبتنی بر فعل غیر» نیز تبیین کرد. روآوران به این دیدگاه ابتدا مسئولیت را صرفاً بر مالک بار میکنند، اما با این ایراد مواجه میشوند که اعمال هوش مصنوعی از مالک مستقل است و بر اساس طرح سازنده و طراح اقدام میکند. این نظریه با تبیین مناسب، تأمین کنندة مزایای هر دو «نظریة محصول» و «نظریة شخص حقوقی» و رافع چالشهای هر یک به نظر میرسد؛ بدین ترتیب که با پذیرش هوش مصنوعی در مقام شخص حقوقی (غیر)، مسئولیت را حسب استناد عرفی و به نحو اشتراکی به دوش یک یا چند عامل انسانی و اشخاص حقوقی مرتبط میافکند.
کلام آخر
هوش مصنوعي يک تحول نوين در علم و جهان و در ابعاد روزمره و زندگي فردي و جمعي انسان ها خواهد بود. بنابراين بزرگ ترين موج مباحث حقوقي در مصداق هاي تعيين حقوق اشخاص را نيز با خود به همراه خواهد داشت. مسئولیت هوش مصنوعی مطلب گستردهای است که شامل ابعاد فنی، اخلاقی، قانونی و اجتماعی است. برای تضمین استفاده از هوش مصنوعی به نحو اخلاقی و مسئولانه، نیاز به تدابیر قانونی، تعهدات اخلاقی، شفافیت در فرآیندها و حفظ حقوق کاربران و جامعه در برابر پتانسیل خطرات آن وجود دارد و البته برخورداری صحیح از هوش مصنوعی نیز، نیازمند آموزش و علم به مسئولیت هوش مصنوعی میباشد. پس لازم است به هنگام تجهیز سامانهها و طراحی الگوریتم های هوش مصنوعی، با شخص متخصص در این زمینه مشورت صورت گیرد. در این راستا گروه حقوقی دادگام که متشکل از اعضای هیأت علمی دانشگاه و وکلای پایه یک دادگستری است، از جمله استارت آپ هایی است که با نگاه به نیازهای روز جامعه که سرعت و دقت را طلب میکند، خدمات اینترنتی حقوقی را با تلفیق هوش مصنوعی و با استفاده از الگوریتم های آن، از جمله قراردادهای هوشمند، دادخواستهای آماده و سفارشی، شکوائیه ها و همچنین امکان مشاوره آنلاین و تلفنی را برای عموم مردم در دسترس قرارداده است و به شما عزیزان در حوزه ارائه خدمات حقوقی کمک میکند.
[1] ذاکری نیا، حانیه؛ ماهیت و مبنای مسئولیت مدنی ناشی از هوش مصنوعی در حقوق ایران و کشورهای اتحادیة اروپا، ، گروه حقوق خصوصی و اسلامی، دانشکدة حقوق و علوم سیاسی، دانشگاه شیراز، دورة بیستم، شمارة اول، 1402 ، ص139
[2] همان، ص140
[3] همان، صص 140الی 142