دسته‌بندی نشده

جبران-خسارت-ناشی-از-ضرر-و-زیان-هوش-مصنوعی

هوش مصنوعی (Artificial Intelligence) که ممکن است در هر شیء فیزیکی یا غیر آن جلوه کند، می‌تواند رباتی برای یاری انسان‌ها در امور خانگی مثل نظافت و آشپزی باشد یا در تخصص خاصی، مثل پزشکی و قضاوت و… مشغول باشد، که احکام حقوقی خاصی بر آن شغل حاکم است. در هر حال، ممکن است از این فعالیت‌ها آسیبی ایجاد شود؛ برای مثال هوش مصنوعی فعال در منزل موجبات زیان مهمانان را فراهم سازد یا هوشی که برای جراحی و درمان است، به بیماران آسیب برساند یا خودروی بدون راننده باعث تصادف و زیان جانی و مالی عابران شود. امروز موضوعات یادشده ممکن است مسئله معمول اجتماع نباشد، اما رخدادها نشان می‌دهد که در آینده نزدیک با مسائل بغرنج آن روبرو خواهیم شد، پس نیاز است که اکنون به فکر ابعاد حقوقی آن و حل مشکلات ناشی از شخصیت، مالکیت، قرارداد و مسئولیت این اشیای اطلاعات رقومی باشیم. از این گذشته مسلم است که مطالعه نهادهای نوپدید، نوری بر مسائل جاری می‌تاباند که در پرتو آن می‌توان ابعاد مبهم بسیاری از مشکلات جاری و سنتی را روشن کرد و راه‌هایی را که به اشتباه رفته ایم به ما بنمایاند.

به طور کلی جدای از شناسایی تقصیر در زیان‌های ناشی از اشیا، سه مرحله را می‌توان در تحولات احکام مسئولیت از این دست ترسیم کرد: در مرحلۀ نخست که با اشیای ساکن روبرو هستیم، مسئولیت مالک و گاه متصرف مطرح است؛ در مرحله دوم که با اشیای متحرک روبرو هستیم، مسئولیت عیب ناشی از تولید پا به میان می‌گذارد و سرانجام در مرحله سوم که اشیا استقلال رأی دارند، مسئولیت خود آنها مطرح است.[1]

در ادامه برخی از مهمترین جنبه‌ها و نظریه ها در مورد جبرات خسارت ناشی از هوش مصنوعی را بررسی خواهیم نمود.

بررسی نظریات مسئولیت حقوقی هوش مصنوعی در حقوق ایران

در نظام حقوقی ایران، برای پرداختن به مسئولیت مدنی و ضمان ناشی از خسارت، چند قانون وجود دارد که عبارت اند از: قانون مدنی، قانون مسئولیت مدنی مصوب (1339) و قانون مجازات اسلامی (مصوب 1375). علاوه بر این منابع، می‌توان به مبانی فقهی موجود در این زمینه نیز پرداخت. برای رسیدن به مسئولیت مدنیِ یک شخص، باید وجود سه رکن احراز شود: وجود ضرر، فعل زیانبارِ شخص و رابطۀ سببیت بین فعل و ضرر.
وجود ضرر عبارت است از اینکه عرف، زیانِ وارده را، چه مادی و چه معنوی (مادۀ 1 قانون مسئولیت مدنی)، ضرر تلقی کند. ضرر عرفی می‌بایست مسلم باشد؛ یعنی حدود ضرر باید معلوم و به طور کامل، محقق شده باشد. همچنین ضرر باید مستقیم باشد و توسط علتِ مرتبط رخ داده باشد، به گونه ای که رابطه سببیت برقرار باشد. در نهایت نیز این ضرر نباید جبران شده باشد. هوش مصنوعی ممکن است به اطلاعات شخصی و حریم شخصی افراد لطمه وارد کند یا در خلالِ کمک کردن در خانه یا سرکار، دچار خطا و اشتباه شود و در نتیجه مالک یا کاربرِ آن متحمل ضرر شود. عرف، خسارات وارده را مشخص می‌کند و فرقی میان هوش مصنوعی و دیگر مسبب‌های ضررِ وارده وجود ندارد. لذا مشکلی در تشخیص این زمینۀ به خصوص وجود ندارد.

مشکل اصلی در رکن دوم و سوم است. آیا فعلِ زیانبارِ هوشِ مصنوعی، خود، مستقلاً می‌تواند رابطۀ سببیت را برای قبول مسئولیت مدنی و ضمان ایجاد کند؟ یا اساساً قابلیت چنین فرضی را ندارد؟

 

1: عدم شخصیت هوش مصنوعی

طبق قانون مدنی و قانون تجارت، در ایران، دو نوع شخص مخاطب قانون قرار می‌گیرند: یکی شخص حقیقی، که فردی دارای روح است و دیگری شخص حقوقی، که به موجب قانون، شرکت ها و برخی دیگر از نهادهای حقوقی، دارای شخصیت تلقی می شوند. اساساً موجودی را می‌توان دارای حق و تکلیف دانست که دارای عقل، اراده، اختیار و حیات باشد و منشأ همۀ این ویژگی ها روح است. در قانون، اگر انسانی بنابر دلایلی، از قوۀ عاقله به طور کلی محروم باشد و یا دارای اختیار و حیات نباشد، باز مخاطب قانون است، به این استدلال که شخص مذکور یا روح دارد یا بنابر عطف به ماسبق، دارای روح بوده است.

با پیشرفت علم، هوش مصنوعی درک مستقل پیدا میکند، اما به دلیل نداشتنِ حیات و روح نمیتوان آن را شخص حقیقی نامید. همچنین در دستۀ اشخاص حقوقی نیز داخل نمی‌شود، زیرا شرکت‌ها متشکل از ارادۀ افراد حقیقی هستند که قانون به آنها اهلیت داده است. پس دارای یک هویت اعتباری هستند. اما هوش مصنوعی، به جای هویت اعتباری، دارای ویژگی‌های مادی و ملموس است و در این دسته نیز نمی‌گنجد.

2: نظریۀ نمایندگیِ هوش مصنوعی

همانطور که در بعضی از وبسایت‌های اینترنتی، قراردادهای الکترونیکی توسط الگوریتم های نیمه هوشمند، با اشخاص منعقد می‌شوند، حقوقدانان آن سیستم هوشمندِ انعقادِ قرارداد را وسیله ای برای ابراز رضایت و ایجابِ شخصِ صاحبِ قرارداد میدانند. میتوان هوش مصنوعی را نیز همان نمایندۀ کاملاً هوشمندِ شخصِ سازنده، صاحب یا کاربرِ آن دانست که صرفاً از جانب او چیزی را اراده می کند و انجام میدهد. در منظر اول، شاید این جواب صحیح به نظر برسد و به سادگی حل شود، چرا که نمایندگی در جایی مطرح است که فرد کاملاً با اراده و هدف و رضایت، خواسته ای را منتقل می‌کند و اجرای فعلی را به نماینده اش می‌سپارد. در واقع نماینده سببی است که فعلی را برای شخص دیگری انجام می‌دهد و نفع و ارادۀ خودش در انجام آن سهیم نیست و اگر ارادۀ خودش در قرارداد و یا فعلی بروز پیدا کند، قرارداد فضولی و از جانب صاحبِ نماینده نیست. البته در برخی فروضات تصور نمایندگی به طور کلی منتفی است؛ چراکه درحال حاضر، هوش مصنوعی‌های عمومی ای ایجاد شده اند که فقط هدف آنها ارتقای خودشان است. پس در این هدفِ تعیین شده، تنها مزیت و نفعِ ایجاد شده برای خودِ هوش مصنوعی است.

 

3: مسئولیت مالک و متصرف

در حقوق ایران، مبنای مسئولیت مالک و متصرف، مبتنی بر تقصیر است، چه جاندار باشد یا بی جان و چه منقول باشد یا غیر منقول. در حقیقت باید حکم داد که ابتدا مالک درباره دیگران مسئول است، مگر ثابت کند کس دیگری بر مال تسلط داشته و تأثیر دخالت او، رابطه سببیت زیان را با مالک قطع کرده است. پس اگر متصرف مال غیر رشید باشد یا تصرف او تحت نظارت یا در اثر تقصیر مالک باشد، مسئولیت مالک همچنان پابرجا است، بنابراین باید بین استفاده عملی و هدایت قانونی تفاوت بگذاریم؛ بنابراین مسئولیت مالک تا حدی است که نتوان زیان را به کس دیگری مثل هدایت کننده غیرقانونی (سارق) منتسب کرد (بند «ت» ماده ۱۵ قانون بیمه اجباری). در همۀ این موارد زیان دیده شخص ثالث است، اما اگر خود مالک یا متصرف آسیب ببینند حکم متفاوت است.

 

4: مسئولیت سازنده، برنامه نویس، کاربر یا شخص ثالث

با توجه به گستردگیِ زمینۀ هویتی و کاربردیِ هوش مصنوعی، در ایجاد ضرر باید رابطۀ سببیت را میان افراد زیادی تحلیل کرد؛ زیرا یک گروهِ متشکل از چند فرد، زمینۀ ایجاد ضرر را فراهم کرده اند. در مثال ضرر ناشی از روبات آزمایشگاهی GAAK ، در میان افراد توسعه دهنده، که شامل برنامه نویس و عصب شناس و مدیر پروژه و اعضای کاربر آموزش دهندۀ هوش مصنوعی هستند، چه کسی را باید برای پرداخت خسارت ماشین مسئول بدانیم؟ یا آیا توسعه دهندگان باید به نسبتِ میزانِ سببیت و یا به تساوی متعهد به پرداخت شوند؟

در تعددِ اسباب چند نظریه وجود دارد:

1) در قانون مدنی، درخصوص نحوۀ تقسیم در تعدد اسباب، به صراحت صحبتی نشده است، اما طبق مادۀ 526 قانون مجازات اسلامی، هرکس به میزان تأثیر رفتارش مسئول خواهد بود. برخی حقوقدانان مانند دکتر امامی نیز قائل به این تفسیر هستند.

2) طبق ماده 14 قانون مسئولیت مدنی: « هرگاه چند نفر مجتمعاً زیانی وارد آورند، متضامناً مسئول جبران خسارت وارده هستند. ‌در این مورد میزان مسئولیت هر یک از آنان با توجه به نحوه مداخله هر یک از طرف دادگاه تعیین خواهد شد». این نظر نیز مشابه نظر اول است که مسئولیت میانِ همۀ افراد تقسیم می‌شود، اما ملاک تقسیم را اثر نهایی در ضرر ندانسته، بلکه نحوۀ مداخله و نوع فعل را ملاک قرار داده است.

این دو نظر طبق قواعد و اصول فقهی منطقی به نظر میرسند، اما در زمینۀ پیشرفتۀ علمیِ هوش مصنوعی، تقریباً محال است که بتوان میزان افعال و اثراتِ مداخلۀ هر فرد را در واکنش‌های هوش مصنوعی تعیین کرد. لذا پیشنهاد میشود همۀ توسعه دهندگان را به اندازۀ مساوی مسئول دانست. مؤید این نظر هم مادۀ 365 قانون سابق مجازات اسلامی است که می گوید: « در اجتماع چند سبب در یک ضرر، همه به تساوی مسئول خواهند بود». همچنین ماده 165 قانون دریایی (مصوب 1343)، مسئولیت کشتی هایی که مرتکب خطا شده اند را براساس درجۀ تقصیرشان معین می‌کند و درنهایت اگر ممکن نباشد، به طور مساوی مسئول خواهند بود. بنابر این نظر، شرکت‌های تولید کننده هوش مصنوعی، مسئول خواهند بود و اگر جمع سازندگان شخصیت ثبتی حقوقی نداشته باشند، همه مسئول خواهند بود.

5: هوش مصنوعی همچون مجنون و صغیر

از سویی می‌توان خود هوش مصنوعی را نیز مسئول دانست، زیرا رفتارهای خود را با آگاهیِ نسبی انجام داده است. می‌توان با یک قیاس، مسئولیت را برای آن ثابت کرد. طبق مادۀ 1216 قانون مدنی، هرگاه: «صغیر یا مجنون یا غیررشید باعث ضرر شود، ضامن است». عمل حقوقیِ صغیر، در تمام معاملات مالی، غیرنافذ است، زیرا صغیر بر صلاح و فساد خود آگاهی کامل ندارد و نمی‌تواند میان امور به تمیز بپردازد. صغیر هرچند امور خود را بدون اراده و آگاهیِ کامل انجام می‌دهد، اما قانون او را مسئولِ ضررِ وارده می‌داند. هوش مصنوعی اگر از یک فرد بالغ، در درک و آگاهی، برتر نباشد، به مراتب از صغیر برتر است. پس میتوان او را نیز مسئول دانست. به طریق اولی، مجنون از هیچ قوۀ عاقله ای برخوردار نیست، اما با صِرفِ وقوعِ فعلِ زیانبار، اگر به واسطۀ سهل انگاری و عدمِ مراقبتِ ولی و قیّمش نبوده باشد، خود او مسئول خواهد بود، زیرا هدف نهایی از مسئولیت مدنی جبران ضرر است. پس اینکه چه شخصی مسئول باشد و در چه وضعی به سر می‌برد مهم نیست.[2]

 

کلام آخر

به طور مستقیم، طبق قانون مدنی، تجارت و مجازات اسلامی و همچنین فقه اسلامی، نمی‌توان هوش مصنوعی را شخص نامید، زیرا نه به موجب قانون، اعتبار حقوقی ای مثل شرکت را دارد و نه دارای روح است که مانندِ شخصِ حقیقی، مخاطبِ حق و تکلیف باشد. پس باید سازندگان، مالکان و کاربرانِ آن را مسئول دانست. اگر با ضابطۀ دقیق، سهم هریک قابل تشخیص باشد، این مسئولیت به مقدارِ سهم هریک تجزیه خواهد شد. در غیر این صورت، همگی به تساوی مسئول خواهند بود. راه بهتر برای جمع پیشرفت تکنولوژی و علم و همچنین حقوقِ فردیِ افرادِ جامعه، اجبار دولت بر بیمه کردنِ اجباریِ دارندگانِ هوشِ مصنوعی است تا ضررهای وارده از تصمیم های مستقلِ هوش مصنوعیِ عمومی در جامعه، بدون درگیری جبران شوند و همانطور که بیان گردید، شیوه محاسبه خسارت و ادله مسئول دانستن هوش مصنوعی نیز، پیچیدگی‌های خاص خود را دارد. پس لازم است به هنگام تجهیز سامانه‌ها و طراحی الگوریتم‌های هوش مصنوعی، با شخص متخصص در این زمینه مشورت صورت گیرد. در این راستا گروه حقوقی دادگام که متشکل از اعضای هیأت علمی دانشگاه و وکلای پایه یک دادگستری است، از جمله استارت آپ هایی است که با نگاه به نیازهای روز جامعه که سرعت و دقت را طلب می‌کند، خدمات اینترنتی حقوقی را با تلفیق هوش مصنوعی و با استفاده از الگوریتم‌های آن، از جمله قراردادهای هوشمند، دادخواست‌های آماده و سفارشی، شکوائیه ها و همچنین امکان مشاوره آنلاین و تلفنی را برای عموم مردم در دسترس قرارداده است و به شما عزیزان در حوزه ارائه خدمات حقوقی کمک می‌کند.

[1] رجبی، عبدالله؛ ضمان در هوش مصنوعی؛ مطالعات حقوق تطبیقی، شماره2، پاییز و زمستان 1398، صص450 الی452

[2] ولی پور، علی؛ اسماعیلی، محسن؛ امکان سنجی مسئولیت مدنی هوش مصنوعی عمومی ناشی از ایجاد ضرر در حقوق مدنی، فصلنامۀ اندیشۀ حقوقی، شمارۀ ششم، پاییز 1400، صص7الی10

 

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا