المسؤولية المدنية عن أضرار الذكاء الاصطناعي “دراسة تحليلية”


 

المسؤولية المدنية عن أضرار الذكاء الاصطناعي “دراسة تحليلية”

Civil liability for artificial intelligence damages “An analytical study”

د. عبدالرازق وهبه سيداحمد محمد، أستاذ القانون المدني المساعد، كلية العلوم والدراسات الإنسانية بالغاط – جامعة المجمعة – المملكة العربية السعودية.

Abdelrazek Wahba Sayedahmed Mohamed, Assistant Professor of Civil Law, College Of Science and Humanities at Al-Ghat, Majmaah University - Kingdom of Saudi Arabia

   منشور في  مجلة جيل الأبحاث القانونية المعمقة العدد 43 الصفحة 11.

   

Abstract

Today, science and technology provide the artificial intelligence embodied in robots, which are able to learn and organize thanks to algorithms, neural networks and other tools, making it difficult to determine who is responsible for the damage it causes, and therefore the injured person cannot obtain compensation for the damage done to him. In addition, artificial intelligence is the product of the fourth industrial revolution, and it participates greatly in our daily lives in various fields. Where AI-based robots are used in the medical, military, legal and other fields. Despite its importance in facilitating and achieving services for people and solving thorny problems at an enormous speed that exceeds the ability of man, it may cause irreversible damage. In light of this, the research aimed to present the definition of artificial intelligence and explain its origin and some areas of its use, and to identify the types of civil liability for the damages of artificial intelligence, and the extent of its flexibility to accommodate the damage caused by it, with an indication of its effects and proposed solutions to enable the victim to obtain full compensation in the event of a failure of rules Civil liability for this. It concluded by presenting the most important results reached.

Key words: Artificial Intelligence, Civil Liability, Compensation, Insurance, Compensation Funds.

 

ملخص:

تُقدم العلوم والتكنولوجيا اليوم الذكاء الاصطناعي المتجسد في الروبوتات، التي تكون قادرة على التعلم والتنظيم بفضل الخوارزميات والشبكات العصبية وغيرها من الأدوات مما يصعب تحديد الشخص المسئول عن الأضرار التي تحدثها، وبالتالي لا يستطيع المضرور الحصول على تعويض عن الأضرار التي لحقت به. ويعد الذكاء الاصطناعي نتاج الثورة الصناعية الرابعة، ويشارك بشكل كبير في حياتنا اليومية في شتى المجالات. حيث تستخدم الروبوتات القائمة على الذكاء الاصطناعي في المجال الطبي والعسكري والقانوني وغيرها من المجالات الأخرى. فعلي الرغم من أهميته في تسهيل وإنجاز خدمات للبشر وحل المشاكل الشائكة بسرعة هائلة تفوق قدرة الإنسان، ألا أنه قد يسبب أضرار لا تحمد عُقبها. وعلى ضوء ذلك جاء البحث هادفاً إلى عرض تعريف الذكاء الاصطناعي وبيان نشأته وبعض مجالات استخدامه، والوقوف على أنواع المسؤولية المدنية عن أضرار الذكاء الاصطناعي، ومدى مرونتها لاستيعاب الأضرار التي يحدثها، مع بيان آثارها والحلول المقترحة لتمكين المضرور من الحصول على تعويض كامل في حالة عجز قواعد المسؤولية المدنية عن ذلك. مختتماً بعرض أهم النتائج التي تم التوصل إليها.

الكلمات الدالة: الذكاء الاصطناعي، المسؤولية المدنية، التعويض، التأمين، صناديق التعويض.

 

 

مقدمة:

أصبح الذكاء الاصطناعي(AI) أكثر تطوراً في السنوات الماضية ويلعب دوراً مهماً في المجتمع، حيث تم استخدامه في مجالات مختلفة مثل المجلات الطبية والقانونية والعسكرية والعديد من المجالات الأخرى. فالذكاء الاصطناعي هو نظرية لتطوير الآلات لتمكينها من إتمام المهام التي تتطلب عادةً الذكاء البشري، مثل القدرة على التفكير والادراك وحل المشاكل من خلال التعلم من الأخطاء والتجارب والخبرات السابقة، واتخاذ القرار عن طريق جمع وتحليل البيانات والمعلومات، والتعرف على الكلام، وترجمة اللغة. ونتيجة لهذا التطور، أصبح الذكاء الاصطناعي قادراً على محاكات البشر، إلا أنه قد يترتب على سلوكه بعض الأضرار التي تلحق بالغير والتي يصعب مواجهتها في ظل قواعد المسؤولية المدنية التقليدية، وهذا يرجع لاتخاذه القرارات الذاتية دون تلقي أي أوامر من مالكه، مما يصعب التحكم فيه وهذه هي الأسباب التي تجعله مصدراً للمخاطر العامة. وبالتالي لا يمكن تحديد عما إذا كان الضرر وقع نتيجة سلوك تعلمه من البيئة التي يستخدم فيها أم بسبب خلل في تصنيعه. الأمر الذي يدفعنا إلى التفكير في الاعتراف بالشخصية القانونية لأن الغرض من الاعتراف بالشخصية القانونية ليس تمتع الذكاء الاصطناعي بالحقوق الكاملة للإنسان، بل التوصل إلى تحديد الشخص المسئول عن حدوث الضرر.

وبناءً على ما سلف نحاول بقدر المستطاع إضافة بعد جديد في أطار المسؤولية المدنية لمواجهة الأضرار الناجمة عن الذكاء الاصطناعي. هادفاً من وراء ذلك تمكين المضرورين من الحصول على تعويض كامل لحمايتهم من مخاطر الثورة الصناعية، والتي أصبحت تهدد البشرية بمخاطر كثيرة. فضلاً عن بيان قصور قواعد المسؤولية المدنية التقليدية عن مواجهة تلك المخاطر وإيجاد حلول بديلة من خلال التعويض التلقائي.

أولا: أهمية البحث:

تبرز أهمية البحث في قصور قواعد المسؤولية المدنية التقليدية على مواجهة الأضرار الناجمة عن الذكاء الاصطناعي. وبالتالي لا يتمكن المضرور من الحصول على تعويض كامل، أو قد يترك بدون تعويض. وذلك يرجع إلى تعدد الأشخاص المساهمين في انتاج الروبوتات القائمة على الذكاء الاصطناعي ومن ثم عدم معرفة الشخص المسئول عن الضرر الذي لحق بالمضرور. الأمر الذي يتطلب تدخل المشرع لوضع نظام قانوني يحدد بشكل دقيق كيفية التعامل مع هذه التكنولوجيا الجديدة ومواجهة الأضرار التي تنشأ عنها، من خلال آليات محددة تساعد المضرور في الحصول على حقه كاملاً دون تكبده مصاريف باهظة.

ثانيا: مشكلة البحث:

يعتبر الذكاء الاصطناعي تكنولوجيا جديدة، ليس فقط على المستوى القانوني، ولكن على مستوى المجتمع بأكمله، ولذلك ازداد خوف البشر من الأضرار التي تسببها أجهزة الذكاء الاصطناعي إذا خرجت عن نظام التشغيل الالكتروني الآلي، مما أثار إشكالية تطرح عدة تساؤلات من أهمها:

  • من الذي يتحمل المسؤولية عن تلك الأضرار؟
  • ما هو نوع المسؤولية؟
  • كيفية تعويض المضرورين؟
  • ماهي الآليات اللازمة لحصول المضرور على تعويض كامل؟

ثالثا: منهجية البحث:

يعتمد البحث على المنهج التحليلي المقارن بين بعض النظم القانونية بشأن الروبوتات كما اعتمد البحث على المنهج التحليلي للآراء الفقهية المتبعة في هذا الشأن. ولذلك قسمت البحث على مبحثين هما:

المبحث الأول: أنواع المسؤولية المدنية عن أضرار الذكاء الاصطناعي.

المبحث الثاني: الأثر المترتب على تحقق المسؤولية المدنية عن أضرار الذكاء الاصطناعي.

وكان لابد من التمهيد للبحث بمطلب للتعريف بمفهوم الذكاء الاصطناعي ونشأته.

المطلب التمهيدي

مفهوم الذكاء الاصطناعي ونشأته

يجدر بنا قبل أن نتعرض لأنواع المسؤولية المدنية عن أضرار الذكاء الاصطناعي، وبيان آثارها، أن نوضح في البداية تعريف الذكاء الاصطناعي ونشأته، وذلك على النحو الآتي:

أولاً: نشأة الذكاء الاصطناعي

تعتبر الفترة ما بين عام 1940- 1950 بداية الخطوات الأولى للذكاء الاصطناعي، مع إنشاء الشبكات العصبية. فقد أدى عمل أثنين من أطباء الاعصاب Warren Mccu and Walter Pitts إلى حساب منطقي للأفكار الأساسية في النشاط العصبي، والتوصل إلى النموذج الرياضي الأول للعصب البيولوجي، والعصب الاصطناعي([1]).

وفي عام 1956 عقد مؤتمر في  Dartmouthظهر فيه لأول مرة مصطلح الذكاء الاصطناعي على يد Johan Maccarthy. وفي الخمسينات بدأت المحاولة الأولى لإعداد نماذج آلية قادرة على إصدار سلوك بسيط، مثل التعلم، ولكن تلك النماذج لم تنجح في إصدار أي سلوك شائك، سواء كان هذا السلوك للإنسان أو الحيوان، وقد اعتمدت هذه النماذج على محاكاة الشبكات العصبية، وكانت تعمل من خلال القيام باستجابة معينة بناء على مدخلات تم إدخالها.

أي مفهوم الذكاء الاصطناعي في تلك الفترة كان يعني محاكاة العقل، وذلك من خلال إنشاء مجموعة من البرامج التي تحاكي عمل الشبكات العصبية في الدماغ وربطها معاً، للقيام بعملية تعلم معينة، وكان رأي هؤلاء العلماء أن تلك العملية تمثل أفضل الطرق لبناء أنظمة ذكية ولكنهم لم يتمكنوا من تحقيق ذلك([2]).

وفي عام 1965 توقع Herbert Simon أن الآلات ستكون قادرة في غضون عشرين عاماً على القيام بأي عمل يمكن أن يقوم به الإنسان. وفي عام 1967 توقع Marvin Minsky أنه في غضون جيل واحد سيتم حل مشكلة الذكاء الاصطناعي بشكل كبير.

إلا أنه نظراً للمشاكل التي واجهت الذكاء الاصطناعي في عام 1974، والضغط المستمر من الكونجرس لتمويل مشاريع أكثر إنتاجية، قطعت الحكومتان البريطانية والأمريكية تمويل كل الأبحاث الاستكشافية الموجهة في مجال الذكاء الاصطناعي، وهذه أول انتكاسه شهدتها أبحاث الذكاء الاصطناعي([3]).

وفي أوائل الثمانيات شهدت أبحاث الذكاء الاصطناعي صحوة جديدة من خلال النجاح التجاري للنظم الخبيرة، وهي أحد برامج الذكاء الاصطناعي التي تحاكي المعرفة والمهارات التحليلية لواحد أو أكثر من الخبراء البشريين. وبحلول عام 1985 بلغت أرباح الذكاء الاصطناعي في السوق أكثر من مليار دولار، وبدأت الحكومات في تمويلها من جديد. وفي التسعينات وأوائل القرن الحادي والعشرين حقق الذكاء الاصطناعي نجاحاً كبير([4]). وهذا يعني أن أدوات ونظم الذكاء الاصطناعي أصبحت متوفرة على أساس تجاري في الثمانينيات.

ويعتبر الأنسان الآلي من الحقول المتميزة في الذكاء الاصطناعي، الذي يهتم بمحاكاة العمليات الحركية التي يقوم بها الإنسان أو الحيوان بشكل عام، ويهدف هذا الحقل إلى القيام بالعمليات المتكررة والخطرة أو العمليات التي يعجز الإنسان عن أدائها، وتعود فكرة الأنسان الآلي إلى مئات من السنوات وتقسم الروبوتات إلى:

  1. الروبوتات العسكرية:

 وهي التي تستخدم في الأغراض العسكرية، مثل روبوت ” باكبوتس” الذي يستخدم للاستدلال على مواقع الألغام والقنابل وتفجيرها. وفي أغراض التجسس تستعمل روبوتات لها شكل حشرات صغيرة يصعب رؤيتها([5]). حيث إنها مزودة بأجهزة استشعار غالية جداً تمكنها من استكشاف البيئة المحيطة بها بدقة، كما أن بعضها مزود بوسائل للاتصال مع البشر أو للاتصال مع الأنظمة الأخرى ومن أمثلتها أجهزة حمل الذخيرة وصواريخ كروز([6]).

  1. الروبوتات الطبية:

وهي التي تستخدم في العلاج والتشخيص. ففي عام 2004، استخدم الروبوت ” دافنشي” بنجاح ولأول مرة في مستشفى الملك خالد الجامعي بالمملكة العربية السعودية لإجراء عملية جراحية نادرة في جراحة الأطفال تتعلق بربط المعدة من خلال الروبوت لطفلة تعاني من السمنة المفرطة أدت إلى عدم قدرتها على الحركة الطبيعية، كما أجريت عملية جراحية بالروبوت بمستشفى الملك خالد، لاستئصال المرارة، ولجراحة القلب، وفي مستشفى الملك فيصل التخصصي، تم إجراء عملية بالروبوتات لاستئصال ورمين حميدين من كبد سيدة([7]).

كما تم استخدام الروبوتات في بعض المجالات الخدمية، فعلي سبيل، قامت مستشفى يونيفرسال بأبوظبي بدولة الإمارات، بإدخال أول صيدلية تعمل بالروبوتات في منطقة الشرق الأوسط؛ بهدف توفير مدة الانتظار لتسلم الدواء، وتقليل احتمالات الخطأ البشري، وتقليل الازدحام([8]).

  1. الروبوتات القانونية:

استخدمت الروبوتات في التحكيم حيث تم تزويد الروبوتات المصنعة حديثاً بنماذج عالية من الذكاء الاصطناعي، وهذا يمكنها من تجميع وتحليل المعلومات المتدفقة عبر القنوات المتعددة. وبالتالي، يجد المتقاضين أنفسهم ماثلون أمام قاضي حقيقي يقرأ أوراق الدعوي، ويحقق فيها، ويصدر حكمه في النهاية. وهذا لا يمثل أي انتهاك للمبادئ القانونية الأساسية على الاطلاق طالما أن الروبوت مبرمج جيداً بطريقة تناسب وظائف التحكيم. كما أن السمة الرئيسية للتحكيم، بشكل عام، هي المرونة، التي تنتج عن الحرية الكاملة لأطراف التحكيم في التوصل إلى اتفاق التحكيم. لذا يحق لهم أن يقرروا اختيار الروبوتات كمحكمين. وقد طبق هذا النظام في كولومبيا من خلال الروبوت Siareles Robots([9]). فضلاً عن استخدامه في كندا والمملكة المتحدة والولايات المتحدة في مساعدة الأنظمة القضائية والنيابة العامة للوصول إلى الخبرات القانونية لتحقيق العدالة([10]).كما استخدمت تلك الروبوتات في زيادة كفاءة المحامين أمام القضاء، وذلك من خلال تطبيق الأساليب الحديثة في الإدارة الالكترونية منها على سبيل المثال استخدام نظام الخبير الالكتروني([11]).

 

ثانياً: تعريف الذكاء الاصطناعي

على الرغم من الاهتمام المتزايد بالذكاء الاصطناعي في الأوساط الأكاديمية والصناعية والمؤسسات التعليمية، لا يوجد تعريف موحد لما ينطوي عليه الذكاء الاصطناعي بالفعل([12]). وتشمل المجالات البحثية العديد من تعريفات الذكاء الاصطناعي، والتي تعكس عمق واتساع هذا المجال الذي شهد نمواً كبيراً في العقود القليلة الماضية. ويعد الذكاء الاصطناعي التكنولوجيا الأساسية في كثير من الأعمال التجارية والاتجاهات العلمية. لذلك، تم تعريف الذكاء الاصطناعي بعدة طرق مختلفة.

حيث عرف Alan Turing الذكاء الاصطناعي بأنه” القدرة على التصرف كما لو كان الإنسان هو الذي يتصرف من خلال محاولة خداع المستجوب وإظهار كما لو إن إنساناً هو الذي يقوم بالإجابة على الأسئلة المطروحة من قبل المستجوب”([13]).

وعرفه Elaine Rich بأنه” دراسة لجعل أجهزة الكمبيوتر أن تؤدي أشياء يقوم بها الإنسان بطريقة أفضل”([14]).كما عرفه and Shortcliffe Buchanan مركزين على الاختلاف في تقنيات البرمجة المستخدمة في الذكاء الاصطناعي بأنه” فرع من علوم الكمبيوتر يتعامل مع الرموز والطرق الغير حسابية لحل المشكلة”([15]).

وعرفه Marvin Lee Minsky بأنه بناء برامج الكمبيوتر التي تنخرط في المهام التي يقوم بها البشر بشكل مرضي، لأنها تتطلب عمليات عقلية عالية المستوي مثل: الإدراك الحسي “التعلم وتنظيم الذاكرة والتفكير النقدي”([16]).

وعرفة John McCarthy بأنه علم وهندسة صنع الآلات الذكية، خاصة([17]). وفي المقابل يعرفه كور زويل وهو من أشهر الباحثين في مجال الذكاء الاصطناعي بأنه” فن تصنيع الآلات القادرة على القيام بعمليات تتطلب الذكاء مثلما يقوم بها الإنسان”([18]).

ومن جميع ما تقدم يمكننا تعريف الذكاء الاصطناعي بأنه وسيلة لإعداد الحاسوب أو الروبوت، للتحكم فيه بواسطة برنامج يفكر بذكاء بنفس الطريقة التي يفكر بها البشر الأذكياء. فعلم الذكاء الاصطناعي هو أحد علوم الحاسب الآلي الحديثة التي تبحث عن أساليب متطورة لبرمجته للقيام بأعمال واستنتاجات تشابه في أضيق الحدود الأساليب التي تنسب لذكاء الإنسان.

فالهدف من الذكاء الاصطناعي فهم العمليات الذهنية الشائكة التي يقوم بها العقل البشري أثناء التفكير ومن ثم ترجمة هذه العمليات الذهنية إلى ما يوازيها من عمليات حسابية تزيد من قدرة الحاسب على حل العمليات الشائكة([19]).

فإذا أردنا أن نعرف كيف يقوم البشر بالسلوك الذكي، ينبغي علينا أولاً أن نفهم الأنشطة التي تعتبر ذكية بالمعنى الفكري والعلمي والنفسي والتقني. فالمهارة البشرية والخبرة في العديد من التخصصات تم تطويرها وتخزينها في العقل الباطن بدلاً من أن يكونا متاحين بناء على طلب واضح من الذاكرة([20]).ولما كان الذكاء الاصطناعي هو أنظمة الكمبيوتر التي تحاكي البشر في تصرفاتهم، فإن هذا لا يعني أن إي قطعة برمجية تعمل بخوارزمية محددة، وتؤدي مهام معينة تعتبر ذكاء اصطناعي، فلكي نطلق هذا المسمى على أنظمة الكمبيوتر لابد أن تتوافر فيها مجموعة من الخصائص منها ([21]):

  • إمكانية جمع وتحليل البيانات والمعلومات وإنشاء علاقة بينهم لاتخاذ القرار.
  • القدرة على التفكير والادراك وحل المشاكل المعروضة في غياب المعلومة الكاملة.
  • القدرة على التعلم من الأخطاء والتجارب والخبرات السابقة وتوظيفها في مواقف جديدة.

ويفهم من ذلك بأنه ليس كل إنسان آلي قادر على التفكير، فلكي تثبت له تلك الصفة ينبغي أن تتوافر لديه القدرة على التحليل والتعلم من البيئة التي يوجد فيها، بحيث يستطيع أن يحلل البيانات والوقوف على حجم المشكلة ومن ثم اتخاذ القرار.

ويثور هنا تساؤل هل يجوز الاعتراف بالشخصية القانونية للذكاء الاصطناعي؟

إن منح الشخصية القانونية للروبوتات الذكية، يبدو أمراً مهم لأنه يحد من مسئولية المالك. ولكن هذا الخيال القانوني لا يفي بالمعايير التقليدية للشخصية القانونية، وذلك للمبالغة في تقدير القدرات الفعلية للروبوتات. فضلاً عن أن منح الشخصية القانونية للروبوتات مثل الشخص الطبيعي أمراً صعب للغاية، لأن الروبوت في هذه الحالة سيتمتع بحقوق الإنسان، مثل الحق في الكرامة والمواطنة. وهذا يتعارض مع ميثاق الحقوق الأساسية للاتحاد الأوربي واتفاقية حماية حقوق الإنسان والحريات الأساسية. كما أنه لا يمكن منحه الشخصية القانونية على غرار الشخص المعنوي، وذلك لأن الشخص المعنوي يخضع لتوجيه الأشخاص الذين يمثلونه، وهذا لا ينطبق على الروبوتات الذكية([22]). فالاعتراف بالشخصية القانونية للذكاء الاصطناعي ككيان قانوني، سيؤدي إلى تخلص المنتجين والجهات المسئولة الأخرى من مسئوليتهم( [23]).

ويري بعض الفقه([24]) أن الشخصية القانونية الطبيعية تمنح للكيان المادي للإنسان بصرف النظر عن إدراكه وفهمه، وهذا يعد أمر شائك بالنسبة للذكاء الاصطناعي. فربط المسؤولية القانونية بالشخصية القانونية أمر غير صحيح، لأنه ليس كل من يتمتع بالشخصية القانونية يعد مسئولاً من الناحية القانونية عن أفعاله، فالشخص غير العاقل يتمتع بالشخصية القانونية والذمة المالية المستقلة رغم أنه يفتقد للمسئولية المدنية. وهذا ليس معناه أن مثل هذه الأشخاص تعفي من المسؤولية مطلقاً، بل يتم نقل عبء هذه المسؤولية للشخص المسئول عنه ومطالبته بالتعويض.

ويتضح مما سبق أن الاعتراف بالشخصية القانونية للذكاء الاصطناعي على غرار الشخص الطبيعي يعتبر اعتداء على حقوق الانسان، فضلاً عن الاعتراف بالحقوق والالتزامات هو الذي يعكسها. كما أنه لا يمكن منحه تلك الشخصية للذكاء الاصطناعي كشخص اعتباري، لأن الشخص الاعتباري له ذمة مالية مستقلة، ويتم إدارته من قبل أشخاص طبيعيين.

ولكن في ظل التطور الذي وصلت إليه الروبوتات الذكية حتى أصبحت تحاكي البشر، هذا يدعونا إلى التفكير في منحها الشخصية القانونية لأن الغرض من منح الشخصية ليس تمتع الذكاء الاصطناعي بالحقوق الكاملة للإنسان، بل التوصل إلى تحديد الشخص المسئول عن حدوث الضرر. فنحن نعلم أن الذكاء الاصطناعي يشترك في إنشائه ككيان أكثر من شخص (مثل المنتج والمبرمج) فضلاً عن استخدامه من قبل المالك. فعندما يحدث الضرر يضطر الضحية للبحث عن المسئول. وهذا يدفعنا إلى القول بأنه يتعين معاملة كيانات الذكاء الاصطناعي كشخصيات قانونية، لإخضاعهم للمساءلة القانونية مثل الشركات، لأن هذا من شأنه أن يعزز النظام القانوني الحالي لمواجهة التحديات التي يمكن أن يثيرها الذكاء الاصطناعي. وذلك عن طريق إعداد النظام القانوني الحالي للتغير التكنولوجي وتمكين تلك الكائنات من التفاعل مع البشر وإفادتهم.

وخير مثال على ذلك ما حدث في قضية In Klein v. U.S التي تتلخص وقائعها في قيام الطيار بوضع الطائرة على الطيار الآلي أثناء الهبوط على الرغم من تحذير اللوائح من استخدامه في ذلك. مما أدى إلى إلحاق ضرر جسيم بالطائرة بسبب الهبوط السيء من قبل الطيار الآلي. فعلى الرغم من وجود خطأ من جانب الطيار الآلي إلا أن الطيار كان وراء هذا الخطأ، وبالتالي كان مسئولاً عن الأضرار التي لحقت بالطائرة([25]).

ونستنتج من ذلك أن الغرض من الاعتراف بالشخصية القانونية للذكاء الاصطناعي هو التوصل إلى تحديد الشخص المسئول عن الأضرار التي تسبب فيها الذكاء لاصطناعي. فالاعتراف للذكاء الاصطناعي بالحقوق، يحميه من اعتداء الغير، كما أن تحمله الالتزامات الناجمة عن أفعاله سيحمي الأشخاص الأخرين.

المبحث الأول

أنواع المسؤولية المدنية عن أضرار الذكاء الاصطناعي

 سوف نقوم بدراسة أنواع المسؤولية المدنية المختلفة وفقاً لوظيفتها التقليدية، وتحليلها لبيان عما إذا كان يمكن تطبيقها على الذكاء الاصطناعي أم لا. لأن تطبيق المسؤولية العقدية أو المسؤولية التقصيرية أو المسؤولية الموضوعية على الأضرار الناجمة عن الذكاء الاصطناعي يتوقف على الظروف التي أدت إلى حدوث مثل هذه الأضرار. وهذا ما نتناوله في هذا المبحث في ثلاثة مطالب، خصصت الاول للمسؤولية العقدية، والثاني للمسؤولية التقصيرية والثالث للمسؤولية الموضوعية.

المطلب الأول

المسؤولية العقدية

وفقاً لقانون العقود، حينما يدخل طرفين في تعاقد صحيح ولم ينفذ أحد الأطراف التزامه المحدد في العقد، يحق للطرف الأخر التحلل من التزامه فضلاً عن المطالبة بالتعويض. ومبلغ التعويض يمكن أن يحدد في العقد ذاته، فإذا لم يحدد، يمكن للمحكمة أن تحدده على أساس ما لحق المضرور من خسارة([26]).

 وبالتالي يتحمل المدين الخسائر المتوقعة أو الممكن توقعها وقت تحمل الالتزام كنتيجة محتملة لعدم تنفيذ التزامه. فيتعين للوفاء بالالتزام بالتسليم أن يكون المحل المسلم مطابقاً للقدر وللمواصفات المتفق عليها أو التي تطلبها قواعد المهنة وعرف التعامل([27]).

وللإخلال بالعقد أشكال متعددة منها، على سبيل المثال، عدم قيام البائع بتسليم المبيع طبقاً للشروط والمواصفات المحددة في العقد. ففي أوربا إذا كان الروبوت غبر مطابق للعقد يحق للمشتري انهائه، وبالتالي تقوم المسؤولية العقدية عندما لا يكون أداء الروبوت كما هو متفق عليه في العقد، حتى ولو لم يحدث ضرر أو أذى([28]).

ويؤدى عدم مطابقة الروبوت لما هو محدد في العقد إلى إنشاء الحق في التعويض للمشتري. ولذلك لا يجبر الدائن على قبول شيء غير المستحق، ولو كان هذا الشيء مساوي له في القيمة أو كانت له قيمة أعلى (م341 مدني مصري)([29]). كما يلتزم البائع بتسليم المبيع للمشتري بالحالة التي كان عليها وقت التعاقد(م 431 مدني مصري)([30]). فضلاً عن التزامه بضمان صلاحية المبيع للعمل، فلا شك أن هذا الالتزام الأخير يعد التزاماً تعاقدياً. وتعتبر هذه الالتزامات التزاماً بتحقيق نتيجة([31]). ولذلك إذا حدث تغير في حالة المبيع، فإن حكمه يختلف بحسب ما إذا كان تغيراً إلى الأسوأ أم إلى الأفضل([32]). ويلاحظ أنه لا يتم تنفيذ الالتزام بشأن ضمان صلاحية المبيع للعمل بمجرد تحقق هذه النتيجة، بل يتعين انجاز ذلك بالطريقة التي تتفق مع مشتملات العقد وما يوجبه حسن النية.

فإذا ظهر في المبيع عيب ينقص من قيمته أو يجعله غير صالح لما أعد له لزم البائع ضمان ذلك. وذلك لأن المشتري نظر عند تحديد الثمن إلى الفائدة المرجوة من المبيع، فإذا كان في المبيع عيب ينقص من مقدار الفائدة، كان وجود الثمن تحت يد البائع بلا مبرر مشروع. فضلاً عن أن المشرع المصري، بخلاف المشرع الفرنسي، مد ضمان البائع للعيوب الخفية إلى الصفات التي ضمن البائع للمشتري وجودها في المبيع، والتي لا يعتبر مجرد توافرها آفة طارئة([33]).

ويشترط في العيب الموجب للضمان أن يكون غير معلوم للمشتري، وأن يكون غير ظاهر، وأن يكون موجود في المبيع قبل البيع، وأن يكون جسيماً. وفي الواقع، وفقاً لأغلبية الفقه، أن قواعد ضمان العيب الخفي ذات نطاق مرن حيث تشمل الأضرار المادية الناجمة عن الأمان التي تحدثها الروبوتات القائمة على الذكاء الاصطناعي([34]).

وعلى هذا النحو تنطبق أحكام المسؤولية العقدية، إذا لم يتم تسليم الروبوت وفقاً لأحكام وبنود العقد المبرم بين البائع (المنتج) والمشتري (المستخدم) ([35]). فمن الواضح أن الروبوت مجرد سلعة أو منتج متبادل. ولذلك يري بعض الفقه أن تطبيق قواعد المسؤولية التقليدية في حالة الإخلال بالعقد لا يسبب أي مشكلة([36]).

ولكن هذا الرأي محل نظر لأن تطبيق المسؤولية العقدية على الذكاء الاصطناعي، لم يكون كافياً لمواجهة الأضرار التي يحدثها، فضلاً عن أنها توجه للشخص الطبيعي في حالة إخلاله بالعقد لا الذكاء الاصطناعي، حيث أن هذا الأخير لا يمكن أن يكون طرفاً في العقد. وحتى إذا افترضنا قيام الأطراف بإضافة بنود في العقد لوصف قدرة الذكاء الاصطناعي ومخاطرة، فإن العقد لا يولد سوى التزام ببذل عناية لا بتحقيق نتيجة.

ومن الجدير بالذكر أنه طبقاً للقواعد العامة الواردة في القانون المدني، لا يكفي لإقامة المسؤولية العقدية وجود خطأ في جانب المدين وأن يلحق ضرر بالدائن، بل لابد أن يكون هذا الخطأ هو السبب في الضرر. والمشرع لم يلقي على الدائن عبء اثبات علاقة السببية بين الخطأ والضرر، بل أفترض أن الضرر راجع إلى الخطأ. وعلى المدين إذا أدعى عكس ذلك أن ينفي علاقة السببية بين الخطأ والضرر. وفي هذا تنص المادة 215 مدني مصري على أنه ” إذا استحال على المدين أن ينفذ الالتزام عينياً حكم عليه بالتعويض لعدم الوفاء بالتزامه. مالم يثبت أن استحالة التنفيذ نشأت عن سبب أجنبي لا يد له فيه”([37]).

 ومن هنا يستطيع الشخص المسئول عن الروبوتات الذكية التنصل من المسؤولية إذا أثبت أن الضرر الذي وقع يرجع إلى سبب لا يكون مسئولاً عنه، الأمر الذي يؤدي في النهاية إلى صعوبة حصول الضحية على تعويض مالم يكن مستحيلاً.

المطلب الثاني

المسؤولية التقصيرية

تقوم المسؤولية التقصيرية على الإخلال بالتزام مصدره القانون. وهذه المسؤولية تفترض عدم وجود أي علاقة بين المدين والدائن([38]). فالمسؤولية التقصيرية هي نظام المسؤولية العام الذي يطبق على الخطأ المدني الذي يرتكبه أحد الأشخاص ضد شخص آخر. وعلى الرغم من وجود اختلاف بين أنظمة القانون الأنجلكسوني والقانون المدني([39])، إلا أننا نحاول بقدر المستطاع أن نلخص أن المسؤولية التقصيرية تقوم على الخطأ، وهو الاخلال بالالتزام القانوني العام بعدم الاضرار بالغير. ومن هنا يتضح أن الخطأ يقوم على عنصرين: أولهما مادي وهو التعدي أو الانحراف، والثاني معنوي وهو الادراك والتمييز([40]).

ويشترط لحصول المضرور على التعويض وفقاً لنظام المسؤولية التقصيرية أن يثبت الخطأ والضرر وعلاقة السببية بينهما. ويمكن تطبيق ذلك على الشخص المسئول عن الأضرار الناجمة عن استخدام الذكاء الاصطناعي. فعلى سبيل المثال، إذا اعتمد الطبيب على برنامج دعم القرار السريري المدعوم بالذكاء الاصطناعي لوصف الدواء، إلا أن البرنامج أصدر توصية خاطئة كان يمكن ملاحظتها وتم تجاهلها من قبل طبيب متخصص إذا وجد في مثل ظروفه، عندئذ من الممكن مساءلة الطبيب عن الأضرار الناتجة والإصابات المتوقع حدوثها بالمريض وليس عن التوصية الخاطئة الصادرة من الذكاء الاصطناعي.

ومن الجدير بالذكر أن تطبيق قانون المسؤولية التقصيرية على الذكاء الاصطناعي يواجه تحديات كثيرة للغاية. لأنه يجب على المحاكم التي تواجه متطلبات المسؤولية الناشئة عن أفعال الذكاء الاصطناعي تحديد الشخص الاعتباري أو الطبيعي المسئول عن الضرر الناجم عن تلك الأفعال. إلا أن الاستقلالية المتزايدة للذكاء الاصطناعي تجعل من الصعب تقييم أساس المسؤولية، إذا لم يكن مستحيلاً في بعض الحالات.

وفي السيناريو الذي يتخذ فيه الذكاء الاصطناعي قرارات مستقلة، لا تكفي القواعد التقليدية لإقامة المسؤولية القانونية عن الضرر الذي أحدثه الروبوت، لأنها لا تساعد على تحديد الطرف الذي أحدث الضرر. فوفقاً لقانون المسؤولية التقصيرية، فإن إثبات الإخلال بالواجب أو الخطأ المرتكب من قبل الشركات المصنعة أو المشغل أو مستخدم الذكاء الاصطناعي وعلاقة السببية بينه وبين الضرر ليس بالأمر اليسير عندما يتعلق الأمر بالاستقلالية المتزايدة للذكاء الاصطناعي([41]).

ففي فرنسا توضح المادة 1242 من القانون المدني الفرنسي الصادر بالمرسوم رقم 131 لسنة 2016، والتي تقابلها المادة 178 من القانون المدني المصري، بأن الشخص لا يسأل عن الأضرار الناجمة عن فعله الشخصي فحسب، بل يسأل أيضاً عن الضرر الناتج من فعل الأشخاص الذين يسأل عنهم أو عن الأشياء التي في حراسته. ونظراً لأنه لا يمكن اعتبار الذكاء الاصطناعي شخصاً، يري بعض الفقهاء أن تطبيق المسؤولية عن حراسة الأشياء عليه تبدو مناسبة([42]).

وهذا يمكن أن يكون في حالة الروبوتات المساعدة. إلا أنه في بعض الظروف، في وقت وقوع الضرر، يكون من الصعب تحديد من له سلطة الرقابة عليه. فمثلاً إذا سافر مالك وحارس الروبوت المساعد إلى رحلة، وأعطاه لصديقه، الذي يمكنه استخدامه في غيابه. هنا تظهر عدة تساؤلات وهي هل يصبح الصديق حارساً عليه؟ هل يكون لدى الصديق القدرة على التحكم في الروبوت ومراقبته وتوجيهه؟ هل يمكن القول بأنه تم نقل الحراسة من المالك إلى صديقه؟ فالإجابة على هذه الأسئلة نرجع إلى الفقه. قد اعترف الفقه في ظروف معينة بنقل الحراسة. حيث يري André Nadeau، بأنه يمكن نقل الالتزام بالحراسة إلى أحد الأشخاص الذي يعهد إليه المالك باستخدام الشيء، أو حفظه، ويكون له الحق في إدارته والإشراف عليه، واتخاذ التدابير اللازمة لمنع وقوع الضرر([43]). وهذا ما أشار إليه أيضاً Jean Pineau et Monique Ouellette بقوله أنه يمكن نقل الحراسة، وأن مالك الشيء لا يكون بالضرورة هو الحارس: فيمكن أن يكون المستعير أو المستأجر هو الحارس([44]).

وهنا يتضح أن الصديق الذي نقل إليه الروبوت حارس له إذا تخلى مالكه عن سلطته لصديقه، أما إذ احتفظ المالك بسلطته فيصبح هو الحارس للروبوت.

وفي حالة سرقة الروبوت المساعد تنتقل الحراسة إلى السارق، ولا أثر لكون سيطرته على الشيء غير مشروعه، فالعبرة بالسيطرة الفعلية وليس القانونية([45]).

ويميز القانون الفرنسي بين الحراسة القانونية والحراسة الفعلية، وقد استقر القضاء في فرنسا منذ الحكم الصادر في قضية Franck 1941على الأخذ بنظرية الحراسة الفعلية التي تقوم على أن الحارس هو الذي تكون له السلطة الفعلية على الشيء فيما يتعلق برقابته وإدارته وتوجيهه([46]).

أما في مصر فقد أجمع الفقه بأن العبرة بالحراسة الفعلية عن تحديد المسؤولية عن الأضرار الناجمة بفعل الأشياء([47]).

وبناء على ما سلف، يتطلب لإقامة مسئولية الحارس على الشيء ممارسة سلطة الاستخدام والتوجيه والسيطرة عليه. ولكن هذا لا يتحقق في مجال الروبوتات القائمة على الذكاء الاصطناعي والتي تتمتع بالاستقلالية، لأن هذه الأخيرة تتعارض مع سلطة الحارس في السيطرة عليه. وهذا لا يعد نقلاً للحراسة، بل اخفاء تام لها([48]).

كما ذهب اتجاه في القانون الفرنسي إلى التمييز بين حراسة التكوين وحراسة الاستعمال ([49]) ، نظراً للطبيعة المعقدة للأشياء، على وجه الأخص الروبوتات القائمة على الذكاء الاصطناعي. فالأولى تترك للمُصنع الذي يكون لديه معلومات عن وظيفة المنتج أكثر من المالك أو المستهلك، أما الثانية تترك للمستهلك([50]). ألا أن هذه التفرقة تثير الكثير من الصعوبات العملية أمام المضرور وتتمثل في معرفة سبب الضرر، هل يرجع إلى مكونات الشيء أم استعماله قبل رفع دعواه، مما يؤدي لضياع الفائدة الأساسية من المسؤولية عن الأشياء، وهي إعفاء المضرور من البحث عن سبب الحادث([51]).

وطبقاً للقواعد العامة، لا يمكن للحارس التحلل من مسئوليته إلا إذا أثبت أن الضرر الحادث كان بسبب أجنبي لا يد له فيه. فإذا ظل سبب الضرر مجهولاً، فإن الحارس يكون مسئولاً مع ذلك عن الضرر. والسبب الأجنبي هو واقعة لا يد للحارس فيها جعلت من حدوث الضرر أمراً محتماً. ويعد من قبيل السبب الأجنبي القوة القاهرة ويشترط في الحادث لكي يعتبر قوة قاهرة: أن يكون خارجياً، وغير ممكن توقعه أو تلافيه، ولا يمكن درء نتائجه. كما يعد من قبيل السبب الاجنبي خطأ المضرور والغير ولهم تأثير على مسئولية الحارس، أي إذا ثبت أن الضرر الذي لحق بالمضرور كان بسبب خطأ المضرور أو الغير فإن المسؤولية ترتفع عن الحارس([52]).

 ولذلك يستطيع الحارس التنصل من المسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي إذا أثبت، على سبيل المثال، أن الضرر حدث نتيجة عيب في التصميم أدى إلى السير الخاطئ للروبوت، أو أن الضرر الناجم عن الروبوت كان بسبب البرق الذي أدى إلى حدوث ماس بالدائرة الكهربائية الخاصة به. فإذا كان من الناحية النظرية افتراض خطأ الحارس، فهذا في الواقع مختلف تماماً، وذلك بسبب خصوصية هذا المجال([53]).

ومن هنا يتضح لنا أن تطبيق فكرة الحراسة على الذكاء الاصطناعي، تثير مشاكل ترجع إلى درجة الاستقلالية التي يتمتع بها الذكاء الاصطناعي. حيث أن الإنسان الآلي الذي يستطيع اكتساب الخبرة والتعلم من أخطائه، فضلاً عن اتخاذه القرارات الذاتية دون تلقي أي أوامر من مالكه، مما يصعب التحكم فيه. وهذا يجعله غير خاضع لرقابة وسيطرة حارسه، وبالتالي عدم تحقق مسئوليته إذا ثبت أن الضرر الذي وقع كان راجع إلى فعل لم يكن مسئولاً عنه.

ومن الجدير بالذكر أن إثارة مسئولية الحارس عن الأضرار الناجمة عن الذكاء الاصطناعي، يعني تحمل الحارس الأخطاء الفادحة التي تنجم عن خطوات تصميم الذكاء الاصطناعي في جميع مراحله، وهذا يعد أمر غير واقعي. فضلاً عن أن الذكاء الاصطناعي يدخل في تكوينه البرامج وهي شيء غير ملموس، الأمر الذي يصعب معه تحديد من هو الحارس المسئول عن الأضرار التي أحدثها الذكاء الاصطناعي. ونتيجة لذلك لا يمكن تطبيق وصف الحارس بالمعنى الحالي على برامج الذكاء الاصطناعي، وذلك لاصطدامه بجدار مزدوج، أحدهما يتعلق بعلم الوجود (Ontology)([54])، والأخر يتعلق بالواقع العملي. وبالتالي إذا أردنا تطبيق فكرة الحراسة على الذكاء الاصطناعي، ينبغي تعديل المفهوم الحالي للحراسة بشكل دقيق.

المطلب الثالث

المسؤولية الموضوعية

يؤسس التوجيه الأوربي([55]) رقم 85/374/ ECمسئولية المنتج على مبدأ المسؤولية بدون خطأ في حالة الضرر عن المنتج المعيب. وإذا كان أكثر من شخص (الشركة المصنعة أو المورد أو المستورد) مسئول عن نفس الضرر، تكون المسؤولية تضامنية([56]).ومن ثم لا يخلو قانون الاتحاد الأوربي كُليةً من القوانين التي تحكم المسؤولية خارج النطاق التعاقدي. حيث يقدم للدول الأوربية إطار شامل للمطالبة بالتعويض على أساس الضرر الناجم عن المنتجات. فلا يشترط وفقاً للتوجيه المطالبة بالتعويض على أساس اكتشاف الخطأ في جانب الشركة المصنعة. ويؤكد واضعي التوجيه، أنه وفقاً لأحكامه، أن النظام المطبق هو المسؤولية الموضوعية. ومع ذلك لا يكفي لإقامة المسؤولية أن يحدث المنتج ضرر للأخرين. بل يتطلب أن يكون المنتج معيباً، وأن العيب هو سبب الضرر المطالب بالتعويض عنه([57]) .

وقد عرفت المادة السادسة من التوجيه الأوربي، المنتج المعيب بأنه المنتج الذي لا يتوافر فيه الأمان المشروع، الذي يمكن أن ينتظر. وهذا ما تبناه المشرع الفرنسي في المادة 1386/4 من القانون المدني الفرنسي التي تقول بأن ” المنتج يكون معيباً في نظر القانون عندما لا يستجيب للسلامة المنتظرة منه قانوناً”. وبالتالي يمكن استنتاج درجة الأمان المتوقعة من جميع الظروف المحيطة بالروبوت([58]).

 فالعيب يكون محلاً للمسئولية في المنتج الذي لا تتوفر فيه معايير الآمن والسلامة، فهو ﻻ يقتصر على المنفعة التي يتوقع أن تتحقق منه، إضافة إلى ذلك لا يلتزم المضرور سوى بإثبات الضرر والعيب([59]). ولعلها المبررات التي دفعت واضعي التوجيه الأوربي إلى عدم الأخذ بعين الاعتبار بعنصر الخطأ في النظام القانوني لمسئولية المنتج. وتأكيداً لذلك، فإن المادة الأولى من التوجيه الأوربي تنص على مبدأ أساسي بقولها ” يسأل المنتج عن الأضرار التي سببها المنتج المعيب”. وبقدر الاختصار الوارد بتلك المادة، يتضح أن التوجيه الأوربي يركز على المسؤولية بدون خطأ والمرتبطة بفكرة العيب، دون الالتفات للسلوك الخاطئ([60]) .

أما في فرنسا فقد نصت المادة 1368/1 من القانون المدني الفرنسي بأنه” يُسال المنتج عن الأضرار الناتجة عن منتجاته المعيبة سواء ارتبط مع المضرور بعقد أم لا” فمن الواضح أن النص يؤسس مسئولية المنتج على أساس فكرة المخاطر. ولعل القانون بهذا النص جاء متوجساً لمسار طويل لإقامة مسئولية المنتج على أساس موضوعي، بدأه الفقه، وردده القضاء الفرنسي، مهتدياً بأحكام التوجه الأوربي([61]).

وفي حالة وجود أكثر من شخص ساهم في إنتاج السلعة حتى تصل إلى المستهلك في شكل نهائي، فهنا نكون أمام حالة تعدد المنتجين في إنتاج السلعة التي نشأ عنها الضرر، والمبدأ المستقر في القانون الفرنسي وكذا التوجه الأوربي، هو إلزام المنتجين في حالة تعددهم بالتضامن في مواجهة المضرور. ولكن البحث عن المسئول يكون أمراً شائكاً للغاية حينما يكون برنامج تشغيل الروبوت القائم على الذكاء الاصطناعي مفتوح المصدر([62]).

وفي مصر تنص المادة 67/1 من قانون التجارة رقم 17 لسنة 1999بأنه ” يسأل منتج السلعة وموزعها قبل كل من يلحقه ضرر بدني أو مادي يحدثه المنتج إذا أثبت هذا الشخص أن الضرر نشأ بسبب عيب في المنتج”([63]) . فمن الواضح أن المشرع المصري أقر نظام خاص لمسئولية المنتج والموزع، وأسسه على فكرة المسؤولية الموضوعية المرتبطة بالضرر. وهذا الحكم الذي اقره القانون المصري يبدو متوافق مع نظرية الخطر المستحدث، التي تقيم التعويض على فكرة المخاطر([64]) .

لذا تنطبق المسؤولية الموضوعية على أي منتج باستثناء نظام الخبير إذا صنف كخدمة، وعلى العكس من ذلك، إذا كان النظام يوفر فقط تحليلاً روتينياً للبيانات، يعين البرنامج كمنتج([65]) . وتقوم هذه المسؤولية على نظرية المخاطر. ويلاحظ أن تطبيق المسؤولية الموضوعية على برمجيات النظام الخبير أمر ذو طبيعة خاصة لسببين([66]) : الأول: قد عرف المنتج بشكل موسع ليشمل الممتلكات غير الملموسة، مما يزيد من تطبيقها على البرمجيات. والثاني: يخدم بعين الاعتبار السياسة العامة.

ويبدو للوهلة الأولى، أن مسئولية المنتج نظاماً فعالاً في مجال الذكاء الاصطناعي، لأنه يحمل مصنع المنتجات المسؤولية عن الأضرار التي تحدثها. على سبيل المثال عندما يتم تصنيع أو تصميم سيارة ذاتية القيادة بطريقة معيبة تشكل خطراً جوهرياً على من حولها، أو حينما تفشل الشركة في اخطار العملاء بالمخاطر المرتبطة بالمركبة، تطبق مسئولية المنتج([67]).

ولكن تطبيق مسئولية المنتج على الذكاء الاصطناعي يواجه تحديات كبيرة، لأنه لا يمكن السيطرة عليه لأن عنصر الخطر داخل في وظيفته. وهذه هي الأسباب التي تجعل الذكاء الاصطناعي مصدراً للمخاطر العامة([68]) . كما ترجع صعوبة تطبيق المسؤولية الموضوعية للمنتج في بعض الحالات على الذكاء الاصطناعي، إلى أنه هو نظام التعلم الذاتي الذي يتعلم من تجربته، ويمكنه اتخاذ قرارات مستقلة. وبالتالي، سيكون من الصعب على المدعى اثبات وجود عيوب في منتجات الذكاء الاصطناعي، لاسيما عندما تكون هذه العيوب موجودة فيها لحظة خروجها من يد مصنعها أو مطورها. فمن الصعب الاعتقاد بأنه من الممكن رسم خط فاصل بين الأضرار الناجمة عن الذكاء الاصطناعي، أي المستوحاة من القرار الذاتي والأضرار الناتجة من المنتج المعيب([69]).

كما أنه ليس بالأمر اليسير تحديد الشركة المصنعة، نظراً لتعدد الجهات المشاركة في تطوير الذكاء الاصطناعي. وبناء على ذلك ستظهر حالات لا يمكن اصلاح الضرر فيها على أساس المسؤولية عن المنتجات المعيبة، خاصة إذا كان العيب متعلق بصورة حصرية بــ” بالآثار السلبية للتعلم واستقلالية اتخاذ القرار”. فمثلاً، يمكن أن يؤدي النظام المستخدم في غرف التجارة، مثل الذكاء الاصطناعي Loxm Moi، إلى خسائر مالية ضخمة، ليس بسبب برمجته الأولية، ولكن بسبب عدم الاكتراث في الاستخدام من قبل مالكه([70]).

والمتطلع إلى ما تفعله المحاكم في العديد من الدول([71])بشأن المنتج المعيب، وعلى وجه الأخص عيوب التصميم، تقترح اثباته عادة بإحدى الطرق الاتية([72]):

  • إثبات أن المنتج معيب.
  • إقامة الدليل على انتهاك معايير السلامة.
  • الموازنة بين مخاطر المنتج وفوائده.
  • مقارنة المنتج بمنتج أخر.

ومع ذلك، لا يبدو مناسباً استخدام إي من هذه الطرق مع الخوارزميات. وتجدر الإشارة بأن المنتج يستطيع أن يتحلل من مسئوليته طبقاً للقواعد العامة في القانون المدني أذا أثبت أن الضرر راجع لسبب أجنبي لا يد له فيه كما ذكرنا من قبل. وبجانب ذلك توجد أسباب خاصة نصت عليها المادة السابعة من التوجه الأوربي والتي تقابل المادة 1245 من القانون المدني الفرنسي إذا أثبتها المنتج ترفع عنه المسؤولية وهي([73]):

  • إذا أثبت أنه لم يضع المنتج للتداول.
  • إذا أثبت أن العيب لم يكون موجود في المنتج لحظة التداول أو نشأ بعد تداوله.
  • إذا أثبت أن المنتج لم يتم تصنيعه للبيع أو توزيعه بأي صورة من صور التوزيع لغرض اقتصادي.
  • إذا أثبت أن العيب يرجع إلى مطابقة المنتج للقواعد التشريعية التي تصدرها السلطات العامة.
  • إذا أثبت أن حالة المعرفة العلمية والفنية لحظة طرح المنتج للتداول لم تسمح له أن يكشف وجود العيب.
  • إذا أثبت أن العيب يرجع إلى تصميم المُنتج أو إلى التعليمات الصادرة من قبل الشركة المصنعة للمنتج.

ولذلك إذا تحققت إحدى الحالات السابقة فإن المنتج يستطيع التنصل من مسئوليته عن الأضرار الناجمة عن الذكاء الاصطناعي.

وأخيراً يري بعض الفقه تطبيق قاعدة المسؤولية بدون خطأ عند التعامل مع الروبوتات باعتبارها أنشطة خطرة ذات طبيعة استثنائية، لأنها تطبق على جميع الأنشطة الخطرة الناجمة عن التقدم العلمي والتكنولوجي. استناداً إلى أن خطورة هذه الروبوتات تكمن في صعوبة اختراقها فضلاً عن أنها معقدة للغاية. وبسبب ذلك يصبح إثبات الخطأ أمراً صعباً، إن لم يكن مستحيلاً. كما أن قدرة الروبوتات على الحركة يشكل المزيد من المخاطر. فمن المتصور أن روبوتات الخدمة الذاتية، مثل روبوت التوصيل، يمكن أن تتحرك من حيازة مالكها وتلحق أضرار بالآخرين. ففي مثل هذه الحالات يتطلب توافر شرط الهروب. إضافة إلى أنها لم تكن نشاط عادياً ومنتشر بصورة كبيرة([74]). الأمر الذي يصعب معه المعرفة الكاملة لطبيعتها المحددة([75]).

 وهذا يتطلب بدوره تفسيرها على أنها نوع من أنواع الأنشطة الخطرة التي لم تنظم بشكل محدد. وهذا التفسير يعتمد على مبدأ الحيطة([76])، الذي تبنته معظم الدول في مجال حماية المستهلكين والبيئة والصحة العمومية من الأخطار المشبوهة. ويصعب تطبيق هذا المبدأ على الروبوتات، لأنه يؤدى إلى حماية مفرطة من خلال استباق وتوقع المخاطر التي لا يزال من المستحيل التحقق منها في الوقت الراهن، والتي من المرجح أن تخلق إصابات خطيرة وواسعة النطاق في المستقبل قد تكون أخطر من مخاطر الأزمات الاقتصادية([77]).

وفي نهاية المطاف نري أن تطبيق المسؤولية الموضوعية على المنتج بوضعها الحالي أمر صعب للغاية، لأنه لا يمكن تحديد عيب المنتج في المواقف التي يحدث فيها الضرر نتيجة سلوك تعلمه الروبوت من البيئة التي يستخدم فيها، ومن ثم يصعب تحديد الخلل الذي أدي إلى وقوع الضرر بدقة. وهذا يتطلب إعادة النظر في قواعد مسئولية المنتج لكي تتناسب مع خصوصية الذكاء الاصطناعي. كما أن تطبيق تلك المسؤولية على اعتبار أن الإنسان الآلي من الأنشطة الخطرة، يتطلب ذلك أيضاً تحديد الشخص المسئول عن ذلك النشاط. ولهذا تكون المسؤولية الموضوعية غير مناسبة في ثوبها الحالي لمواجهة الأضرار الناجمة عن الذكاء الاصطناعي، وذلك لصعوبة تحديد الشخص المسئول عن الضرر.

 

المبحث الثاني

الأثر المترتب على تحقق المسؤولية المدنية عن أضرار الذكاء الاصطناعي

يعتبر التعويض عن أضرار الذكاء الاصطناعي المرحلة التالية لقيام المسؤولية المدنية عن تلك الأضرار، وأن المضرور هنا، كشأن أي متضرر، يترتب له الحق بالتعويض. والثابت في هذا الصدد أن المشرع أقر للأشخاص حق اللجوء للقضاء للمطالبة بحماية حقوقهم ومصالحهم، ولما كان للمضرور من أنظمة الذكاء الاصطناعي الذي يدعي أن له الحق في التعويض، فمؤدى هذا الادعاء أن يترتب لهذا المضرور حق الالتجاء للقضاء للمطالبة بما يدعيه. ولكن يبدو أن هذه الطريقة في التعويض لا تستقيم في الواقع مع بعض الحالات التي تظهر باستمرار في العصر الحديث نتيجة الثورة الصناعية، ومنها أضرار الروبوتات القائمة على الذكاء الاصطناعي التي تتسم بخطورتها وصعوبة تقيم المخاطر الناجمة عنها، الأمر الذي دعا المشرعين في مختلف الدول إلى البحث عن أنظمة جديدة، وذلك لتوفير الحماية المناسبة للمضرورين لتمكينهم من الحصول على تعويض جابر للضرر الذي أصابهم دون عناء كبير وتكاليف باهظة. وقد أطلق على التعويض المتحصل من تلك النظم التعويض التلقائي. وهذا ما نعالجه في هذا المبحث من خلال مطلبين، الأول للتعويض القضائي والثاني للتعويض التلقائي.

المطلب الأول

التعويض القضائي

التعويض القضائي هو ما تحكم به السلطة القضائية للشخص الذي لحقه الضرر أو مهدداً به. وهذا يعني أن التعويض يخضع لاجتهاد القاضي، وهو حر في ذلك بشرط التسبيب. والأصل في ذلك أن يكون التعويض كاملاً، بمعنى أن تقترن قيمة التعويض بحقيقة الضرر، على إلا تتجاوز قيمته الحقيقية، وإلا يعوض عن الضرر مرتين([78]).

ورغم وجود العديد من الطرق التي تستخدم في حساب وتقييم التعويض، فلا شيء منها يلزم القاضي الذي يكون صاحب القرار في الاعتماد على بعضها دون البعض الأخر. إلا أنه يلتزم بالمبادئ العامة في قضايا التعويض التي أستقر عليها الفقه والقضاء([79]).

بالنسبة للمضرور: الأصل أن يثبت المضرور في الدعوي العناصر التي يؤسس عليها الضرر، وإلا تعرض طلبه للرفض. ويتأثر التعويض بحالة المضرور المالية والعائلية، فلا يمكن للمحكمة أن تغفل الوضع المالي للمضرور عند تقدير التعويض باعتباره ظرفاً خاصاً بالنسبة له رغم تضارب المواقف الفقهية والقضائية حيال ذلك. ففي حالة تقدير التعويض عن الضرر الجسدي، فإن المحاكم عادةً ما تنظر إلى الوضع الاجتماعي والمالي للمضرور، وأن لم تفصح عن ذلك في أحكامها. كما يتأثر التعويض بمدى مساهمة المضرور في الفعل الذي أدى إلى وقوع الضرر([80]).

بالنسبة للمسئول عن الضرر: يجب إلا يعتد القاضي بمركزه المالي، فلا يزاد مبلغ التعويض إذا كان المسئول غنياً، ولكن في الواقع العملي نجد القضاء يعتد عند تقدير التعويض بيسار أو إعسار المسئول تغليباً لاعتبارات العدالة. ولا يعتد كذلك بجسامة الخطأ عند تقدير مبلغ التعويض، فالخطأ اليسير الذي يحدث ضرر جسيم يجب أن يأخذ عنه تعويض كامل لأن التعويض يقدر على أساس الضرر لا جسامة الخطأ. لكن المحاكم تميل في الغالب إلى الأخذ في الاعتبار بجسامة الخطأ عند تقدير التعويض([81]).

بالنسبة للوقت الذي يقدر فيه الضرر الواجب التعويض عنه: استقر الفقه والقضاء على أن تقدير الضرر يكون يوم صدور الحكم، لتحقيق التعادل بين التعويض والضرر. لأن نتيجة الفعل الضار من المفترض أن تظل ثابته لا تتغير. وبالتالي لن تتحدد إلا عندما يلتجأ للقاضي لكي يقوم بذلك التحديد. ومن ثم، يتعين على القاضي أن يراعي عند تقدير التعويض ما وصلت إليه حالة المضرور وقت الفصل في الدعوى([82]).

ولكن إذا كان الضرر لم يستقر نهائياً حتى اليوم المحدد للنطق بالحكم، فإن القاضي يقدر التعويض وفقاً لقيمة الضرر يوم النطق بالحكم، مع الاحتفاظ للمضرور بالحق في أن يطالب عند استقرار الضرر بإعادة النظر في تقدير التعويض (م 170مدني مصري)([83]).

فالتعويض هو وسيلة القضاء في جبر الضرر سواء كان ذلك بإزالته أو بتخفيفه. ويعرًف التعويض بأنه مبلغ من النقود أو أي ترضية من جنس الضرر تعادل ما لحق المضرور من خسارة وما فاته من كسب كان نتيجةً طبيعة للفعل الضار(م170 مدني مصري)([84]).

ويتم جبر الضرر أو إصلاحه في ضوء القواعد العامة أما عن طريق التعويض العيني وهو الذي يقوم على إزالة عين الضرر بأن يقضي على مصدره أو سببه، وقد يتم طريق التعويض بمقابل، وهو الذي يقوم على منح المضرور عوضاً عن الضرر الذي أصابه بقصد تخفيفه عنه، وينقسم هذا التعويض إلى نوعين وهما التعويض النقدي والتعويض غير النقدي، فالتعويض النقدي، هو الذي يتضمن إعطاء المضرور مبلغاً من النقود، بينما التعويض غير النقدي، هو الذي يتضمن إلزام المسئول بعمل شيء أخر غير دفع مبلغ من النقود يكون فيه بعض التعويض عن الضرر([85]).

وقد يجد المضرور في التعويض العيني خير وسيلة لجبر الضرر، لأنه يعيده إلى الحالة التي كان عليها قبل وقوعه، وهذا هو الهدف الذي يسعي إليه، وقد أشارت المادة 171/2 من القانون المدني المصري إلى إمكانية التعويض العيني بقولها ” يقدر التعويض بالنقد، على أنه يجوز للقاضي تبعاً للظروف وبناء على طلب المضرور بأن يأمر بإعادة الحال إلى ما كانت عليه، أو أن يحكم بأداء أمر متصل بالعمل غير المشروع، وذلك على سبيل التعويض” ([86])، ألا أن التعويض العيني قد يتعذر الحكم به في أطار الأضرار الناجمة عن أنظمة الذكاء الاصطناعي، وبالتالي لم يكن أمام المضرور سوى الحصول على التعويض بمقابل.

ومن الجدير بالذكر أن التعويض يشمل الأضرار المادية الناجمة عن الروبوتات القائمة على الذكاء الاصطناعي، التي يمكن أن تحدث بسبب العيوب المتعلقة بتشغيل الروبوت، وبالتالي يتم إسنادها للمنتج. كما يمكن أن تحدث بسبب تغير المكونات المادية والمعنوية، أو ضعف الصيان. وتلك أمور يمكن تقويمها بالنقود.

ولكن الصعوبة تثار في حالة الضرر الأدبي([87])  من حيث أن هذا الضرر لا يمكن تعويضه إذ لا صلة بينه وبين المبلغ النقدي الذي تقضي به المحكمة. فالضرر الأدبي لا يمكن تعويضه مالم يكن مرتبط بضرر مادي لصعوبة تقديره. وعلى رغم هذه الحجج اعترف الفقه والقضاء بتعويض مثل هذه الأضرار، فالوسائل التي تساعد على تخفيف الضرر أو الحد منه يمكن تقويمها بالنقود، فالنقود باعتبارها خير وسيلة للتداول فإنها خير وسيلة لتقويم الأضرار بما فيها الأضرار الأدبية. فينبغي على المحكمة أن تحكم بالتعويض النقدي باعتباره الأصل في تقدير التعويض، وبالتالي ليس هناك ما يمنع التعويض عن الأضرار الأدبية ([88]).

علاوة على ذلك، يلتزم المسئول بتعويض الضرر المرتد، وهو ما يلحق الشخص من ضرر مباشر نتيجة للضرر الذي أصاب شخص آخر من ذوى القربي أو كان هناك فيما بينهم علاقة مالية تؤثر عليه مادياً أو معنوياً أو مادياً ومعنوياً ([89])، وهذا الضرر لا يقتصر على المضرور وحده، بل قد ينعكس على أشخاص أخرين يصيبهم شخصياً بوقوعه أضرار أخرى([90]). ففي عام 1979 قتل Robert Williams، الذي كان يعمل في مصنع فورد لتصنيع السيارات، بواسطة الروبوت. فعندما كان ينقل البضائع إلى غرفة التخزين، اعتدى عليه الروبوت حتى الموت. وحدث ذلك نتيجةً لخطأ الروبوت في التعرف عليه. وتعتبر حالة روبوت وليامز أول حالة وفاه بشرية بسبب الروبوت. وعلى أثر ذلك دفعت شركة فورد عشرة ملايين دولار كتعويض لأسرته([91]).

المطلب الثاني: التعويض التلقائي

 لا شك أن التعويض التلقائي يتم من خلال التأمين وصناديق التعويض وهذا ما نوضحه من خلال البندين الآتيين.

أولاً: التأمين([92]):

تقوم شركة التأمين بتجميع العديد من الأخطار، طبقاً لقوانين الإحصاء، وإجراء المقاصة بينها على أساس علمي، لكي تتمكن من الوفاء بالتزامها عند تحقق الخطر المؤمن منه من خلال مجموع الأقساط المدفوعة من قبل المؤمن لهم. وهكذا لا قيام للتأمين إلا في أطار مجموعة من المخاطر المتجانسة داخل مشروع منظم تنظيماً علمياً([93]). فالتأمين يقوم على حساب الاحتمالات، وذلك بقصد التعرف على فرص تحقق الخطر خلال فترة زمنية معينة. وإذا كان تحقق المخاطر يحدث مصادفة إلا أنه عن طريق فرص التعرف على تحقق الخطر من خلال علم الإحصاء وقوانين الكثرة، جعل تقدير وقوع المخاطر يعطي نتائج إلى حد ما سليمة، تمكن المؤمن من تحديد التزاماته والمخاطر التي يتعين عليه تغطيتها ومقدار القسط الذي يلتزم المستأمن بدفعه له بصفة دورية([94]).

وللتأمين دور مهم لا يقتصر على تعويض الأضرار، بل يؤدى وظيفة أخرى هي الاحتياط لبعض الوقائع المستقبلة حتى ولو كان وقوعها لم يحدث أي ضرر. ويندرج تحت فكرة تعويض الأضرار التأمين على الأشياء والتأمين ضد المسؤولية بينما يندرج تحت فكرة الاحتياط في المستقبل التأمين على الأشخاص كالتأمين ضد الوفاة([95]).

وبالتالي توفر بوليصة التأمين على الروبوتات الحماية المالية عن الأضرار المادية والإصابات الجسدية الناجمة عن أي حادث متعلق بالروبوتات. ومن بين المخاطر التي سيتم تغطيتها: المصاريف الطبية وتعويض أي شخص أُصيب بسبب الروبوت (بما في ذلك الضرر المعنوي)، إضافةً إلى تلف الروبوت إذا كان سببه روبوت أخر، أو أي ممتلكات أخرى([96]).

ويعتبر نظام التأمين طريقة فعالة لتوزيع تكاليف الحادث، ونقل تكلفة الأضرار من مرتكبي الحادث الضار إلى شركة التأمين. لذا يعد التأمين حل اخر يتماشى مع انتشار الروبوتات الآلية؛ ففي مجال التطبيق العملي تقوم شركات التأمين بإنشاء غطاء تأميني خاص بالروبوتات، لا سيما في قطاع السيارات. ونتيجةً لذلك، يجب أن يعتمد مستوى التأمين على كل من طبيعة الروبوتات والاستخدام المحدد لها من قبل المستهلك. وتثير مثل هذه التكنولوجيا أسئلة متعددة حول التأمين، مثل تغير الحسابات الاكتوارية لأنه من المتوقع وجود اختلاف في توزيع الحوادث. حيث يتم وضع الجداول الاكتوارية بناء على طبيعة الأشخاص، ولكن بعد ظهور الروبوتات، سيتم النظر في مسائل أخرى، مثل أغلب الحوادث التي تسببها الخوارزميات([97]).

فعلى سبيل المثال، سيؤدي ظهور المركبات ذاتية القيادة إلى تقليل عدد الحوادث مقارنة بتلك التي تحدث الآن، ولكن هذه الحوادث القليلة ستؤدى إلى إصابات خطيرة للغاية أو وقوع حالات وفاة. ويمكن أن يؤثر هذا التغيير في توزيع الحوادث على اقتصاديات التأمين. فمن الناحية الاكتوارية يكون من السهل بصورة كبيرة على شركات التأمين حساب التكاليف المتوقعة لحوادث صغيرة شائعة إلى حد ما مقارنة بالحوادث النادرة([98]).

 وبالتالي تواجه شركات التأمين تحديات شائكة للغاية في تقييم المخاطر المرتبطة بإنتاج واستخدام وانتشار الروبوتات بمختلف أنواعها. لأن حداثة الروبوتات وتعقيدها يجعل تحديد الخسائر التي قد تحدثها أمراً شائكاً للغاية، لتنوعها وصعوبة توقعها، وبالتالي إدارتها.

وفي بعض الحالات، لا يكون من الواضح أي من الأطراف يتحمل المسؤولية، ومن ثم من له المصلحة في المطالبة بالغطاء التأميني. وبشكل عام قد ينتج عن ذلك إما رفض التأمين على بعض أنواع الروبوتات الآلية، أو استخدام عقود التأمين الحالية، التي لا تكون كافية لمواجهة الاخطار الناجمة عن هذه الروبوتات، أو فرض أقساطاً عالية بشكل مفرط من قبل شركات التأمين، مما يؤدي في نهاية المطاف إلى التأخر في انتشار الروبوتات. فلا يمكن علاج كل هذه المشاكل بنجاح من خلال فرض رسوم قانونية جديدة على المنتجين والمشتريين (مثلما حدث مع الطائرات بدون طيار في إيطاليا). فقد يؤدي هذا عملياً إلى تفاقم المشكلة فضلاً عن التأخير في اعتماد ونشر أجهزة الروبوتات([99]).

فإذا كان التأمين أداة أساسية لتمكين نقل التكنولوجيا إلى الأسواق وخلق صناعات جديدة، فإن ذلك يتطلب وجود طرق ملائمة لتقييم المخاطر، والتي تشتمل على كلٍ من المخاطر المادية والنفسية لتقييم الروبوتات. والتي تؤدي إلى وضع الشروط الأساسية لتطوير صناعة التأمين الخاصة بالروبوتات، ومن ثم إنشاء سوق تأمين جديد لإدارة الصناعات الخطرة والمتطورة من الناحية الفنية.

لذا قدم الاتحاد الأوربي للتأمين ضد الأخطاء كحل مقترح ينطبق على جميع أنواع الروبوتات بوجه عام. ونشأ هذا التأمين في الولايات المتحدة الأمريكية عام 1960، بسبب حوادث السيارات الخطيرة، التي أدت الدعاوى القانونية المتولدة عنها إلى إرهاق النظام القضائي.

وعلى هدي ذلك سنت مؤخراً المملكة المتحدة – التي كان لديها نظام تأمين قائم على الخطأ بشأن المركبات العادية- قانون المركبات الآلية والكهربائية لعام 2018، والذي بموجبه يكون المؤمن مسئولاً عن الضرر عندما ينتج كلياً أو جزئياً عن مركبة آلية مؤمن عليها وقت وقوع الحادث، دون الاعتداد بمسئولية أي شخص (السائق، الشركة المصنعة …إلخ). وبالتالي تكون قد أنشأت شكلاً من أشكال التأمين ضد الأخطاء- على الرغم من عدم إلزاميته- بشأن السيارات التي تعمل بالذكاء الاصطناعي([100]).

ويرى Engelhard & de Bruin بأن التأمين ضد الأخطاء سيكون طريقة فعالة لمعالجة مخاطر القيادة الآلية. لأنه يمكن أن يصمم لتغطية جميع المخاطر. كما أن الفائدة الأساسية منه هو عدم الاعتماد على القدرة في اثبات مصدر الحادث، ومنع المدعى من المطالبة بالتعويض في المستقبل([101]).

بينما يري ([102]) Omri Rachum-Twaig  بأن تطبيق مخطط التأمين الإلزامي ضد الأخطاء على المخاطر المتعلقة بالروبوتات القائمة على الذكاء الاصطناعي لا يخلو من المخاوف، مبرراً ذلك بانه:

  • مع أن مثل هذا التأمين يوفر المصاريف الإدارية ويتحاشى الأخطاء القضائية، إلا أنه يزيد من الحوادث لعدم الردع. وبالتالي لا يعد مخطط التأمين الالزامي ضد الأخطاء فعال بالنسبة للروبوتات القائمة على الذكاء الاصطناعي. لأنه لم يتم منحها الشخصية القانونية حتى الآن، فضلاً عن أن تصرفها، إلى حد ما، غير متوقع بالنسبة لمصممها ومشغلها ومستخدمها.
  • يهدف مخطط التأمين الإلزامي إلى الحلول محل نظام التعويض العام. وهذا يكون صعب للغاية في مجال الروبوتات، لأن الطبيعة الرقمية للعديد من الروبوتات الميكانيكية أو الفيزيائية تجعل من المستحيل تقريباً أن يكون لها قاعدة موحدة تنطبق على جميع أصحاب المصلحة. فالشركة المصنعة للروبوت قد تكون أمريكية، والمشغل بريطاني، والمستخدم ياباني.
  • يصعب في مجال الروبوتات القائمة على الذكاء الاصطناعي توزيع التكاليف وحساب الأقساط.

ونتيجةً لذلك قد تحجم شركات التأمين عن تغطية المخاطر الناجمة عن هذه الروبوتات، الأمر الذي أدى إلى التفكير في إنشاء صناديق التعويض وتطويرها.

ثانياً: صناديق التعويض:

تعتبر صناديق التعويضات، وفقاً للقرار الصادر عن البرلمان الأوربي في 16 فبراير 2017، أداة لضمان إمكانية التعويض عن الأضرار في الحالات التي لا يوجد لها غطاء تأميني. وفي الواقع، يجب أن يكون هذا الصندوق وسيلة الملاذ الأخيرة ويطبق فقط في حالة وجود مشاكل في التأمين، أو على الأشخاص التي تمتلك الروبوتات وليس لديها بوليصة تأمين ([103]). وذلك لأن قواعد المسؤولية المدنية التقليدية تقوم على وجود مسئول بالتعويض، وهذا لا يتناسب إذا كنا بصدد أخطار يتعذر معها معرفة الشخص المسئول، فظهر ما يسمي بالمسؤولية الاجتماعية في مواجهة المسؤولية الفردية التي تقوم عليها قواعد المسؤولية المدنية التقليدية([104]).

وبالتالي سيكون الهدف من إنشاء صناديق التعويضات حصول المضرور على تعويض في الأحوال التي لا يعوض فيها بأي وسيلة أخرى، كما تهدف هذه الصناديق إلى توزيع المخاطر الناجمة عن الروبوتات القائمة على الذكاء الاصطناعي على الأشخاص الممارسين للأنشطة التي يمكن أن تكون سبب لهذه المخاطر، ولا تتدخل هذه الصناديق إلا بصفة احتياطية أو تكميلية.

ومن الجدير بالذكر أنه في الحالات التي يمكن إنشاء صناديق للتعويضات دون وجود نظام تأمين إجباري فإن هذه الصناديق ستصبح ملزمة بتعويض جميع الأضرار الناجمة عن الروبوتات الآلية، وبالتالي تتعرض للإفلاس بسبب ضخامة التعويضات([105]).

إلا أنه في الواقع يكون لصناديق التعويض دور فعال لمواجهة المخاطر الناجمة عن أنظمة الذكاء الاصطناعي، وذلك في الحالات التي لا يقدم فيها التأمين تغطية كاملة للأضرار. أي أن الهدف من الصناديق تعويض المضرور تعويضاً كاملاً عندما يكون قد تم تعويضه جزئياً([106]).

ويمكن تمويل هذه الصناديق من خلال الضرائب التي يدفعها مالك، أو مطور، أو مستخدم الذكاء الاصطناعي، وذلك لضمان حصول المضرور على التعويض الكامل. وستكون تكاليف هذه الضرائب قليلة إلى حد ما مقارنة بالقيمة المالية التي يجنيها الذكاء الاصطناعي.

وعلى الجانب الأخر، يمكن إدارة صناديق التعويض عن أضرار الذكاء الاصطناعي على غرار البرنامج الوطني للتعويض عن الإصابة من اللقاح ((VICP، والذي يمول عن طريق الضريبة المفروضة على اللقاح التي يتحملها المستخدمون. فاللقاح يحقق فوائد اجتماعية على نطاق واسع إلا أنه في حالات نادرة يسبب مشاكل خطيرة. ولا يعد هذا البرنامج بديلاً عن المسؤولية التقصيرية القائمة على الخطأ والتي تمكن المضرورين من الحصول على التعويضات المغطاة من خلاله. وبالتالي عندما يتعرض أي شخص للضرر نتيجة الجرائم المرتكبة من قبل الذكاء الاصطناعي سيلجأ للصندوق للحصول على التعويض([107]).

لذا تأتي هذه الصناديق بالعديد من المزايا منها([108]):

  • تكمل التأمين الإجباري ضد الغير.
  • لا تعرض المجتمع للأثار المخيفة للروبوتات.
  • تعفي الأطراف المضرورة من تكاليف عبء الاثبات للحصول على التعويض.

إلا أنه من الناحية العملية، تثير الصناديق قلق بشأن التقليص من آثار توجيه المسؤولية المدنية. فلا يعقل أن تعلو عليها أو تحل محلها. علاوةً على أن إدارتها  ستتطلب جهدا  كبيراً لتطوير مجموعة شائكة من القواعد التي تنظمها([109]).

 ولكن يبدو لنا أن تحمل منتجي الذكاء الصناعي عبء التأمين والمساهمة في دفع اشتراكات صندوق التعويض وذلك لمواجهة الأضرار الناجمة عن الذكاء الاصطناعي بشكل كامل قد يدفعهم إلى عدم ممارسة العمل في هذا المجال، وبالتالي إعاقة انتشار أنظمة الذكاء الاصطناعي. الأمر الذي نرى معه ضرورة تدخل الدولة كضامن احتياطي في حالة تجاوز التعويض القدرة المالية للمسئولين عن الذكاء الاصطناعي، وذلك لأن الدولة هي التي سمحت بانتشار مثل هذه الكيانات الذكية فضلاً عن أهميتها للمجتمع. كما أن تدخل الدولة يمكن الضحية من الحصول على تعويض كامل عن الخسائر والأضرار التي لحقت به.

الخاتمة: 

بعدما انتهينا من بحثنا المتواضع هذا لابد أن نذكر ما توصلنا إليه من نتائج وتوصيات.

أولاً: النتائج:

  • اتضح أنه لا يوجد تعريف موحد للذكاء الاصطناعي رغم أنه ليس بمصطلح جديد، وقد تعددت تعريفات الفقه حول مفهوم الذكاء الاصطناعي وأغلبها يدور حول قدرة الإنسان والآلة وانتهينا من مجموع هذه التعريفات التي ذكرنها سلفاً إلى وضع تعريف شامل للذكاء الاصطناعي حيث عرفناه بأنه طريقة لإعداد الحاسوب أو الروبوت، يتم التحكم فيه من خلال برنامج يفكر بذكاء على نفس النهج الذي يفكر به البشر الأذكياء. كما أن للذكاء الاصطناعي تطبيقات مختلفة في النظم العسكرية والقانونية والطبية.
  • تتنوع المسؤولية المدنية عن أضرار الذكاء الاصطناعي إلى مسئولية عقدية ومسئولية تقصيرية ومسئولية موضوعية حسب الظروف المحيطة.
  • تقوم المسؤولية العقدية عند الإخلال بالعقد الصحيح، أي عندما لا ينفذ أحد أطراف العقد التزامه وفقاً لما هو محدد في العقد.
  • يشترط لقيام المسؤولية التقصيرية اثبات الخطأ والضرر وعلاقة السببية وهذا أمر صعب للغاية في مجال الذكاء الاصطناعي، حيث أن تطبيقها يواجه تحديات كبيرة، وعلى وجه الخصوص عندما يتخذ الروبوت القائم على الذكاء الاصطناعي قرارات ذاتية.
  • تقوم المسؤولية الموضوعية على الضرر، فلا يطلب من المضرور سوى اثبات علاقة السببية بين الضرر والخطأ إلا أن تطبيقها على الذكاء الاصطناعي يواجه أيضاً تحديات كبيرة لأنه لا يمكن للإنسان السيطرة عليه، وعنصر الخطر داخل في وظيفته، وبالتالي يصبح الذكاء الاصطناعي مصدر للمخاطر العامة. فضلاً عن القدرة على التعلم واتخاذ قرارات مستقلة. وهذا يتطلب تطبيق المسؤولية الموضوعية على الأضرار الناجمة عن الذكاء الاصطناعي مع تضييق نطاق الإعفاء منها حماية للمضرور الذي لا يكون لديه خبره كافيه بشأن هذه التقنيات الحديثة.
  • يترتب على قيام المسؤولية عن أضرار الذكاء الاصطناعي تحقق التعويض سواء كان مادياً أو أدبياً. فالمضرور يحصل على التعويض من خلال القضاء حيث يقدر القاضي التعويض على أساس الضرر لا على أساس الفعل الضار، مراعياً في ذلك الحالة المالية والاجتماعية للمضرور.
  • ويتم تعويض الضحية من خلال التأمين الاجباري في مجال الذكاء الاصطناعي وكذا صناديق التعويض، وهذا ما أطلق عليه الفقه بالتعويض التلقائي.

 

ثانياً: التوصيات:

  • نوصي بالاعتراف بالشخصية القانونية التي تتناسب مع الروبوتات المجهزة بالذكاء الاصطناعي على غرار الشخصية الاعتبارية للأشخاص المعنوية.
  • مناشدة المشرع المصري بوضع نظام قانوني يحدد المسئول عن الأضرار الناجمة عن الذكاء الاصطناعي.
  • نوصي أن يكون تأمين المسؤولية المدنية عن أضرار الذكاء الاصطناعي إجبارياً لمواجهة كافة الأضرار التي يسببها الذكاء الاصطناعي.
  • نوصي بإقرار المسؤولية الموضوعية القائمة على الضرر وتضييق نطاق الإعفاء منها على غرار المسؤولية المدنية عن الأضرار النووية، وذلك لأن الروبوتات لا تقل خطورة عن هذا النشاط.
  • نوصي بإنشاء صناديق لتمكين الضحية من الحصول على التعويض كاملاً، وتمول من خلال الضرائب التي تٌحصل عند بيع الروبوتات.
  • نوصي بإرجاء العمل بالروبوتات القائمة على الذكاء الاصطناعي لحين الانتهاء من وضع قانون ينظمها بالاشتراك مع الجهات الفنية المعنية، وذلك نظراً لخطورتها على البشر وكذا الأمن القومي.

 

 

قائمة المصادر والمراجع:

أ- المراجع باللغة العربية:

أولاً: الكتب

  1. إحسان حسين، الأضرار التي تلحق بالمتهم وعلاجها دراسة مقارنة في الفقه والقانون، دار الكتب العلمية، بيروت، 2019.
  2. أحمد شرف الدين، أحكام التأمين دراسة في القانون والقضاء المقارنين، دار النهضة العربية، القاهرة، 1991، الطبعة الثالثة.
  3. إدريس العبدلاوي، النظرية العامة للالتزام: الجزء الثاني، بدون دار نشر، 2000.
  4. السيد عمران، عقد البيع في القانون المدني المصري، الفتح للطباعة والنشر، الإسكندرية، 2009.
  5. إيهاب خليفة، مجتمع ما بعد المعلومات: تأثير الثورة الصناعية الرابعة على الأمن القومي، دار العربي للنشر والتوزيع، القاهرة، 2019.
  6. بلحاج العربي، النظرية العامة للالتزامات في القانون المدني الجزائري: الجزء الثاني، ديوان المطبوعات الجامعية، الجزائر، 1999.
  7. ثروت عبد الحميد، النظرية العامة للالتزامات في القانون المدني المصري: الجزء الأول في مصادر الالتزام، بدون دار نشر، بدون سنة طبع.
  8. جهاد عفيفي، الذكاء الاصطناعي والأنظمة الخبيرة، أمجد للنشر والتوزيع، الأردن، 2015، الطبعة الأولى.
  9. زين عبد الهادي، الذكاء الاصطناعي والنظم الخبيرة في المكتبات: مدخل تجريبي للنظم الخبيرة في مجال المراجع، المكتبة الأكاديمية، القاهرة 2000، الطبعة الأولى.
  10. سالم الفاخري، سيكولوجية الذكاء، مركز الكتاب الأكاديمي، الأردن، 2018.
  11. سعيد قنديل، آليات تعويض الأضرار البيئة دراسة في ضوء الأنظمة القانونية والاتفاقيات الدولية، دار الجامعة الجديدة، الإسكندرية، 2004.
  12. سمير تناغو، مصادر الالتزام، مكتبة الوفاء القانونية، الإسكندرية، 2009، الطبعة الأولى.
  13. صفات سلامة، تكنولوجيا الروبوتات: رؤية مستقبلية بعيون عربية، المكتبة الأكاديمية، القاهرة، 2006، الطبعة الأولى.
  14. صلاح الفضلي، آلية عمل العقل عند الإنسان، عصير الكتب للنشر والتوزيع، القاهرة، 2019.
  15. عبد الرزاق السنهوري، الوسيط في شرح القانون المدني: مصادر الالتزام “الجزء الأول”، دار النهضة العربية، القاهرة، 1964.
  16. عبد الله موسي وأحمد بلال، الذكاء الاصطناعي ثورة في تقنيات العصر، دار الكنب المصرية، القاهرة، 2019، الطبعة الأولى.
  17. علي حويلي، العلماء العرب في أمريكا وكندا: إنجازات وإخفاقات، منتدي المعارف، بيروت، 2013، الطبعة الأولى.
  18. علي كحلوان، النظرية العامة للالتزامات، منشورات مجمع الأطرش للكتاب المختص، تونس، 2015.
  19. فايز النجار، نظم المعلومات الإدارية: منظور إداري، دار الحامد للنشر والتوزيع، الأردن، 2010، الطبعة الرابعة.
  20. محسن البيه، المسؤولية المدنية عن الأضرار البيئية، مكتبة الجلاء، المنصورة، 2002.
  21. محسن البيه، عقد البيع، دار النهضة العربية، القاهرة، 2008.
  22. محمد البكري، موسوعة الفقه والقضاء والتشريع في القانون المدني الجديد، المجلد الرابع، دار محمود للنشر والتوزيع، القاهرة، 2019.
  23. محمد حسين، عقد التأمين، دار النهضة العربية، القاهرة، 1993.
  24. محمد شنب، دروس في نظرية الالتزام: مصادر الالتزام، دار النهضة العربية، القاهرة، 1976-1977.
  25. محمد لطفي، الأحكام العامة لعقد التأمين: دراسة مقارنة بين القانونين المصري والفرنسي، دار النهضة العربية، القاهرة، 2017-2018، الطبعة السادسة.
  26. محمد محي الدين سليم، نطاق الضرر المرتد – دراسة تحليلية لنظرية الضرر المرتد، دار النهضة العربية، القاهرة، 2009.
  27. محمد منصور، أحكام عقد البيع التقليدية والالكترونية والدولية، دار الفكر العربي، القاهرة، 2006.
  28. محمد نصر، الوسيط في نظام التأمين: دراسة مقارنة مع الأنظمة العربية، مكتبة القانون والاقتصاد، الرياض، 2015.
  29. نادية معوض، مسئولية مصنع الطائرة، دار النهضة العربية، القاهرة، 2000، الطبعة الثانية.
  30. نبيل سعد، النظرية العامة للالتزام: مصادر الالتزام، دار الجامعة الجديدة، الإسكندرية، 2019.
  31. يحي موافى، المسؤولية عن الأشياء في ضوء الفقه والقضاء: دراسة مقارنة، منشأة المعارف، الإسكندرية، 1992.

ثانياً: الرسائل الجامعية

  1. أصالة رقيق، استخدام تطبيقات الذكاء الاصطناعي في إدارة أنشطة المؤسسة: دراسة حالة مجموعة من المؤسسات الاقتصادية، رسالة ماجستير، كلية العلوم الاقتصادية والعلوم التجارية وعلوم التسيير، جامعة أم البواقي، الجزائر، 2014-2015.
  2. أنور يوسف حسين، ركن الخطأ في المسؤولية المدنية للطبيب: دراسة في القانونين اليمني والمصري، رسالة دكتوراه، كلية الحقوق، جامعة أسيوط، 2012.
  3. قادة شهيدة، المسؤولية المدنية للمنتج: دراسة مقارنة، رسالة دكتوراه، كلية الحقوق، جامعة أبي بكر بلقايد – تلمسان، 2004-2005.
  4. كيحل كمال، الاتجاه الموضوعي في المسؤولية المدنية عن حوادث السيارات ودور التأمين، رسالة دكتوراه، كلية الحقوق، جامعة أبوبكر بلقايد – تلمسان، 2006-2007.
  5. محمد اسماعيل مصطفي، الضرر المرتد، دراسة مقارنة، رسالة ماجستير، جامعة القدس، فلسطين، 2019
  6. مختار رحماني محمد، المسؤولية المدنية عن فعل المنتجات المعيبة، رسالة دكتوراه، كلية الحقوق بن عكنون، الجزائر، 2016.
  7. مها رمضان بطيخ، المسؤولية المدنية للدولة عن أضرار الإرهاب، دراسة مقارنة، رسالة دكتوراه، كلية الحقوق، جامعة عين شمس، القاهرة، 2017.

ثالثاً: المجلات

  1. سمير مرقس، تطبيق الذكاء الاصطناعي والأنظمة الخبيرة في زيادة كفاءة المحامين أمام القضاء، مجلة الاقتصاد والمحاسبة، المجلد ستمائة خمسة وخمسون، مصر: نادي التجارة، 2014.
  2. صفات سلامة وﺧﻠﻴﻞ أﺑﻮﻗﻮرة، تحديات عصر الروبوتات وأخلاقياته: دراسات استراتيجية، مركز الإمارات للدراسات والبحوث الاستراتيجية، العدد مائة ستة وتسعون، الطبعة الأولى، أبو ظبي: مركز الإمارات، 2014.
  3. عمارة نعيمة، الاتجاه نحو التأسيس للمسئولية المدنية على أساس مبدأ الحيطة، مجلة دفاتر السياسة والقانون، العدد التاسع، الجزائر: جامعة قصدي مرباح ورقلة، 2013.
  4. فتحي عبد الله، نظام تعويض الأضرار التي تلحق بأمن وسلامة المستهلك في القانون المدني المصري والمقارن، مجلة البحوث القانونية والاقتصادية، العدد الخامس والعشرون، القاهرة: جامعة المنصورة –كلية الحقوق، 1999.
  5. محمد عرفان الخطيب، المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟، دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مجلة كلية القانون الكويتية العالمية، السنة الثامنة، العدد الأول، 2020.
  6. ناجية العطراق، المسؤولية عن فعل المنتجات المعيبة في ضوء القانون المدني الفرنسي، مجلة العلوم القانونية والشرعية، العدد السادس، ليبيا: جامعة الزاوية – كلية القانون، 2015.
  7. نبراس جابر، المسؤولية المدنية الناشئة عن اخلال الغير بالعقد – دراسة مقارنة، مجلة المحقق الحلى للعلوم القانونية والسياسية، العدد الأول، السنة العاشرة، العراق: جامعة بابل – كلية القانون، 2018.

رابعاً: القوانين

  1. قانون التجارة المصري رقم 17 لسنة 1999 المنشور بالجريدة الرسمية العدد 19 مكرر في 17/5/1999.

ب – المراجع الأجنبية:

Books:

  1. Nadeau et R. Nadeau, Traité pratique de la responsabilité civile délictuelle,  Montreal, Wilson and Lafleur, 1971.
  2. G. Buchanan, E. H. Shortliffe, Rule-Based Expert Systems The MYCIN Experiments of the Stanford Heuristic Programming Project, Addison-Wesley Publishing Company, 1984.
  3. Rich, Artificial Intelligence and the Humanities, Paradigm Press, 1985.
  4. Samani, Cognitive robotics. Boca Raton: CRC Press, Taylor & Francis Group, 2016.
  5. Pineau et M. Ouellette, Théorie de la responsabilité civile, 2e éd., Montréal, Éditions Thémis, 1980.
  6. Abbott, The reasonable robot. Cambridge University Press: University of Surrey School of Law, 2020.
  7. Samoili, M. López Cobo, E. Gómez, G. De Prato, F. Martínez-Plumed and B. Delipetrev, AI watch. European Union: Joint Research Centre, 2020.
  8. Benhamou and J. Ferland, Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages, submitted to as a book chapter: Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, P. D’Agostino, , et al., 2020.

Thesis:

  1. Bertsia, “Legal liability of artificial intelligence driven-systems (AI)”, master thesis, international hellenic university, 2019.
  2. Feng, ” Le droit des produits défectueux: une approche euro-américaine”, thèse, université de Perpignan, universitat de Girona, Français, 2016.
  3. Assunta Cappeli, “regulation on safety and civil liability of intelligent autonomous robots: the case of smart cars”, Ph. D thesis, universita degli studidi Trento, 2014.
  4. Guillaume, “L’ELEVATION DES ROBOTS A LA VIE JURIDIQUE”, thèse, Doctoral School of Law and Political Science (Toulouse), 2016.
  5. Karnouskos, “the interplay of law, robots and society, in an artificial intelligence era”, master’s thesis, umea university, 2017.
  6. Oliveira, “La responsabilité civile dans les cas de dommages causés par les robots d’assistance au Québec”, LL.M, faculté de droit, université de montréal, 2016.
  7. Van Rossum, liability of robots: legal responsibility in cases of errors or malfunctioning, LLM, faculty of Law, Ghent university, 2017.

Research and articles:

  1. Bertolini, “Insurance and Risk Management for Robotic Devices: Identifying the Problems”, Global Jurist, vol. 16, no. 3, 2016.
  2. Hubbard, “‘Sophisticated Robots': Balancing Liability, Regulation, and Innovation”, Papers.ssrn.com, 2014.
  3. J. Marryott, the tort System and automobile claims: evaluating the keeton-o’connell proposal, american bar association journal, vol. 52, No. 7, 1966.
  4. Borges, Liability and new technologies: Concepts and addressees of liability, university of Saarland, 2020.
  5. Risso, “Product liability and protection of EU consumers: is it time for a serious reassessment?”, Journal of Private International Law, vol. 15, no. 1, pp. 210-233, 2019.
  6. Wagner, “Robot Liability”, SSRN Electronic Journal, 2018.
  7. Borghetti, “Civil Liability for Artificial Intelligence: What Should its Basis Be?”, La Revue des Juristes de Sciences Po, n°17 ISSN 2111-4293, 2019.
  8. Brossollet, C. Jaegy and L. Daniele, “Responsabilité civile et intelligence artificielle”, Atelier clinique juridique, 2019.
  9. Delcker, Europe divided over robot ‘personhood’ available at https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/
  10. Frank Weaver, “Robots Are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws”, Barnes & Noble, 2014.
  11. Schuett, “A Legal Definition of AI”, SSRN Electronic Journal, 2019.
  12. Archambault et L. zimermann, “repairing damages caused by artificial intelligence: french law needs to evolve”, gazette du Palals, N. 9, 2018.
  13. Mazeau, “Intelligence artificielle et responsabilité civile : Le cas des logiciels d’aide à la décision en matière médicale”. Revue pratique de la prospective et de l’innovation, LexisNexis SA, 2018.
  14. E. Gerstner, “Liability Issues with Artificial Intelligence Software”, Santa Clara Law Review, vol. 33, no. 7, 1993.
  15. Le Borloch, “La responsabilité des dommages causés par les robots”, Village de la Justice, 2020.
  16. Kalra, J. Anderson and M. Wachs, “Liability and Regulation of Autonomous Vehicle Technologies”, Trid.trb.org, 2009
  17. Rachum Twaig, “Whose Robot Is It Anyway?: Liability for Artificial-Intelligence-Based Robots”, University of Illinois Law Review, Vol. 2020, Forthcoming, 2019.
  18. Čerka, J. Grigienė and G. Sirbikytė, “Liability for damages caused by artificial intelligence”, Computer Law & Security Review, vol. 31, no. 3, 2015.
  19. Opitz, Civil Liability and Autonomous Robotic Machines: Approaches in the EU and US, TTLF Working Papers No. 43, Stanford-Vienna, 2019.
  20. Singh, Attribution of Legal Personhood to Artificially Intelligent Beings, Bharati Law Review, July – September 2017.
  21. Tzafestas, “Roboethics – A Navigating Overview”, Springer.com, 2020.
  22. Santosuosso, C. Boscarato, F. Caroleo, R. Labruto and C. Leroux, “Robots, market and civil liability: A European perspective”, IEEE RO-MAN: The 21st IEEE International Symposium on Robot and Human Interactive Communication, 2012.
  23. Sumantri, “Legal Responsibility on Errors of the Artificial Intelligence-based Robots”, Lentera Hukum, vol. 6, no. 2, 2019.
  24. Abdalla, “Robotic Arbitration: To What Extent Could Robots Conduct Arbitrary Procedures?”, 2020.

([1]) عبد الله موسي وأحمد بلال، الذكاء الاصطناعي ثورة في تقنيات العصر، دار الكنب المصرية، القاهرة، 2019، الطبعة الأولى، ص 48.

([2]) زين عبد الهادي، الذكاء الاصطناعي والنظم الخبيرة في المكتبات: مدخل تجريبي للنظم الخبيرة في مجال المراجع، المكتبة الأكاديمية، القاهرة 2000، الطبعة الأولى ص21.

([3]) أصالة رقيق، استخدام تطبيقات الذكاء الاصطناعي في إدارة أنشطة المؤسسة: دراسة حالة مجموعة من المؤسسات الاقتصادية، رسالة ماجستير، كلية العلوم الاقتصادية والعلوم التجارية وعلوم التسيير، جامعة أم البواقي، الجزائر،2014-2015، ص15/16.

([4]) جهاد عفيفي، الذكاء الاصطناعي والأنظمة الخبيرة، أمجد للنشر والتوزيع، الأردن، 2015، الطبعة الأولى ، ص23.

([5]) علي حويلي، العلماء العرب في أمريكا وكندا: إنجازات وإخفاقات، منتدي المعارف، بيروت، 2013، الطبعة الأولى ، ص203.

([6]) زين عبدالهادي، مرجع سابق، ص 27/28.

([7]) صفات سلامة، تكنولوجيا الروبوتات: رؤية مستقبلية بعيون عربية، المكتبة الأكاديمية، القاهرة، 2006، الطبعة الأولى ، ص 45.

([8]) صفات سلامة وآخرون ، تحديات عصر الروبوتات وأخلاقياته: دراسات استراتيجية ، مركز الإمارات للدراسات والبحوث الاستراتيجية، العدد مائة ستة وتسعون، الطبعة الأولى، أبوظبي: مركز الإمارات،2014، ص 91.

([9]) Y. Abdalla, “Robotic Arbitration: To What Extent Could Robots Conduct Arbitrary Procedures?, 2020.

Available:https://www.researchgate.net/publication/340583752_Robotic_Arbitration_To_What_Extent_Could_Robots_Conduct_Arbitrary_Procedures.

([10] ) S. Karnouskos, “the interplay of law, robots and society, in an artificial intelligence era”, master’s thesis, umea university, 2017, p. 15.

([11]) راجع في تفاصيل ذلك سمير مرقس، تطبيق الذكاء الاصطناعي والأنظمة الخبيرة في زيادة كفاءة المحامين أمام القضاء، مجلة الاقتصاد والمحاسبة، المجلد ستمائة خمسة وخمسون، مصر: نادي التجارة،2014، ص5.

([12]) S. Samoili, M. López Cobo, E. Gómez, G. De Prato, F. Martínez-Plumed and B. Delipetrev, AI watch. European Union: Joint Research Centre, 2020, p. 7.

([13]) مشار إليه لدى صلاح الفضلي، آلية عمل العقل عند الإنسان، عصير الكتب للنشر والتوزيع، القاهرة، 2019، ص147.

([14]) E. Rich, Artificial Intelligence and the Humanities, Paradigm Press, 1985, p.117.

([15]) B. G. Buchanan, E. H. Shortliffe, Rule-Based Expert Systems The MYCIN Experiments of the Stanford Heuristic Programming Project, Addison-Wesley Publishing Company, 1984, p.3.

([16]) Available: https://www.britannica.com/biography/Marvin-Lee-Minsky

([17]) J. McCarthy, What Is Artificial Intelligence?, 2007, p.2. Available: http://jmc.stanford.edu/articles/whatisai/whatisai.pdf.

([18]) صلاح الفضلي، مرجع سابق، ص147.

([19]) سالم الفاخري، ، سيكولوجية الذكاء، مركز الكتاب الأكاديمي، الأردن، 2018، ص 120/121.

([20]) فايز النجار، نظم المعلومات الإدارية: منظور إداري، دار الحامد للنشر والتوزيع، الأردن، 2010، الطبعة الرابعة ، ص169.

([21]) إيهاب خليفة، مجتمع ما بعد المعلومات: تأثير الثورة الصناعية الرابعة علي الأمن القومي، دار العربي للنشر والتوزيع، القاهرة، 2019، ص40/41.

([22]) Available at http://www.robotics-openletter.eu/ viewed on 2/10/2020

([23]) J. Delcker, Europe divided over robot personhood available at https://www.politico.eu/article/europe-divided-over-robot-ai-artificial-intelligence-personhood/ ANOSCH DELCKE ANOSCH DELCKER JANOSCH DELCKERR 

([24]) محمد عرفان الخطيب، المسئولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟، دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مجلة كلية القانون الكويتية العالمية، السنة الثامنة، العدد الأول، 2020، ص120.

([25]) S. Singh, Attribution of Legal Personhood to Artificially Intelligent Beings, Bharati Law Review, July – Sept., 2017, p.199.

([26]) J. Frank Weaver, “Robots Are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws”, Barnes & Noble, 2014, p. 19. Available: https://www.barnesandnoble.com/w/robots-are-people-too-john-frank-weaver/1115217419.

([27]) محمد منصور، أحكام عقد البيع التقليدية والالكترونية والدولية، دار الفكر العربي، القاهرة، 2006، ص234.

([28]) S. Tzafestas, “Roboethics – A Navigating Overview”, Springer.com, 2020, p. 168. Available: https://www.springer.com/gp/book/9783319217130.

([29]) محمد البكري، موسوعة الفقه والقضاء والتشريع في القانون المدني الجديد، المجلد الرابع، دار محمود للنشر والتوزيع، القاهرة، 2019، ص426.

([30]) السيد عمران، عقد البيع في القانون المدني المصري، الفتح للطباعة والنشر، الإسكندرية، 2009، ص116.

([31])  يختلف مضمون الضمان القانوني عن نظيرة الاتفاقي لاختلاف طبيعة كل منهما. فبالنسبة للضمان القانوني يستطيع المشتري رد المبيع والمطالبة بالتعويضات الكاملة أو الاحتفاظ بالمبيع وطلب التعويض عن العيب وإنقاص الثمن بقدر ما أصابه من ضرر بسبب العيب. هذا في حلة العيب الجسيم. أما إذا كان العيب غير جسيم فإن المشتري يحتفظ بالمبيع ويحصل على تعويض عما أصابه من ضرر نتيجةً لهذا العيب. أما عن الضمان الاتفاقي يتمثل في صلاحية المبيع للعمل. ومن ثم فإن إعماله يتمثل في إصلاح الخلل واستبدال الأجزاء المعيبة بأجزاء جديدة. راجع محمد منصور، مرجع سابق، ص 346/347.

([32]) راجع في تفاصيل ذلك محسن البيه، عقد البيع، دار النهضة العربية، القاهرة، 2008، ص360.

([33]) السيد عمران، مرجع سابق، ص172.

([34]) S. Oliveira, “La responsabilité civile dans les cas de dommages causés par les robots d’assistance au Québec”, LL.M, faculté de droit, université de montréal, 2016, p.141/145.

([35]) M. Assunta Cappeli, “regulation on safety and civil liability of intelligent autonomous robots: the case of smart cars”, Ph. D thesis, universita degli studidi Trento, 2014, pp. 131-132.

([36]) A. Santosuosso, et al., “Robots, market and civil liability: A European perspective”, IEEE RO-MAN: The 21st IEEE International Symposium on Robot and Human Interactive Communication, 2012, P. 6.

([37]) سمير تناغو، مصادر الإلتزام، مكتبة الوفاء القانونية، الإسكندرية، 2009، الطبعة الأولى، ص184.

([38]) نبيل سعد، النظرية العامة للالتزام: مصادر الالتزام، دار الجامعة الجديدة، الإسكندرية، 2019، ص374.

([39]) Y. Benhamou, et al., Artificial Intelligence & Damages: Assessing Liability and Calculating the Damages, submitted to as a book chapter: Leading Legal Disruption: Artificial Intelligence and a Toolkit for Lawyers and the Law, P. D’Agostino, , et al.,2020, p. 4.

([40]) سمير تناغو، مرجع سابق، ص227.

([41]) Y. Benhamou, et al.op.cit.p. 6-7.

([42]) J. Brossollet, C. Jaegy And L. Daniele, “Responsabilité civile et intelligence artificielle”, Atelier clinique juridique, 2019, p .3. Available: http://www2.droit.univ-paris5.fr/atelier_clinique_juridique/wp-content/uploads/2019/07/Intelligence-artificielle-Brossolet-Daniele-Jaegy-VDEF.pdf.

([43]) A. Nadeau et R. Nadeau, Traité pratique de la responsabilité civile délictuelle,  Montreal, Wilson and Lafleur, 1971, p.441.

([44]) J. Pineau et M. Ouellette, Théorie de la responsabilité civile, 2e éd., Montréal, Éditions Thémis, 1980, p. 119.

([45]) عبدالرزاق السنهوري، الوسيط في شرح القانون المدني: مصادر الالتزام “الجزء الأول”، دار النهضة العربية، القاهرة، 1964، ص1087.

([46]) كيحل كمال، الاتجاه الموضوعي في المسئولية المدنية عن حوادث السيارات ودور التأمين، رسالة دكتوراه، كلية الحقوق، جامعة أبوبكر بلقايد – تلمسان،2006-2007، ص74/75.

([47]) يحي موافى، المسئولية عن الأشياء في ضوء الفقه والقضاء: دراسة مقارنة، منشأة المعارف، الإسكندرية، 1992، ص39.

([48]) L. Archambault et L. zimermann, “repairing damages caused by artificial intelligence: french law needs to evolve”, gazette du Palals, N. 9, 2018, p.17.

([49]) فالشخص الذي له سلطة الاستعمال والرقابة والتوجيه يكون حارس استعمال لهذا الشيء، أما حراسة التكوين يتحمل تبعتها مالك الشيء أو مصنعه الذي يلقي عليه القانون ضمان مخاطر الشيء التي تنجم عن العيوب الخفية في صنعه أو تركيبه. راجع في ذلك المعني أنور يوسف حسين، ركن الخطأ في المسئولية المدنية للطبيب: دراسة في القانونين اليمني والمصري، رسالة دكتوراه، كلية الحقوق، جامعة أسيوط، 2012، ص516.

([50]) M. Assunta Cappeli .op.cit.pa. 149.

([51]) نبيل سعد، مرجع سابق، ص428.

([52]) محمد شنب، دروس في نظرية الالتزام: مصادر الالتزام، دار النهضة العربية، القاهرة، 1976-1977، ص419/420.

([53]) M. Guillaume, “L’elevation Des Robots A La Vie Juridique”, thèse, Doctoral School of Law and Political Science (Toulouse), 2016.

([54]) علم الوجود يمثل ما هو الموجود فعليا في نظام الذكاء الاصطناعي، فكل برنامج من برامج الذكاء الاصطناعي يمتلك مكونات مميزة مثل أجهزة الاستشعار والمحركات ومقاييس الأداء وأدوات للاتصال والربط بينهم. ويجب تحديد البيئة التي سوف يتعامل معها البرنامج.

([55])  قد صدر هذا التوجيه في 25 يوليو 1985 بشأن المواءمة بين القوانين واللوائح والأحكام الإدارية للدول الأعضاء فيما يتعلق بمسئولية المنتج عن المنتجات المعيبة. ويعد هذا التوجيه التشريع الوحيد الذي ينظم قوانين الدول الأعضاء في الاتحاد الأوربي.

See G. Risso, “Product liability and protection of EU consumers: is it time for a serious reassessment?”, Journal of Private International Law, vol. 15, no. 1, 2019, pp. 210-233.

([56]) A. Santosuosso, et al.op.cit.p.7.

([57]) G. Wagner, “Robot Liability”, SSRN Electronic Journal, p. 6, 2018. Available: 10.2139/ssrn.3198764.

([58]) M. Le Borloch, “La responsabilité des dommages causés par les robots”, Village de la Justice, 2020. Available: https://www.village-justice.com/articles/responsabilite-des-dommages-causes-par-les-robots,30851.html.

([59]) ناجية العطراق، المسؤولية عن فعل المنتجات المعيبة في ضوء القانون المدني الفرنسي، مجلة العلوم القانونية والشرعية، العدد السادس، ليبيا: جامعة الزاوية – كلية القانون،2015، ص84.

([60]) نادية معوض، مسئولية مصنع الطائرة، دار النهضة العربية، القاهرة، 2000، الطبعة الثانية، ص12.

([61]) قادة شهيدة، المسئولية المدنية للمنتج: دراسة مقارنة، رسالة دكتوراه، كلية الحقوق، جامعة أبي بكر بلقايد – تلمسان،2004-2005، ص195.

([62]) L. Mazeau, “Intelligence artificielle et responsabilité civile : Le cas des logiciels d’aide à la décision en matière médicale”. Revue pratique de la prospective et de l’innovation, LexisNexis SA, 2018, pp.38– 43. Available: https://hal.archives-ouvertes.fr/hal-01852548/document.

([63]) قانون التجارة المصري رقم 17 لسنة 1999 المنشور بالجريدة الرسمية العدد 19 مكرر في 17/5/1999.

([64]) فتحي عبد الله، نظام تعويض الأضرار التي تلحق بأمن وسلامة المستهلك في القانون المدني المصري والمقارن، مجلة البحوث القانونية والاقتصادية، العدد الخامس والعشرون، القاهرة: جامعة المنصورة –كلية الحقوق،1999، ص67.

([65]) M. E. Gerstner, “Liability Issues with Artificial Intelligence Software”, Santa Clara Law Review, vol. 33, no. 7, 1993, p. 250.

([66]) M. E. Gerstner.op.cit.p.251.

([67]) Y. Benhamou, et al.op.cit.p.7.

([68]) C. Bertsia, “Legal liability of artificial intelligence driven-systems (AI)”, master thesis, international hellenic university, 2019, p.35.

([69]) P. Čerka, J. Grigienė and G. Sirbikytė, “Liability for damages caused by artificial intelligence”, Computer Law & Security Review, vol. 31, no. 3, 2015, pp. 376-389. Available: 10.1016/j.clsr.2015.03.008.

([70]) L. Archambault, et al.op.cit.p.17.

([71]) حيث قضت محكمة استئناف poitiers الفرنسية بأن في 19/2/2003 بمسئولية منتج طلاء الشعر لإخلاله بالتزامه بالسلامة، وذلك لعدم قيامه بلفت انتباه المستخدمين إلى التحذيرات الواجب مراعاتها عند الاستعمال. انظر مختار رحماني محمد، المسئولية المدنية عن فعل المنتجات المعيبة، رسالة دكتوراه، كلية الحقوق بن عكنون، الجزائر، 2016، ص91.

([72]) J. Borghetti, “Civil Liability for Artificial Intelligence: What Should its Basis Be?”, La Revue des Juristes de Sciences Po, n°17 ISSN 2111-4293, 2019,PP. 94-102, Available at SSRN: https://ssrn.com/abstract=3541597

([73]) J. Feng, ” Le droit des produits défectueux: une approche euro-américaine”, thèse, université de Perpignan, universitat de Girona, Français, 2016, p.208

([74]) P. Opitz, Civil Liability and Autonomous Robotic Machines: Approaches in the EU and US, TTLF Working Papers No. 43, Stanford-Vienna, 2019, p.23.

([75]) F. Hubbard, “‘Sophisticated Robots': Balancing Liability, Regulation, and Innovation”, Papers.ssrn.com, 2014, p.1833.

([76]) M. Assunta Cappeli.op.cit.p.151.

([77]) عمارة نعيمة، الاتجاه نحو التأسيس للمسئولية المدنية على أساس مبدأ الحيطة، مجلة دفاتر السياسة والقانون، العدد التاسع، الجزائر: جامعة قصدي مرباح ورقلة،2013، ص11.

([78]) إحسان حسين، الأضرار التي تلحق بالمتهم وعلاجها دراسة مقارنة في الفقه والقانون، دار الكتب العلمية، بيروت، 2019، ص137.

([79]) علي كحلوان، النظرية العامة للالتزامات، منشورات مجمع الأطرش للكتاب المختص، تونس، 2015، ص720.

([80]) عبدالرزاق السنهوري، مرجع سابق، ص973.

([81]) نبيل سعد، مرجع سابق، ص438/439.

([82]) بلحاج العربي، النظرية العامة للالتزامات في القانون المدني الجزائري، الجزء الثاني، ديوان المطبوعات الجامعية، الجزائر، 1999، ص273/274.

([83]) ثروت عبد الحميد، النظرية العامة للالتزامات في القانون المدني المصري: الجزء الأول في مصادر الالتزام، بدون دار نشر، بدون سنة طبع، ص308.

([84]) نبيل سعد، مرجع سابق، ص482.

([85]) إدريس العبدلاوي، النظرية العامة للالتزام: الجزء الثاني، بدون دار نشر،2000، ص193.

([86]) ثروت عبد الحميد، مرجع سابق، ص308.

([87]) ينقسم الضرر الموجب للمسئولية إلى ضرر مادي وآخر ضرر أدبي (معنوي) والضرر المادي يتمثل في إصابة الجسد أو المساس بحق أو مصلحة مالية أو اقتصادية للمضرور، أما الضرر الأدبي هو الذي لا يلحق الشخص في ماله بل في مشاعره وسمعته فهو يصيب مصلحة أدبية وليست مالية راجع في ذلك محمد محي الدين سليم، نطاق الضرر المرتد، دراسة تحليلية لنظرية الضرر المرتد، دار النهضة العربية، القاهرة، 2009، ص7/8.

([88]) نبراس جابر، المسؤولية المدنية الناشئة عن اخلال الغير بالعقد – دراسة مقارنة، مجلة المحقق الحلى للعلوم القانونية والسياسية، العدد الأول، السنة العاشرة، العراق: جامعة بابل – كلية القانون،2018، ص422.

([89])  راجع في ذلك محمد اسماعيل مصطفي، الضرر المرتد، دراسة مقارنة، رسالة ماجستير، جامعة القدس، فلسطين، 2019، ص11.

([90]) بلحاج العربي، مرجع سابق، ص155.

([91]) V. Sumantri, “Legal Responsibility on Errors of the Artificial Intelligence-based Robots”, Lentera Hukum, vol. 6, no. 2, p. 331, 2019. Available: 10.19184/ejlh.v6i2.10154.

([92]) تنص المادة 747 من القانون المدني المصري على أن ” التأمين عقد يلتزم المؤمن بمقتضاه أن يؤدي إلي المؤمن له أو المستفيد الذي اشترط التأمين لصالحه مبلغاً من المال أو إيراد مرتباً أو أي عوض مالي أخر في حالة وقوع الحادث أو الخطر المبين بالعقد وذلك في نظير قسط أو أي دفعة مالية أخري يؤديها المؤمن له للمؤمن” مشار إليها لدى محمد حسين، عقد التأمين، دار النهضة العربية، القاهرة،1993،ص11.

([93]) أحمد شرف الدين، أحكام التأمين دراسة في القانون والقضاء المقارنين، دار النهضة العربية، القاهرة، 1991، الطبعة الثالثة، ص12.

([94]) محمد نصر، الوسيط في نظام التأمين: دراسة مقارنة مع الأنظمة العربية، مكتبة القانون والاقتصاد، الرياض، 2015، ص85/86.

([95]) أحمد شرف الدين، مرجع سابق، 12؛ محمد لطفي، الأحكام العامة لعقد التأمين: دراسة مقارنة بين القانونين المصري والفرنسي، دار النهضة العربية، القاهرة، 2017-2018، الطبعة السادسة، ص61/62.

([96]) H. Samani, Cognitive robotics. Boca Raton: CRC Press, Taylor & Francis Group, 2016, p. 17.

([97]) M. Assunta Cappeli.op.cit.117.

([98]) N. Kalra, J. Anderson and M. Wachs, “Liability and Regulation of Autonomous Vehicle Technologies”, Trid.trb.org, 2009, p.21. Available: https://trid.trb.org/view/1305151.

([99]) A. Bertolini, “Insurance and Risk Management for Robotic Devices: Identifying the Problems”, Global Jurist, vol. 16, no. 3, 2016, pp. 310-311.

([100]) Y. Benhamou, et al.op.cit.p.14.

([101]) F. J. Marryott, the tort System and automobile claims: evaluating the keeton-o’connell proposal, american bar association journal, vol. 52, No. 7 1966, pp. 639-643. Available at: https://sci-hub.tw/10.2307/25723672

([102]) O. Rachum Twaig, “Whose Robot Is It Anyway?: Liability for Artificial-Intelligence-Based Robots”, University of Illinois Law Review, Vol. 2020, Forthcoming, 2019, p. 29-30. Available at SSRN: https://ssrn.com/abstract=3339230

([103]) C. Van Rossum, liability of robots: legal responsibility in cases of errors or malfunctioning, LLM, faculty of Law, Ghent university, 2017, p.43.

([104]) مها رمضان بطيخ، المسئولية المدنية للدولة عن أضرار الإرهاب، دراسة مقارنة، رسالة دكتوراه، كلية الحقوق، جامعة عين شمس، القاهرة، 2017، ص361.

([105]) سعيد قنديل، آليات تعويض الأضرار البيئة دراسة في ضوء الأنظمة القانونية والاتفاقيات الدولية، دار الجامعة الجديدة، الإسكندرية، 2004، ص105.

([106]) محسن البيه، المسئولية المدنية عن الأضرار البيئية، مكتبة الجلاء، المنصورة، 2002، ص151/152.

([107]) R. Abbott, The reasonable robot. Cambridge University Press: University of Surrey School of Law, 2020, pp. 132-133.

([108]) G. Borges, Liability and new technologies: Concepts and addressees of liability, university of Saarland, 2020, p.46. Available: https://www.rechtsinformatik.saarland/images/pdf/vortraege/2020-01-21_Borges-Emerging-Technologies-2.pdf.

([109]) C. Van Rossum.op.cit.p.43-44.


Updated: 2020-11-21 — 10:25
JiL Scientific Research Center © Frontier Theme