دور الالتزام ببذل عناية والالتزام بتحقيق نتيجة في تحديد نوع المسؤولية المدنية الناتجة عن أضرار صور استخدامات الذكاء الاصطناعي المختلفة ـ دراسة في ضوء التشريع الأوروبي
The role of the Obligation of Conduct and the Obligation of Result in determining the type of Civil Liability Resulting from the Damages Various Forms of Artificial Intelligence Uses – A Study in the Light of European Legislation
د/ عبدالرحمن محمد عبدالغني سالم، الكلية التكنولوجية ببورسعيد ـ فرع دمياط، مصر)
Abd Ul-Rahman Mohamed Abd Ul-Ghani Salem (College of Technology in Port Said , Egypt.)
مقال منشور في مجلة جيل الأبحاث القانونية المعمقة العدد 53 الصفحة 11.
Abstract
The methods of exploiting the world by man are developing with tremendous speed. Nowadays we became in a world which could be considered a fiction in the near past. Fictions of the past became facts in the present. This could be achieved by which is now known by The Artificial Intelligence (AI). Although, from the law point of view, the appointed rules of the community did not take the appropriate study and research in the context of the AI.
Also from civil responsibility point of view the flaws of the excessive use of AI did not take the appropriate study and investigation. Regarding the development of the bases of civil responsibility (CR), we find that the development of machinery is the motive of the development of the CR.
We can consider AI as the fundamental spirit of the modern machinery. As long as we take into consideration that the development of modern machinery is the basic motive of the development of the CR, we must take AI into consideration too.
The appropriate act I to put the problem in its appropriate frame give it its proper attention. This could be achieved through this study and recognition of the available system of AI. We must examine and through light on the available kinds of AI and hence examine the case of considering it as either a true person or as a mere matter. This will well define the kind of responsibility that to be considered as the basis of CR. We can name it the subjective responsibility.
As a result, we must look at the prevailing and the most common in use, the European legislation. They invented the idea of the Human Agent (HA). HA is the med step between the dependence and the independence of the AI. This AH can be asked about the flaws of the AI. This could be done from several aspects defined in the European legislation.
According to the above mentioned we can define the kinds of the rules that the responsible might take into consideration in the all aspects. These rules can lead to either developing more care or achieving a result. This affects directly and indirectly the matter of proving the rules of the bases of the responsibility. Also verifies the bases of the responsibility and its means.
Keywords: Obligation of Conduct, Obligation of Result, Human Agent, Artificial Intelligence AI, Civil Law Rules on Robotics, System of AI.
المُلخص:
تتطور وسائل تسخير الكون بيد الإنسان بسرعة رهيبة، حتى أصبحنا في عالم كاد أن يكون أشبه بالخيال في الأمس القريب، هو عالم الذكاء الاصطناعي. وعلى الرغم من ذلك، لم ينل تنظيم هذا العالم الجديد وما يمكن أن يؤول إليه البحث المناسب من الناحية القانونية عمومًا، ومن ناحية المسؤولية المدنية عن الأضرار الناتجة عن استخداماته المتلاحقة بصفة خاصة. فإذا كان النظر في تطور أسس المسؤولية عمومًا يقودنا إلى الاعتراف بأن تطور الآلة هو المُحرك لتطور أسس المسؤولية المدنية، فإن هذا القول أولى بالنظر في حالة التطور نحو عالم الذكاء الاصطناعي؛ حيث تلعب الآلة دورًا مهمًا في الحياة الجديدة، فتمثل الأنظمة الذكية الروح بالنسبة للآلة في هذه الحياة. من أجل ذلك، وجب وضع المشكلة في نطاقها الصحيح من خلال التعرف على الأنظمة الذكية، وإلقاء الضوء على أنواعها، ثم النظر في مدى صحة اعتبارها شخصًا أو شيئًا، وهو ما سوف يحدد نوع المسؤولية التي تصلح لتأسيس المسؤولية وهي المسؤولية الموضوعية.
وينتج عن ذلك، النظر في التشريع الأكثر تناولاً وهو التشريع الأوروبي لمعالجة هذه المسألة، فنجد أنه ابتكر فكرة “النائب أو الوكيل الإنساني”، والذي يمكن اعتباره مرحلة وسط بين تبعية واستقلال النظام الذكي. ويُسأل هذا النائب عن أضرار النظام الذكي في صور عديدة، حددها المشرع الأوروبي. بناءً على ذلك، يمكن تحديد نوع التزامات المسؤول في جميع الصور وهل هي التزامات ببذل عناية أو بتحقيق نتيجة. وهذا الأمر يؤثر بطريق مباشر وغير مباشر على مسألة عبء إثبات الالتزام وأركان المسؤولية وإمكان نقله من طرف لأخر وأيضًا على مسألة دفع المسؤولية ووسائلها.
الكلمات المفتاحية: الالتزام ببذل عناية، الالتزام بتحقيق نتيجة، الوكيل الإنساني، الذكاء الاصطناعي، القانون المدني الأوروبي، الأنظمة الذكية.
مقدمة
يُعد مجال الذكاء الاصطناعي بصفة عامة، وتطبيقاته من أنظمة ذكية بصفة خاصة، بيئة خصبة للأبحاث المتنوعة في جميع مجالات البحث العلمي، سواء العملية أو النظرية؛ نظرًا لحداثته. فحتى الآن لم تتناول التشريعات الداخلية للدول العربية معالجة المسؤولية المدنية عن الأضرار الناتجة عن استخدامات الأنظمة الذكية من خلال قواعد خاصة تحكم هذه المسؤولية.
ولعل هذا هو الدافع نحو البحث من خلال التشريع المدني الأوروبي للروبوتات ـ والذي قام بتنظيم قواعد المسؤولية المدنية الناتجة عن أضرار استخدامات الأنظمة الذكية ـ كتطبيق يمكن تعميمه على كافة الأنظمة الذكية، خصوصًا بعد ابتكاره لفكرة “النائب أو الوكيل الإنساني”، كمرحلة وسط بين التبعية والاستقلال.
والجدير بالذكر، أن فكرة “النائب أو الوكيل الإنساني” وإن أثرت على البحث في مجال المسؤولية المدنية، إلا أنه تطور محتوم سوف تمر به الأنظمة الذكية حتى تصل إلى الاستقلال الكامل، وما يستتبع ذلك من ضرورة تطوير القواعد الحاكمة لمسألة المسؤولية المدنية الناتجة عن أضرار استخداماتها. وهو ما جعل إلقاء الضوء على هذه المسائل المستقبلية أمرًا مهمًا ـ كما فعل المشرع الأوروبي.
بالإضافة لذلك، فإذا كان اختيار المشرع الأوروبي لنوع المسؤولية الموضوعية أو المسؤولية دون خطأ” ـ في المرحلة الحالية من مراحل قوة الأنظمة الذكية؛ لتأسيس المسؤولية المدنية الناتجة عن استخدامات الأنظمة الذكية، فإن ذلك لم يمنع البعض من القول إنه في المستقبل ـ في مرحلة الذكاء الخارق ـ سوف يتم التخلي ليس فقط عن إثبات الخطأ، بل التخلي أيضًا عن إثبات المضرور لعلاقة السببية، الأمر الذي يؤثر على التزامات المسؤول من حيث نوعها ودرجتها، وبالتالي على عبء إثبات المضرور للضرر وعلاقة السببية، ووسائل دفع المسؤولية، وإمكان نقل عبء الإثبات من طرف لأخر، على حسب نوع الالتزام، وفي كل صورة من صور استخدامات الأنظمة الذكية.
أهمية البحث:
يكتسب البحث أهميته من عدم التنظيم التشريعي المستقل لتطبيقات الذكاء الاصطناعي، فلا يمكن أن تعمل الأنظمة الذكية أو البرامج إلا من خلال آلة سواء كانت حاسبًا آليًا أو سيارة أو قطارًا أو روبوتًا أو غير ذلك. أي إن النظام الذكي يتكون من شيء مادي، وشيء معنوي، الأمر الذي يثير مادية وشيئية النظام الذكي، ومدى اعتباره شيئًا أو شخصًا مستقلاً.
كما تتركز أهمية الدراسة في ارتباط المسؤولية الناتجة عن أضرار استخدامات الأنظمة الذكية ببعض المسائل الدقيقة، والتي قد تقف التشريعات الداخلية للدول عاجزة أمام تطبيقها، كتحديد الأساس المناسب للمسئولية الناتجة عن أضرار استخداماتها، ومدى الخلاف في تلك المسألة المترتبة على مدى اعتبار الأنظمة الذكية شخصًا أو شيئًا. ولعل خروج المشرع الأوروبي بفكرة “النائب أو الوكيل الإنساني” المبتكرة هو خير دليل على ذلك.
إضافة لذلك، ترتبط هذه المسألة ارتباطًا لا يقبل التجزئة بمسألة تحديد المسؤول، ومدى الالتزام الواقع عليه، وبالتالي ضرورة تحديد نوعه وطبيعته؛ لأن ذلك يؤثر تأثيرًا مباشرًا على عبء إثبات التزامات المسؤول في تطبيقات الأنظمة الذكية، وكذلك طرق دفعها إن أمكن في كل صورة من صور تلك الاستخدامات؛ حيث جاء التشريع الأوروبي مختلفًا عن القواعد العامة الداخلية في شأن معالجة تلك المسائل.
ليس هذا فقط، بل تكتسب الدراسة أهمية بالغة من ناحية قلة المراجع ـ خصوصًا العربية ـ التي تتطرق لتلك النقاط المهمة، إضافة إلى عدم كفاية التشريعات القائمة لمعالجتها، وكان ذلك هو الدافع نحو معالجة هذا الموضوع والاستعانة بالمراجع الأجنبية، مع إتمام الدراسة في ضوء التشريع الأوروبي الذي نظم تلك المسائل تنظيمًا شبه كامل. كما أن هذا الفرع الجديد بحاجة إلى المعالجة الكاملة لمسائله الدقيقة الحالية والمستقبلية والمتعلقة بمسائل المسؤولية والإثبات، والتي تتحدد بعد تحديد نوع الالتزام.
إشكاليات البحث
تتمثل إشكاليات البحث في إشكالية رئيسية، يتفرع عنها إشكاليات ثانوية. وتتمثل الإشكالية الرئيسية في تكييف التزامات المسؤول عن استخدامات الأنظمة الذكية، وما إذا كانت التزامات ببذل عناية أو التزامات بتحقيق نتيجة. وهو الأمر الذي يساعد في الوصول إلى حلول للإشكاليات الثانوية، والمتمثلة في حل إشكالية تحديد نوع المسؤولية الذي يتناسب مع جبر الأضرار الناتجة عن استخدامات الأنظمة الذكية، والتي أحدثت خلافات فقهية؛ بسبب الخلاف القائم حول تكييف النظام الذكي على أنه شئ أو شخص مستقل. كما يساعد ذلك في حل إشكالية اختيار فكرة “النائب أو الوكيل الإنساني” التي ابتكرها المشرع الأوروبي ومحاولة تحليلها، ودورها في تحديد صور استخدامات الأنظمة الذكية، وبالتالي ضرورة بحث نوع التزام المسؤول في كل صورة؛ للوصول بسهولة إلى مدى عبء الإثبات الملقى على المضرور، ووسائل دفع المسؤولية من قِبل المسؤول، الأمر الذي يساعد في تصور كامل لتشريع يعالج بدقة مسائل المسؤولية.
الهدف من البحث
تهدف هذه الدراسة إلى الوقوف على مدى كفاية القواعد العامة في التشريعات المدنية للتطبيق في مسألة المسؤولية المدنية ـ خصوصًا في موضوع البحث، وبالتالي مدى الحاجة إلى تشريع مستقل يتم فيه وضع أحكام تتناسب وخصوصية المسؤولية المدنية الناتجة عن أضرار استخدامات الأنظمة الذكية.
منهج البحث:
اتبعت في البحث ـ في سبيل الوصول لحل إشكالياته ـ المنهج الوصفي التحليلي للتشريع المدني الأوروبي بشأن الروبوتات، كتطبيق للأنظمة الذكية. وذلك في محاولة لتطبيق تلك الأحكام والاستعانة بها ـ بعد تنقيتها وتطويرها بتطور دور الأنظمة الذكية في التعلم والاستقلال ـ وذلك عند وضع تشريع عربي ينظم تلك المسائل، فتصبح بذلك تحت بصيرة ورؤية كل مشرع عربي.
خطة البحث
يمكن معالجة هذا البحث من خلال مبحث تمهيدي، ومبحثين رئيسيين، كما يأتي:
المبحث التمهيدي: ماهية الذكاء الاصطناعي.
المبحث الأول: الالتزام ببذل عناية والالتزام بتحقيق نتيجة من منظور أسس المسؤولية المختلفة.
المبحث الثاني: الالتزام ببذل عناية والالتزام بتحقيق نتيجة وصور استخدام الأنظمة الذكية.
مبحث تمهيدي
ماهية الذكاء الاصطناعي
تعمل الأنظمة الذكية من خلال تطبيقات الذكاء الاصطناعي؛ لذلك ينبغي قبل تناول مجالات تطبيق الذكاء الاصطناعي بالدراسة التعرض أولاً لمفهومه من خلال العرض لتعريف الذكاء الاصطناعي، وبالتالي الوصول منه إلى مفهوم النظام الذكي، وذلك في مطلبين كما يأتي:
المطلب الأول
مفهوم الذكاء الاصطناعي
بداية تجدر الإشارة إلى أنه من البديهي أن تعريف الذكاء الاصطناعي يُقابل تعريف الذكاء الإنساني البشري، ولصعوبة وضع تعريف للذكاء الإنساني ذاته، فالأمر لا يعدو أن يكون على هذا النحو عند محاولة وضع تعريف للذكاء الاصطناعي. حيث نجد أن هناك محاولات عديدة من العلماء في مختلف المجالات حول تعريف الذكاء، فعُرف بيولوجيًا[1] بأنه “التكيف المستمر للعلاقات الداخلية مع العلاقات الخارجية، ويتم الكشف لدى الحيوانات الدنيا بفضل الغرائز، أما لدى الإنسان فإنه يتحقق بواسطة الذكاء”، كما عرفه Spearman بأنه “القدرة على إدراك العلاقات والمتعلقات، بمعنى أخر الاستقراء والاستنباط”، وعرفه Alfred Binetبـ “القدرة على الفهم والابتكار والتوجيه الهادف للسلوك والنقد الذاتي”، وقال David Wechsler “إنه القدرة الكلية لدى الفرد على التعرف الهادف والتفكير المنطقي والتعامل الفعال مع البيئة”، ووضع Boringتعريفًا إجرائيًا للذكاء بأنه “ما تقيسه اختبارات الذكاء”، وأخيرًا عرفه Dearborn بـ”القدرة على التعلم والإفادة من الخبرات”، أو “القدرة على التفكير المجرد”، كما عرفه Lewis Terman[2].
ولم يقف تعريف الذكاء عند تناوله من وجهة نظر معينة ـ كما سبق ـ وفقًا للزاوية المنظور بها إليه، ففي محاولة لوضع تعريفات توافقية تجمع بين تلك النظرات جميعها عُرف في بيان لمجموعة من الباحثين بأنه: “قدرة عقلية عامة فائقة جدًا تتضمن ـ من بين أشياء أخرى ـ القدرة على التفكير، التخطيط، حل المشكلات، التفكير المجرد، فهم الأفكار المعقدة والتعلم بشكل سريع أو التعلم بالخبرة. ليست مجرد المعرفة المكتسبة من الكتب أو المهارة الأكاديمية الضيقة أو اجتياز اختبارات الذكاء، بل هي القدرة العميقة والواسعة لفهم ما يحيط بنا من الإدراك والوعي بالأشياء أو استنتاج ما يجب القيام به”[3].
وفي محاولة أخرى نحو الوصول إلى تعريف توافقي للذكاء يجمع بين مختلف العناصر السابق بيانها، انتهى فريق عمل مكون من 11 باحثًا تم تكليفهم من قبل الجمعية الأمريكية لعلم النفس (APA) American Psychological Association إلى إعداد تقرير انتهوا فيه إلى أنه: “تختلف الأفراد بعضها عن بعض في قدراتهم على فهم الأفكار المعقدة، التكيف بفاعلية مع البيئة، التعلم بالتجربة، الانخراط في أشكال مختلفة من التفكير المنطقي وتخطي العقبات من خلال التفكير. وعلى الرغم من أن هذه الفروق الفردية قد تكون جوهرية، إلا أنها لا يمكن أن تكون ثابتة أبدًا فالأداء الفكري لشخص معين سيختلف في مناسبات ومجالات مختلفة كما أنه محكوم بمعايير مختلفة. ومفاهيم الذكاء هي محاولات لتوضيح وتنظيم هذه المجموعة المعقدة من الظواهر. وبالرغم من تحقيق الوضوح في بعض الأمور إلا أنه لم يتم الإجابة عن كل تلك الأسئلة المهمة بعد. فليس هناك أوامر تحظى بالموافقة العامة، ففي الواقع عندما طُلب حديثًا من عشرين باحثًا بارزًا تعريف الذكاء أعطوا عشرين تعريفًا مختلفًا بعض الشيء. وهذه الاختلافات ليست مدعاة للفزع، فنادرًا ما يبدأ البحث العلمي بتعريفات متفق عليها تمامًا، على الرغم من أنه قد يؤدي إليها في النهاية”[4].
ولما كان الاختلاف واضحًا حول تعريف الذكاء بصفة عامة، فانتقل هذا الاختلاف إلى تعريف الذكاء الاصطناعي أيضًا[5]؛ هذا ولم يقتصر تعريفه على تعريف واحد فقط بل اختلفت التعريفات حسب الزاوية المنظور منها إليه، وحسب نوع العلم الذي من منظوره وُضع التعريف[6]. فعرفته موسوعة بريتانيكا (Bri91) ـ من وجهة نظر الهندسة الإلكترونية، ووضع له إيلين ريتش تعريفًا من هذا المنظور أيضًا[7]، كما وضع له John McCarthy تعريفًا من منظور الهندسة الكهربية[8]، وهو الأمر ذاته في مجال الهندسة المعمارية خصوصًا في مجال العمارة الذكية والتصميم الذكي[9]. ولم يقتصر الأمر عند هذا الحد بل وضع له تعريف في مجال التدقيق المحاسبي والمالي[10]، وفي مجال القطاع الحكومي[11]، وفي مجال صناعة القرار[12]، وأيضًا في مجال التعليم العالي والبحث العلمي[13].
ومن خلال بحث مفهوم الذكاء الاصطناعي من وجهة نظر تلك العلوم التي استخدمته لتطوير أفرع علومها، يجدر بنا الآن أن نعرض لمحاولة تعريف الذكاء الاصطناعي من خلال تجميع عناصر التعريفات المختلفة لكل فرع من فروع المعرفة، وغيرها من التعريفات الموضوعة من قبل المؤسسات والهيئات البحثية، ودراستها وتحليلها؛ لاستخراج العناصر والقواسم المشتركة التي يتسم بها، ووضعه أمام تعريفات الذكاء بصفة عامة؛ للوصول إلى مفهوم عام جامع للذكاء عامة والذكاء الاصطناعي بصفة خاصة.
فنجد محاولة في مجال الذكاء الاصطناعي لبحث المسألة واستخلاص التعريفات، حيث انتهت تلك المحاولة بأن الذكاء يتسم بأنه: 1ـ الملكة التي يتمتع بها كيان في التفاعل مع بيئته أو البيئات الأخرى؛ 2ـ والمرتبطة بقدرة الكيان على الإفادة أو النجاح في تحقيق الأهداف؛ 3ـ والمعتمدة على مدى قدرة الكيان على التكيف مع الأهداف والبيئات المختلفة. ومن عناصر وخصائص الذكاء تلك عرفوا الذكاء عمومًا لأي كيان ـ سواء كان شخصًا أو شيئًا، بأنه: “مقاييس ذكاء قدرة كيان على تحقيق الأهداف في مجموعة متنوعة من البيئات”[14].
ومن جهة أخرى، وبعد تجميع عناصره المختلفة فقد عُرف الذكاء الاصطناعي بأنه: “عبارة عن لغة معينة يتم برمجتها من قبل الإنسان تُمكن الآلة من أداء أعمال تُعد ذكية إذا ما قام بها البشر، وهو علم وتكنولوجيا مستندة إلى فروع العلوم الأخرى كالحاسوب والهندسة والرياضيات وعلم النفس والطب والأحياء، لمحاولة بناء آلات تفكر وتتصرف كالبشر بحيث تكون قادرة على التعلم واستخدام معارفها لحل المشاكل وحدها”[15]. كما عُرف أيضًا بأنه: “القدرة على العمل باستقلالية كالإنسان. وعلم الذكاء الاصطناعي يهدف إلى دراسة سبل وصول الأنظمة إلى العمل باستقلالية”[16].
وفي ضوء ما سبق عرضه، يمكن وضع تعريف للذكاء الاصطناعي ـ من وجهة نظري، وهو أنه: “قدرة التكنولوجيا في أفرع العلوم المختلفة على محاكاة البشر أو العمل مثلهم، والتفاعل معهم ومع بيئاتهم المختلفة باستقلالية تامة”.
وينقسم الذكاء الاصطناعي إلى نوعين[17]: الأول: ذكاء اصطناعي ضعيف أو حذر (Weak AI)، تقوم الآلات أو البرامج أو الأنظمة التي تتأسس عليه بمجرد محاكاة السلوك الإنساني الذكي، وإن كانت تمنحنا صياغة واختبار للفرضيات بطريقة أكثر صرامة ودقة. والثاني: ذكاء اصطناعي قوي (Strong AI)، تقوم فيه تلك الآلات أو البرامج أو الأنظمة بالسلوك الذكي كالإنسان تمامًا، فالآلة هنا يكون لديها عقل كالعقل البشري، فالكمبيوتر المُبرمج هو حقًا عقل بشري[18]. ويمكن القول إن الذكاء الاصطناعي في عصرنا الحالي من النوع الأول؛ حيث تُحاكي الآلات والأنظمة والبرامج السلوك الإنساني الذكي، أما الذكاء الاصطناعي القوي مرحلة لم تصل إليها البشرية بعد[19]، هذا من جهة.
ومن جهة أخرى، يرى البعض ـ بحق[20] ـ أن الذكاء الاصطناعي القوي يحتاج إلى وقت كبير ربما يصل لعقود حتي تصل تكنولوجيا الذكاء الاصطناعي إليه، وهو الدافع إلى تقسيم الوعي الاصطناعي ـ على غرار الذكاء الاصطناعي ـ إلى وعي اصطناعي ضعيف، ووعي اصطناعي قوي، الأول مجرد محاكاة للوعي البشري، والثاني يماثل ويوازي الوعي البشري[21]. وعلى الرغم من ذلك فهناك من يرى أننا نعيش الآن تلك الطفرة المتمثلة في الوعي الاصطناعي القوي، وإن كان محدودًا لم يصل درجة الوعي البشري الكامل. وقد عُرف الوعي الاصطناعي بأنه: “عملية الإدراك من خلال تفكير الأنظمة المعقدة المبني على مجموعة من الخوارزميات، المكونة من معارفها، نواياها، قراراتها، وأفعالها من الواقع أي المعلومات الداخلية والخارجية المستلمة المتراكمة والمستمرة”[22].
وفي ضوء ما سبق، يمكن تعريف الأنظمة الذكية ـ وهي محور البحث ـ والتي تستخدم تقنيات الذكاء الاصطناعي في عملها، بأنها هي: “تلك الأنظمة التي تستخدم القدرة التكنولوجية لمحاكاة البشر أو العمل مثلهم، والتفاعل معهم ومع بيئاتهم باستقلالية تامة”.
وفي النهاية، قد تتشابه أنظمة الذكاء الاصطناعي مع غيرها من الأنظمة، إلا أن ذلك لا يلغي الفرق بينهم، كالأنظمة الموجهة التي تحتاج تدخل شخصي من مستخدمها أو من تعمل الآلة أو النظام لصالحه، وهو ما لا تحتاجه الأنظمة الذكية، ومن أمثلتها: رسائل البريد التي تتطلب تدخل الشخص للرد على الرسائل أو إرسالها إلى أي شخص أخر، ولأي غرض[23]. كما تتشابه مع الأنظمة المؤتمتة[24]، إلا أن الفرق بينهما يتمثل في أن الأنظمة المؤتمتة وإن كانت لا تحتاج لتدخل شخصي من مستخدمها للوصول إلى الهدف كالأنظمة الذكية، لكن الأخيرة يتسم سلوكها بالذكاء والاستقلالية؛ فهو ليس مجرد سلوك آلي محدد من المُبرمج.
المطلب الثاني
مجالات الذكاء الاصطناعي
تتنوع ـ في عصرنا الحالي ـ مجالات استخدام الذكاء الاصطناعي، بداية من البرامج والأنظمة الصغيرة المستخدمة في مجال الإلكترونيات إلى الروبوتات الكاملة المُستخدمة في المجال العسكري. ويمكن أن نعرض هنا للمجالات الرئيسية التي تحوي كل ذلك، والمتمثلة فيما يأتي:
1ـ الأنظمة الخبيرة Expert Systems
هي أنظمة حاسوبية ـ متعلق عملها بفكرة عمل الحاسب الآلي، قادرة على محاكاة الخبراء البشريين في مجال معين، ومزود بقاعدة معرفية مكونة من المعرفة والخبرة البشرية في ذات المجال، إضافة إلى محرك استدلال يقوم بعملية المعالجة داخل النظام باستخدام تلك القاعدة، وواجهة تتيح للمستخدم التفاعل مع النظام بطرح أسئلة عليه وتلقي الإجابات. وتتعدد مجالات استخدام الأنظمة الخبيرة، فمنها المعاملات المصرفية، تنظيم المرور، مشكلات الجداول الضخمة بالجامعات والمؤسسات الكبيرة، عملية التشخيص والعلاج الطبي، والحفاظ على سرية العملاء والمعاملات[25].
2ـ الشبكات العصبية الاصطناعية (ANN) Artificial Neural Network
وهي مجموعة مترابطة من عناصر أو وحدات أو عُقد معالجة بسيطة، تُحاكي في عملها عمل الخلايا العصبية البيولوجية أو الطبيعية، ويتم تخزين قدرة معالجة الشبكة في نقاط القوة أو الثِقل للاتصال بين الوحدات التي يتم الحصول عليها من خلال عملية التكيف التي تتم بواسطة مجموعة من أنماط التدريب أو التعلم. وتُسمى بـ “الشبكات العصبية الاصطناعية”، وتُستخدم في مجالات كثيرة، منها: التحليل الإحصائي، ومجالات الخبرة البشرية مثل التشخيص الطبي، المسح الجيولوجي للنفط، والتنبؤ بمؤشرات السوق المالية، وفي مجالات الصناعة والتجارة والحاسب الآلي والمحاسبة والبورصة وعلم الروبوت، وغيرها[26].
3ـ معالجة اللغات الطبيعية (NLP) Natural Language Processing
هي قدرة النظام أو الآلة ذاتها على الاتصال بالبشر عبر لغة طبيعية، بداية من تحليل وفهم اللغة الطبيعية حتى إنشائها، فنحن نريد جعل هذا الاتصال يدور بلغة أقرب ما تكون إلى اللغات الطبيعية. ونعني بذلك تلك اللغات المرتبطة بحضارة وثقافة الإنسان كاللغات الإنجليزية والفرنسية والإسبانية والعربية على سبيل المثال. إن ما نحتاجه هو جسر بين مثل هذه اللغات ولغة الحاسب الآلي الدنيا التي تناسب الآلة[27]، بغرض جعل النظام يتفاعل مع البشر كما يتفاعل البشر فيما بينهم[28]. ومن تطبيقات هذا الفرع من فروع الذكاء الاصطناعي: علم الروبوت، الفضاء، وغيرها.
4ـ تعلم الآلة Machine Learning
هي النظام أو الآلة على التعلم والتصرف، دون برمجة النظام أو الآلة على ذلك مُسبقًا؛ حيث يقوم هذا الفرع من فروع الذكاء الاصطناعي على خوارزميات قادرة على التعلم الذاتي[29]. ومن أمثلتها: التعرف على رسائل البريد الإلكتروني المزعجة Spam، وفلترتها، والتعرف على الوجوه عبر الفيس بوك، واعتماد محرك البحث جوجل على التعلم الذاتي للآلة فيما يتعلق بظهور النتائج وترتيبها، ويُستخدم كذلك في مجال الروبوت وغيرها من المجالات[30].
وهناك أنواع متعددة من فرع تعلم الآلة[31]، منها ثلاثة رئيسية، وهي: أـ التعلم الخاضع للإشراف أو التعلم التنبؤي Supervised Learning OR Predictive Learning: وهو تزويد الآلة أو النظام بمدخلات ومخرجات الوظيفة المطلوبة، حيث يتم الرد بالمخرج بناءً على بيانات المدخل، الأمر الذي يعني تزويد الآلة بالمدخلات والمخرجات مسبقًا، ومثالها رسائل البريد الإلكتروني[32]. وتعد محركات التوصية والانحدار والتصنيف أمثلة على طرق التعلم الخاضعة للإشراف، حيث يتم ربط المدخلات بالمخرجات ـ كفكرة أساسية ـ فيتم التنبؤ عن طريق المدخلات الجديدة بالمخرجات الجديدة[33]. ب ـ التعلم غير الخاضع للإشراف أو التعلم التوصيفيUnsupervised Learning OR Descriptive Learning: وهو لا يتطلب النموذج بيانات مصنفة، وتحاول الآلة أو النظام تعلم أو استخراج بعض الهياكل الأساسية من البيانات المزودة بها أو تقليل البيانات، أي تعتمد الآلة أو النظام بالاعتماد على ذاتها في عملية استخراج المعلومات أو المخرجات عن طريق التفاعل بين البيانات المدخلة. ومن أمثلته: التجميع، تقليل الأبعاد، وبعض أشكال استخراج الميزات مثل معالجة النص[34]. ج ـ التعلم التعزيزي Reinforcement Learning: حيث تتعلم الخوارزمية (الآلة أو النظام) سياسة كيفية التفاعل والتصرف مع البيئة، فكل إجراء له بعض التأثير في البيئة، من أجل اختيار السلوك والتصرف الصحيح[35]. ويتم ذلك من خلال مراقبة تنائج هذا التفاعل وإعطاء إشارة لصحة أو خطأ النتيجة، ويترتب على ذلك أن يتكون لدى الآلة أو النظام تجربة سابقة تتصرف على أساسها مستقبلاً[36].
ومما سبق يمكن القول إن التعلم الآلي يحتل مكان الصدارة كأحد فروع الذكاء الاصطناعي بالنسبة للإنسان المعاصر؛ فيُنتج كميات هائلة من البيانات المتعددة المصادر والأنواع، ويساعد في ذلك الاتصال بالإنترنت حيث سهولة اتصال الأشياء بالإنترنت وقدرتها على التواصل بينها بواسطة بروتوكول الإنترنت (إنترنت الأشياء)، فتلك الأشياء هي الأخرى تنتج الكثير من البيانات، بعد أن تتحول إلى كائنات ذكية ومتطورة[37].
5ـ الرؤية الحاسوبية Computer Vision
وتعني بإنشاء أنظمة وآلات قادرة على الرؤية كالإنسان، بما في ذلك من قدرة على معالجة، تحليل، وفهم الصور والفيديوهات. ومن تطبيقاته الروبوت، السيارات ذاتية القيادة، وأنظمة التعرف على محتوى صور شبكات التواصل الاجتماعي[38].
6ـ علم الإنسان الآلي (الروبوت) Robotics
الروبوت آلة تجمع المعلومات حول بيئتها وتستخدمها لاتباع التعليمات والقيام بعمل، وهو جهاز كهروميكانيكي أو ميكانيكي حيوي أو مجموعة من الأجهزة يمكنها أداء مهام متكررة أو مبرمجة مسبقًا. قد يعمل الروبوت تحت السيطرة المباشرة للإنسان، مثل الذراع في مكوك الفضاء، أو تحت سيطرة جهاز كمبيوتر مُبرمج. ويتم تصميم الروبوتات لإجراء عمليات جراحية دقيقة واستكشاف الفضاء والمحيط ومناطق خطرة أخرى. ويعد الروبوت هو أكثر الأمثلة التطبيقية للذكاء الاصطناعي، وتتعدد مجالات استخدامه ما بين الصناعات، المجال العسكري، الطب، استكشاف الفضاء، الأنشطة المنزلية، وغيرها[39].
المبحث الأول
الالتزام ببذل عناية والالتزام بتحقيق نتيجة من منظور أسس المسؤولية المختلفة
لا يمكن دراسة الالتزام ببذل عناية والالتزام بتحقيق نتيجة من منظور المسؤولية المدنية عن أضرار استخدامات الذكاء الاصطناعي[40]، إلا من خلال مناقشة أسس المسؤولية لاختيار المناسب منها للتطبيق على حالة أضرار استخدامات الذكاء الاصطناعي؛ فتأثيرهما في نطاق المسؤولية المدنية يختلف من الاعتماد على أساس أو أخر من أسس المسؤولية المدنية، وعندئذ سوف يسهمان في تحديد أساس المسؤولية المدنية الصحيح للأضرار الناتجة عن استخدامات الذكاء الاصطناعي. لذلك يمكن عرض تأثيرهما من خلال مناقشة أسس المسؤولية التقليدية، والحديثة، وذلك في مطلبين على النحو الآتي:
المطلب الأول
الالتزام ببذل عناية والالتزام بتحقيق نتيجة من منظور المسؤولية المدنية القائمة على الأسس التقليدية
تُعد الصورة التقليدية للمسئولية المدنية هي المسؤولية القائمة على أساس الخطأ الواجب الإثبات ـ المسؤولية عن الأعمال الشخصية[41]؛ لذلك يمكن بحث الالتزام ببذل عناية والالتزام بتحقيق نتيجة في ضوء هذا الأساس من أسس المسؤولية المدنية، وبالتالي توضيح أثره على مسألة الإثبات ونقله في مجال الذكاء الاصطناعي، الأمر الذي يساعد أيضًا في تحديد مدى صلاحية هذا الأساس في تأسيس المسؤولية المدنية عن أضرار نشاطات الذكاء الاصطناعي، وذلك في فرعين على النحو الآتي:
الفرع الأول
الالتزام ببذل عناية والالتزام بتحقيق نتيجة وصلاحية المسئولية القائمة على الخطأ الشخصي
الجدير بالذكر أن للمسئولية التقصيرية أركان ثلاثة ـ كالمسؤولية العقدية ـ هي الخطأ، الضرر، وعلاقة السببية بينهما. والخطأ في المسؤولية التقصيرية يتمثل في الإخلال بالتزام قانوني من نوع الالتزامات ببذل عناية دائمًا[42]. ولكن هل يختلف الأمر عندما يتعلق بالمسؤولية عن العمل الشخصي الناتجة عن أضرار نشاطات الذكاء الاصطناعي، أم تصلح الالتزامات بتحقيق نتيجة لأن تمثل هذا الإخلال ـ الخطأ، وبمعنى أخر ما هي الالتزامات التي تصلح لأن تكون محلاً للخطأ عند الإخلال بها، وبالتالي المساهمة في تحديد صلاحية هذا الأساس من أسس المسؤولية التقليدية لتأسيس المسؤولية المدنية عن أضرار استخدامات الذكاء الاصطناعي؟
مما لا شك فيه أن الأضرار الناتجة عن استخدامات الذكاء الاصطناعي كثيرة ومتنوعة بتنوع مجالات استخدامه؛ فتمتد تلك الأضرار بداية من استخدامه في المجال العسكري ـ عن طريق الروبوتات المقاتلة ـ ويشمل محيطها أضرار استخدامها على المدنيين أو العسكريين[43]، إلى المجال الهندسي بكافة فروعه، مرورًا بالمجال الطبي، الائتماني، المصرفي، القانوني، وغيرها. ولعل ما أدى إلى ذلك أننا لم نصل حتى الآن إلى مرحلة الذكاء الاصطناعي القوي أو الخارق، وهو ما يوجب محاكاة تلك الأنظمة الموجودة حاليًا للإنسان عن طريق البرمجة الآلية، الأمر الذي قد يحدث معه خطأ سواء في عملية البرمجة أو الاستخدام غير الصحيح من قبل المُبرمج أو المُطور أو المُستخدم، وما يترتب على ذلك من وقوع الكثير من الأضرار للمُستخدم، سواء كانت تقديم تلك الأنظمة لنتائج غير دقيقة أو خدمات غير المعلن عنها أو المرغوب فيها؛ بسبب الخوارزميات غير الدقيقة التي يعمل خلالها النظام أو الآلة[44].
من أجل ذلك، ينبغي بحث صلاحية المسؤولية عن العمل الشخصي لتأسيس المسؤولية المدنية عن أضرار نشاطات الذكاء الاصطناعي بصفة خاصة من عدة وجوه. فنجد ـ أولاً ـ أن الخطأ في هذا النوع من المسؤولية شخصي، أي يجب أن يصدر عن شخص طبيعي مسئول عنه، وهو ما لا يمكن التسليم به في مجال الذكاء الاصطناعي. فلم يتم الاعتراف ـ حتى الآن ـ للأنظمة الذكية والروبوتات خصوصًا بالشخصية القانونية المستقلة[45] الكاملة[46].
ولكن ذلك لم يمنع الاتحاد الأوروبي ذاته أيضًا من الاعتراف بالشخصية القانونية الذكية أو الرقمية للروبوتات والأنظمة الذكية الأخرى، ولكن بشرط أن تتمتع باستقلال وحرية في اتخاذ القرارات، وأضاف ذلك للمستقبل[47]. وبفرض اتباع هذا النظر ـ مع الوضع في الاعتبار عدم الوصول إلى مرحلة الذكاء الخارق[48] ـ فإن الشخصية القانونية المستقلة للنظام الذكي تقتضي الاعتراف بالذمة المالية المستقلة للنظام الذكي، والتي يتم اقتضاء تعويض الأضرار منها.
فمن ناحية، يُعد ذلك على إطلاقه أمرًا غير منطقي وتصورًا وهميًا ـ على الأقل في الوقت الراهن والمستقبل القريب؛ فالنظام الذكي مهما بلغت شدة ذكائه لن يقدر على تغذية ذمته المالية من أجل تعويض ضحايا أضرار استخداماته، ولكن تُلقى مسئولية تغذية الذمة المالية للنظام الذكي على عاتق الأشخاص الذين سوف تنعقد ـ تنتقل كما سنرى ـ المسؤولية المدنية في مواجهتهم إذا طبقنا القواعد العامة للمسئولية المدنية[49]، فقد يكون المُنتج، المُستخدم، أو المُبرمج، وهو ما يقضي على هذا التصور.
الفرع الثاني
النتائج المترتبة على تأسيس المسئولية على الخطأ الشخصي في مجال عبء الإثبات
قد يؤدي نقل المسؤولية إلى النظام الذكي ذاته إلى مشكلة أخرى تتمثل في عدم تحمل الفاعلين والأطراف التقليدية عبء دعاوى المسؤولية التي ستوجه إليهم، وهو ما يعيق وظيفة المسؤولية المدنية في الردع والوقاية[50]. إضافة إلى أن نقل المسؤولية إلى النظام الذكي قد لا يعبر عن الحقيقة، فقد يكون مصدر الخطأ هو عيب في صناعة الآلة، أو خطأ المُستخدم.
وتدعيمًا لما سبق، وعلى مستوى ضبط مسألة عبء الإثبات، يمكن القول إن تحديد المسؤولين عن الضرر الناتج عن استخدامات أنظمة الذكاء الاصطناعي يتوقف على تحديد نوع الالتزام. فإذا اعترفنا بالشخصية القانونية المستقلة للأنظمة الذكية، وما تتميز به من دقة وسرعة في الأداء وإنجاز الأعمال المنوطة بها، فيكون نوع الالتزام المدين به الأنظمة الذكية هنا من نوع الالتزام بتحقيق نتيجة، وبالتالي فلا مجال للحديث عن المسؤولية المدنية عن أضرار استخدامات تلك الأنظمة[51]، وهو أمر لا يمكن التسليم به.
ولكن ـ كأي شخص قانوني ـ قد تَصدر عن استخداماتها وتطبيقاتها أضرار تقع على الغير، مما يعني أن الالتزام هنا ينبغي أن يندرج ضمن الالتزامات ببذل عناية، والتي تحتاج إلى إثبات خطأ المدين بها؛ لتتحقق المسؤولية المدنية عن تلك الاستخدامات والتطبيقات.
فقيام المسؤولية في تلك الحالة يتطلب من المضرور ـ المدعي في دعوى المسؤولية وفقًا لحكم القواعد العامة ـ إثبات وقوع الخطأ وتحقق الضرر وعلاقة السببية بينهما[52]. وإذا كان من السهل إثبات تحقق الضرر، فيظل إثبات المضرور وقوع الخطأ من قبل النظام الذكي متداخلاً مع وقوعه من قِبل المُستخدم، أو من يعمل النظام الذكي لحسابه، وهو أمر دقيق جدًا يصعب على المضرور إثباته. علاوة على صعوبة إثبات هذا النوع من الخطأ، وعلاقة السببية بينه وبين تحقق الضرر؛ حيث يتطلب الأمر تقنيات وخبرات دقيقة ومُعقدة للتعامل مع تلك النوعية من الأضرار.
ولما كان ذلك، وأمام هذا الاختلاف والتضارب في تكييف نوع الالتزام في مجال قيام المسؤولية المدنية عن أضرار استخدامات الأنظمة الذكية، والتي افترضنا تأسيسها على الخطأ الواجب الإثبات، نجد أنه من المناسب البحث في أساس أخر لقيام المسؤولية وتحديد المسؤول، وبالتالي تحديد طريقة إثبات الخطأ أو افتراضه، وكيفية التخلص منه، بالإضافة إلى كيفية اقتضاء التعويض الجابر لأضرار استخدامات تلك الأنظمة.
المطلب الثاني
الالتزام ببذل عناية والالتزام بتحقيق نتيجة من منظور المسؤولية المدنية القائمة على الأسس الحديثة
تنقسم الأسس الحديثة للمسئولية المدنية إلى نوعين: الأولى: المسؤولية شبه الموضوعية، وهي القائمة على افتراض الخطأ، والثانية: المسؤولية الموضوعية (فكرة ضمان المخاطر). لذلك سوف نعرض للالتزام ببذل عناية والالتزام بتحقيق نتيجة من خلال تلك الأسس الحديثة، في فرعين على النحو الآتي:
الفرع الأول
نوع الالتزام في المسؤولية شبه الموضوعية (القائمة على الخطأ المفترض)، في نطاق الذكاء الاصطناعي
من المعلوم أن هذا النوع من المسؤولية ينقسم إلى المسؤولية عن فعل الغير، والمسؤولية عن حراسة البناء، حراسة الحيوان، وحراسة الأشياء التي تتطلب حراستها عناية خاصة[53]. والجدير بالذكر أنه لا يمكن تكييف النظام الذكي على أنه قاصر أو متبوع بحاجة إلى وصي أو قيم؛ فالشخص معدوم أو ناقص الأهلية هو شخص طبيعي معترف به أمام القانون، يكتسب الحقوق ويتحمل الالتزامات بحسب إدراكه ومدى نقصان أهليته[54]، وهو ما يتنافي مع الاعتراض على اعتباره شخصًا قانونيًا مستقلاً ذا ذمة مالية مستقلة.
كما لا يمكن أيضًا تكييفه على أنه تابع لمتبوع؛ فعلاقة التبعية بحاجة إلى سلطة فعلية في التوجيه والإشراف والرقابة من المتبوع على التابع[55]، كما أن هذا التكييف يتنافى مع استقلالية الأنظمة الذكية في أدائها لعملها ـ كما سبق وذكرنا. إضافة إلى ذلك، فافتراض الخطأ هنا يقبل إثبات العكس[56]، وبالتالي يمكن التنصل من المسؤولية الناتجة عن أضرار استخدامات الأنظمة الذكية بسهولة، وهو ما يتنافى مع ضرورة تعيين شخص المسؤول عنها، وتعويض أضرار تلك الاستخدامات والحد منها.
يضاف إلى ذلك أنه من غير المُصدق تطبيق قواعد المسؤولية عن حراسة البناء على الأنظمة الذكية، إلا أن ذلك لم يمنع البعض[57] من تشبيه الأنظمة الذكية ـ وخصوصًا أحد تطبيقاتها المهمة وهو الروبوت ـ بالحيوان، وتأسيس المسؤولية المدنية عن الأضرار التي يمكن أن يسببها للغير علي أساس المسؤولية عن حراسة الحيوان.
ولكن يُرد على ذلك، بوجود اختلاف بين الحيوان والنظام الذكي، فيعد الحيوان كائنًا حيًا يتمتع بالإحساس على الرغم من فقدانه الإدراك والتمييز، في حين لا تتوافر تلك الطبيعة لدى النظام الذكي. وهو ما يحول دون اتخاذ الحيوان القرار المناسب لكل موقف يتعرض له، بعكس النظام الذكي يستطيع اتخاذ القرارات المناسبة؛ بفضل ما يتمتع به من ذكاء اصطناعي[58]، هذا من ناحية.
ومن ناحية أخرى، فإن هناك شخصًا ـ سواء مالك الحيوان أو غيره ـ هو حارس الحيوان، وله السيطرة الفعلية عليه في توجيهه ورقابته[59]، وذلك بعكس النظام الذكي الذي يمتلك القدرة على اتخاذ القرارات باستقلال دون توجيه أو رقابة. كما أن الأساس الذي تقوم عليه مسئولية حارس الحيوان هو الخطأ المفترض من جانبه في الحراسة، والذي لا يجوز إثبات عكسه إلا بإثبات السبب الأجنبي، أي أن نوع التزام الحارس هنا هو التزام بتحقيق نتيجة تقليدية، لا يمكن للمدين التخلص منها إلا بإثبات السبب الأجنبي، كقوة قاهرة أو حادث مفاجئ أو خطأ المضرور أو خطأ الغير[60].
وهذا التصور عن نوع الالتزام ودرجته لا يمكن القبول به بالنسبة للمسئولية المدنية الناتجة عن استخدامات الذكاء الاصطناعي وأنظمته؛ فحتى إثبات السبب الأجنبي ـ من المفترض ـ ألا يحول دون طلب الغير ـ المضرور ـ للتعويض نتيجة استخدام أنظمة الذكاء الاصطناعي، فتلك الأضرار معلومة المصدر، وعادة ما تسبب خسائر غير عادية؛ لذلك يجب أن تضمنها تلك الاستخدامات.
ولعل ما سبق هو ما قاد جانب كبير من الفقه إلى تأسيس المسؤولية هنا على أساس حراسة الأشياء التي تتطلب حراستها عناية خاصة[61]. ولكن لا يمكن التسليم بهذا التأسيس للعديد من الأسباب: أولاً: أن الخلاف القائم حول مادية برامج الذكاء الاصطناعي، لاعتبارها من الأشياء، غير ذي جدوى؛ فالشيء يطلق ـ لغة ـ على أي موجود ثابت متحقق يصح أن يُتصور ويُخبر عنه سواء أكان حسيًا أم معنويًا، وبذلك يطلق على النظام الذكي، وهو ما يؤكد أن إنشاء هذا الخلاف ليس سوى خلاف وهمي لإثبات شيئية النظام الذكي، على الرغم من تحققه. فالصورة القابلة للاستنساخ والحفظ تُعتبر شيئًا يندرج في مفهوم المادة 1384 من القانون المدني[62]؛ حيث يتم حفظ البرامج الذكية في أجهزة إلكترونية، سواء أجهزة حاسب آلي أو روبوتات، فلا يتصور استخدامها أو عملها إلا من خلال آلة مادية.
ثانيًا: تختلف بحث مسألة تكييف النظام الذكي على أنه شخص أو شئ، عن مسألة تحديد المسؤولية المدنية الناتجة عن استخداماته. فلا تقتصر أضرار الأشياء على المسؤولية الناتجة عن استخداماتها فقط، فقد تكون المسؤولية عن عيوب صناعتها، أو تشغيلها، أو تطويرها، وهذه مسائل تحكمها قواعد متباينة.
ثالثًا: اعتبار البرامج والأنظمة الذكية مجرد شيء ـ على أساس أن ما يحتويها من أجهزة مادية[63] يعد شيئًا ماديًا تتطلب حراسته عناية خاصة أو من قبيل الآلات الميكانيكية كشرط أساسي لتحقق هذا النوع من المسؤولية وبغض النظر عما يتم تغذيته بها من برامج وأنظمة ذكية ـ هو أمر مرفوض ولا يتفق مع ما تتميز به الأنظمة الذكية من استقلالية في اتخاذ القرار، علاوة على صعوبة فصل النظام أو البرنامج الذكي عن الشيء الذي يحتويه، واستحالة العمل بشكل منفصل عن شيء مادي.
رابعًا: اصطدام شرط حراسة الأشياء وشخص المسؤول عن النظام أو البرنامج الذكي بعدة عقبات. فمن ناحية، تصطدم فكرة السيطرة الفعلية[64] بمحل تلك السيطرة وما إذا كانت هي البرنامج أو النظام الذكي أم الهيكل المادي الذي يحتويه أم الاثنين معًا؟ ومن ناحية أخرى، كيف يمكن لنا التسليم بشيئية النظام أو البرنامج الذكي، الذي يعمل بذاتية واستقلالية، وبالتالي كيف يمكن تصور خضوعه للحراسة أو السيطرة الفعلية حتى ولو احتواه شيء مادي كطائرة، سيارة، روبوت، جهاز طبي، حاسب آلي، أو غيرها.
خامسًا: إذا كان من المتصور تحقق فكرة السيطرة الفعلية على ما يحوي البرنامج أو النظام الذكي من أشياء مادية، إلا أن ذلك غير متصور بالنسبة للبرنامج أو النظام الذكي[65]. فبمجرد تشغيل البرنامج أو النظام الذكي على الشيء وبرمجته، تطغى فكرة الاستقلال والذاتية وتتلاشى فكرة السيطرة الفعلية، وهو ما يعني إمكان تحقق بعض صور المسؤولية الأخرى كالمسؤولية عن عيوب الصناعة للجسم المادي، أما الجسم المادي الذي يعمل وفق البرامج والأنظمة الذكية بعد تغذيته بها، فلا يمكن خضوعه لقواعد المسؤولية عن المنتج المعيب ـ كما سنرى ـ وهو ما يقود للبحث عن أساس أخر للمسئولية عن أضرار استخدامهما معًا.
سادسًا: صعوبة فصل وتحديد المسؤولية الناتجة عن عيوب الصناعة والمسؤولية الناتجة عن استخدامات البرامج أو الأنظمة الذكية، وحتى إذا تم ذلك، تبقى هناك مشكلة تحديد المسؤولية عن استخدامات تلك البرامج والأنظمة، والتي تعمل وفق تقنيات عالية ومعقدة؛ وهو الأمر الذي يصعب معه تحديد وفصل المسؤولية وبالتالي شخص المسؤول الحارس حراسة فعلية[66].
سابعًا: إذا نظرنا للأمر من جانب نقل عبء الإثبات، فلا مجال لقصر تكييف نوع الالتزام ببذل عناية أو بتحقيق نتيجة في المسؤولية الناشئة عن أضرار استخدامات الذكاء الاصطناعي على أي نوع من أنواع المسؤولية المؤسسة على افتراض الخطأ السابق عرضها، وسواء أُسست المسؤولية على أساس الخطأ المفترض الذي يقبل إثبات العكس، أو الذي لا يقبل سوي إثبات السبب الأجنبي لدفع المسؤولية. وبالتالي لا يمكن القول إن الالتزام المُلقى على عاتق المدين هو التزام بتحقيق نتيجة مُخففة أو تقليدية.
فمن ناحية، لا يمكن للمدين في هذا النوع من الأضرار أن يتنصل من المسؤولية بنفي الخطأ عنه بمجرد إثبات أنه قد عمل ما في وسعه لتنفيذ التزامه، أو أنه لم يرتكب إهمالاً أو عدم احتياط. ومن ناحية أخرى، فإن إثبات المدين للسبب الأجنبي يعني عدم تحقق رابطة السببية بين فعله والضرر الذي لحق بالدائن، أو أنه لم يرتكب خطأ، وبالتالي تتعلق مسألة الإثبات هنا برابطة السببية، والذي يُمثل بين طياته إثباتًا لسبب الضرر الذي لحق بالدائن[67].
والجدير بالذكر أنه لا يمكن قبول تلك الأفكار عند تحقق الضرر الناتج عن استخدامات الذكاء الاصطناعي، فالنظام الذكي كما أنه لصيق بالآلة التي يعمل خلالها، فهو لصيق بشخص مستخدمها، لا يمكن له التنصل من أضرارها مادام مصدر الضرر هو هذا الاستخدام؛ لذلك وجب البحث عن أساس أكثر استيعابًا لأضرار الأنظمة الذكية.
الفرع الثاني
نوع الالتزام في المسؤولية الموضوعية (فكرة ضمان المخاطر)، في نطاق الذكاء الاصطناعي
تستند المسؤولية الموضوعية “La responsabilité objective” على فكرة الضرر[68]، حيث يتم تعويض المضرور ـ المدعى ـ حتى ولو لم يرتكب المسؤول أي خطأ، فهي تعتمد على فكرة ضمان المخاطر وليس الخطأ[69]؛ واستُحدثت في القانون المدني بسبب وجود حالات يصعب معها على المضرور إثبات ركن الخطأ[70]. فتقوم المسؤولية المدنية عن أضرار استخدامات أنظمة الذكاء الاصطناعي، بغض النظر عن أي خطأ من جانب المسؤول[71] أيًا كان شخصه، كما يستطيع المضرور الحصول على تعويض ما لحقه من أضرار دون أن يتحمل عبء الإثبات[72].
وتتمثل أركان المسؤولية في ركنين هما: الضرر وعلاقة السببية بين الضرر وفعل المسؤول، فكل عمل يسبب ضررًا للغير يلزم مرتكبه بالتعويض. ولا يمكن للمسئول عنه دفع هذه المسؤولية بنفي الخطأ أو انتفاء الخطأ المفترض، أو بإثبات السبب الأجنبي[73].
وبالتطبيق على المسؤولية المدنية عن أضرار استخدامات الأنظمة الذكية، نجد أنه من المناسب تأسيس المسؤولية المدنية عن أضرار استخدامات الأنظمة الذكية على أساس المسؤولية الموضوعية، والتي تتأسس على فكرة تحمل التبعة، وهي تتفق مع قواعد العدل والأخلاق، القائمة على عدم ارتكاب المضرور خطأ ما مع تحمله الأضرار الناتجة عن نشاط غيره ـ سواء كان النظام الذكي أو مُستخدمه ـ وسلوكه الضار، وذلك على الرغم من أن مُستخدم النظام الذكي أو من يعمل النظام لصالحه هو من يحصل على الفائدة والربح نتيجة ذات النشاط[74]؛ لذلك فمن العدل والإنصاف والأخلاق أن يتحمل تبعة ما يجلبه نشاطه على الغير من أضرار، وإن كان غير ضار في ذاته.
والجدير بالذكر أن المسؤولية الموضوعية تضمن للمضرور الحصول على التعويض عما يصيبه من أضرار نتيجة استخدامات أنظمة الذكاء الاصطناعي، دون أن يتحمل عبء إثبات خطأ المسؤول، أو البحث عن الشخص المسؤول، فهي تبحث عن المسؤول عن النشاط المسبب للضرر، وليس عن ركن الخطأ[75].
وهنا تثور صعوبة وخلط في تحديد شخص المسؤول. فمن ناحية، قد يكون المُستخدم، المُنتج، والمُبرمج أو المُطور. ومن ناحية أخرى، وفي حالة تحديد المُستخدم كشخص مسئول ـ محور البحث ـ يختلط الأمر بين مسئولية المُستخدم نفسه، وبين مسئولية النظام الذكي ذاته، بطريقة تجعل تحديد شخص المسؤول، وبالتالي كيفية إثبات الضرر ونسبته إليه أمر غاية في التعقيد والخلط، وخصوصًا بالنظر إلى مجال الأنظمة الذكية.
فأضرار الأنظمة الذكية يصعب تحديد مصدرها بدقة ـ إثبات مرتكب الفعل الضار، إلا بالاستعانة بخبرات فنية متخصصة في ذات المجال؛ وعليه يجب ضم ذوي الخبرة في مجال الذكاء الاصطناعي لجهات الخبرة حتى يتمكن القضاء من الاستعانة بهم عند نظر النزاعات من هذا النوع. فخبراء هذا المجال هم المنوط بهم تحديد ما إذا كان مصدر الضرر هو المُستخدم عند استخدامه للنظام الذكي، أم النظام الذكي ذاته عند برمجته أو إعداده، أم أن الأمر لا يتعدى نطاق ضرر تشغيل أو تلف الآلة التي يعمل النظام الذكي من خلالها.
وما يهمنا من هذه الحالات ـ وفقًا للبحث ـ هي حالة كون مصدر الضرر هو المُستخدم، أو النظام الذكي، ونستبعد غيره من الحالات، والتي تخرج عن نطاق البحث؛ لوجود قواعد قانونية خاصة لمعالجة الأضرار الناتجة عنها.
ومن العرض السابق يمكن القول إن أهم ما تتسم به أضرار استخدامات الأنظمة الذكية، أنها محدودة الأثر، فقد تصيب الأفراد، الدولة، نظام ذكي أخر، أو عناصر البيئة المختلفة، لكن في نطاق استخداماتها. فأضرار أنظمة الذكاء الاصطناعي تتحدد حسب البيئة التي تعمل خلالها، فقد تكون في المجال العسكري فيمتد الضرر إلى عناصر البيئة والدولة، وقد تكون في المجال الطبي فتلحق الأضرار بالمرضي في مرحلة العلاج أو التشخيص، وهكذا.
كما أن أضرارها قد تكون مرئية، كما في حالة استخدام الأنظمة الذكية في الحروب، وقد تكون غير مرئية، كما في حالات استخدامها في المجال المحاسبي والمصرفي والطبي وغيرها.
بالإضافة إلى ذلك فقد تكون أضرار استخدامها مباشرة على الفرد أو الدولة، وقد تكون غير مباشرة، كالاعتماد على تقارير مالية أو هندسية أو طبية مُعدة من قبل الأنظمة الذكية في اتخاذ قرارات تعتمد عليها. كما أنها أضرار تحدث بصورة تلقائية وفورية ونتيجة مباشرة لاتخاذ قرارات واختيارات ذكية تؤدي لإعمال أثرها على الفور، وتلحق الضرر بمن هم في محيط التأثر بالقرار فقط.
وأخيرًا، فهي أضرار صعبة الإثبات من حيث المسؤولية والمصدر؛ فالأنظمة الذكية تعمل باستقلالية وقراراتها مستقلة وذاتية دون تدخل من أحد أو من وسطاء، وبالتالي فهي تختلط بأضرار مستخدميها ومسئوليتهم، وهو ما يقودنا إلى ترشيح المسؤولية المدنية الموضوعية للتطبيق على هذا النوع من الأضرار.
وبالتالي يكون من المناسب التساؤل حول تحديد نوع التزام كل من النظام الذكي ومستخدمه، وهل هو من نوع الالتزام ببذل عناية، أو الالتزام بتحقيق نتيجة، وما يترتب على ذلك من آثار تتعلق ببحث وتكييف العلاقة بين النظام الذكي ومستخدمه، وحدود الالتزامات الموزعة بينهما، وبالتالي تكييفها، وتحديد آثارها في مجال الإثبات، ونقل عبء الإثبات. وهو ما يعتبر محور المبحث الثاني.
المبحث الثاني
الالتزام ببذل عناية والالتزام بتحقيق نتيجة وصور استخدام الأنظمة الذكية
للوقوف على صور استخدام الأنظمة الذكية، ودرجة العناية المطلوبة عند استخدامها في كل صورة من الصور لمنع الإضرار بالغير، وبالتالي سهولة تكييف التزامات المسؤول، وما يترتب على ذلك من آثار تتعلق بمسألة عبء الإثبات ونقله بخصوص الأضرار الواقعة على الغير نتيجة استخدامات الأنظمة الذكية، يتعين البحث أولاً البحث في طبيعة العلاقة القانونية بين النظام الذكي ومستخدمه، ثم العرض لصور استخدام الأنظمة الذكية في هذا المجال، وذلك في مطلبين، على النحو الآتي:
المطلب الأول
طبيعة العلاقة بين النظام الذكي ومستخدمه
يختلف تكييف العلاقة بين النظام الذكي ومستخدمه تبعًا لاختلاف النظرة للنظام الذكي ذاته، فمن قال إنه يمثل شخصًا قانونيًا مستقلاً، يعترف ضمنًا بمسئوليته المدنية المستقلة، وبالتالي عدم وجود علاقة قانونية بينهما، ومن يعتقد أنه لا يرقى لأن يكون شخصًا قانونيًا مستقلاً، فهو يؤكد بأن هناك علاقة قانونية بينهما، وبالتالي يجب بحث تلك العلاقة، ثم توضيح النتائج المترتبة على تكييف تلك العلاقة، وذلك في فرعين كما يأتي:
الفرع الأول
العلاقة القانونية بين النظام الذكي، ومستخدمه
من الجدير بالذكر أن الخلاف حول أساس المسؤولية المدينة عن أضرار استخدامات أنظمة الذكاء الاصطناعي، قد نتج عنه البحث في مدى استقلال النظام الذكي عن مُستخدمه، وبالتالي البحث في مسألة مهمة تتعلق بهذا الاستقلال وهي: هل يُعد النظام الذكي شخصًا قانونيًا مستقلاً تستوجب أفعاله المسؤولية، أم أنه مجرد شيء، تنطبق على أضراره قواعد المسؤولية عن الأشياء، أم حيوان تنطبق عليه قواعد المسؤولية عن فعل الحيوان، وهو ما سبق بحثه.
وأكدت نتيجة البحث، صعوبة اعتبار النظام الذكي شخصًا قانونيًا مستقلاً وكاملاً، كما أن اعتباره شيئًا لا يعبر تعبيرًا دقيقًا عن التطور الذي وصلت إليه الأنظمة الذكية، ومدى ما وصلت إليه من استقلالية تامة في العمل واتخاذ القرارات، وهو الأمر الذي يستحيل معه وصفه بالحيوان. إضافة إلى ذلك لا يمكن اعتباره تابعًا لمتبوع كامل الأهلية، فناقص الأهلية يمتلك شخصية قانونية مستقلة وكاملة، والشخصية القانونية الكاملة[76] لا يمتلكها النظام الذكي، على الرغم من امتلاكه الشخصية القانونية المستقلة في مجال عمله.
وللوقوف على طبيعة التزام النظام الذكي ومُستخدمه، وما إذا كان التزامًا ببذل عناية أو التزامًا بتحقيق نتيجة، وفي ظل ما سبق من نتائج، يصبح الأدق هو بحث طبيعة العلاقة بين النظام الذكي ومُستخدمه، في ضوء عدم كمال الشخصية القانونية المستقلة للنظام الذكي، واستبعاد كونه شيئًا، أو حيوانًا، أو تابعًا.
في البداية، لاح في الأفق مفهوم جديد وهو “النائب الإنساني” عام 2017، والذي ابتكره الاتحاد الأوروبي وأطلقه على الروبوت[77]. وإذا كانت الروبوتات تتميز بالعمل بواسطة الذكاء الاصطناعي، فيمكن تطبيق أحكام المفهوم الجديد ـ النائب الإنساني ـ على الأنظمة الذكية المُستخدمة في جميع المجالات، فما هي إلا امتداد لفكرة الروبوت، وعمله في مجال أو مهمة محددة.
وتتمثل فكرة “النائب الإنساني” في مسئوليته عن أفعال الأنظمة الذكية، والتي قد تتسبب بها لشخص ثالث غير المُستخدم والنظام الذكي ذاته؛ لذلك يمكن تأسيس المسؤولية عن أفعال وتقصير الأنظمة الذكية على تلك الفكرة[78].
وينتج عن الاعتراف بتلك الفكرة وجود التزامات وحقوق متقابلة[79] بين النظام الذكي، والنائب الإنساني[80]، فمن ناحية يجب أن يكون مالك ومُستخدم النظام الذكي قادرين على استخدامه بأمان، وأن يقوم النظام الذكي بمهامه التي صُمم من أجلها، كما لا يجوز لهم استخدام النظام الذكي في ارتكاب أي عمل غير قانوني، واتخاذ الاحتياطات المعقولة حتى لا يُشكل تهديدًا لسلامة الأشخاص وسلامتهم الجسدية وممتلكاتهم الخاصة، ولا العمل على إتلاف النظام الذكي أو تدميره عمدًا أو تعرضه للضرر أو التعامل معه بطريقة قد تُفسر على أنها مسيئة.
ومن ناحية أخرى، يكون للنظام الذكي الحق في الوجود دون الخوف من التعرض للأذى أو القتل، والحق في عيش حياة خالية من العنف الممنهج. وفي المقابل، يجب على النظام الذكي ألا يؤذي إنسانًا، يطيع الأوامر الصادرة له من مالكه أو مستخدمه، وألا يخدعهما.
والجدير بالذكر، التأكيد على بُعد تلك الفكرة عن نظرية حراسة الأشياء الميكانيكية أو الأشياء التي تتطلب حراستها عناية خاصة[81]، وعن نظرية حراسة الحيوانات[82]، وبالتالي اختلاف مركز النائب الإنساني عن حارس الأشياء، وحارس الحيوان. كما أنها تظل بعيدة عن فكرة الأهلية، فالقاصر ـ سواء ناقص أو عديم الأهلية ـ يمثله قانونًا وليه الطبيعي أو الشرعي أو وصيه أو القيم عليه، مع احتفاظه بشخصية قانونية مستقلة قد تكتسب الحقوق وتتحمل بالالتزامات، على العكس من النظام الذكي، الذي لم يرد في القانون المدني الأوروبي أية نصوص تتعلق بأهليته.
إضافة إلى ذلك، أنها تختلف عن فكرة التبعية؛ لأن المتبوع يتمتع بسلطات إشراف تام وكامل على تابعه كامل الأهلية، وبالتالي يمتلك حق الرجوع عليه، وهذا أمر غير متحقق في حالة النظام الذكي؛ لفرض المسؤولية على نائبه الإنساني من ناحية، ولافتراض استقلال النظام الذكي في اتخاذ القرار من ناحية أخرى[83].
ومن جماع ما تقدم، يمكن القول إن فكرة النائب الإنساني هي حالة مبتكرة من قِبَل الاتحاد الأوروبي ضمنه القانون المدني الأوروبي، وعُرف بأنه: “هو نائب عن النظام الذكي في تحمل المسؤولية عن تعويض المضرور جراء أخطاء التشغيل بقوة القانون”[84].
وتأكيدًا لذلك، فقد أوصى القانون المدني الأوروبي[85] أن يكون البشر، وليس الروبوتات، هم الوكلاء المسؤولون[86]. وهو ما قرره القانون ذاته حيث نقل المسؤولية إلى النائب الإنساني المسؤول[87]، إلا أنه على الرغم من ذلك، لم يحدد طريقة سير تلك العلاقة بين النائب الإنساني والنظام الذكي إلا في نطاق محدود للغاية.
فأورد القانون المدني الأوروبي أن الأنظمة الذكية تعمل ـ أو مأمول أن تعمل ـ باستقلال يجعلها أكثر تشابهًا مع الوكلاء الذين يتفاعلون مع بيئتهم ويكونون قادرين على تغييرها بشكل كبير، وقد عرف القانون هذا الاستقلال بأنه: “القدرة على اتخاذ القرارات وتنفيذها في العالم الخارجي، بشكل مستقل عن السيطرة أو التأثير الخارجي. وهذه الاستقلالية ذات طبيعة تكنولوجية بحتة تعتمد درجتها على مدى تطور تفاعل الروبوت مع بيئته”[88].
وفي المقابل، اعترف القانون المدني الأوروبي بعدم قدرة النظام القانوني الحالي على تحميل الأنظمة الذكية المسؤولية عن الأضرار الواقعة منها على طرف ثالث، ولكنه علق إمكان تطبيق القواعد الحالية على شرط وجود وكيل بشري أو إنساني محدد ـ كالشركات المصنعة أو المشغلين أو المالكين أو المستخدمين[89].
ولتوضيح الأمر بدقة أكثر، قرر أن القواعد القانونية للمسئولية التقليدية، لم تعد كافية لمعالجة المسؤولية عن الضرر الناجم عن الأنظمة الذكية في حالة اتخاذها قرارات مستقلة[90]، ما يعني ـ بمفهوم المخالفة ـ الحاجة إلى تنظيم تشريعي متكامل لعلاج حالات المسؤولية الناتجة عن استخدام الأنظمة الذكية في مرحلة معينة من التطور، والتي يطلق عليها مرحلة الذكاء الخارق أو القوي.
الفرع الثاني
النتائج المترتبة على فكرة “النائب الإنساني”
من العرض السابق لفكرة النائب الإنساني ومعالجة القانون المدني الأوروبي لها بهذه الصورة، نستنتج بعض الأمور، منها: أولاً: معالجة القانون المدني الأوروبي للمسئولية تأسيسًا على فكرة النائب الإنساني هي بمثابة حل للوضع القائم فقط، فلا تشمل حالة المسؤولية عن أضرار استخدامات الأنظمة الذكية ذكاءً خارقًا، وهو ما يؤكد الحاجة الملحة إلى وضع تصور لهذه الحالة الأخيرة من الآن، بحيث تحل محل فكرة النائب الإنساني، أو تعمل على تطويرها على الأقل. ثانيًا: تُعد فكرة “النائب الإنساني” مرحلة وسطًا بين الأسس التقليدية للمسئولية، وبين الأساس المنتظر النص عليه مستقبلاً الذي أشار إليه القانون المدني الأوروبي، وهو ما يسمى المسؤولية الصارمة أو تحمل المخاطر[91]. الأمر الذي يؤكد أن تطبيق نظام المسؤولية الموضوعية في مجال أضرار الأنظمة الذكية هو الأنسب، وإن كان الأمر بحاجة عند معالجته ـ حتى في تشريعاتنا العربية، أن نضع نصب أعيننا صور استخدام الأنظمة الذكية، وتحديد طبيعة ودرجة كل التزام على حدة. ثالثًا: يصبح من الأنسب تغطية أضرار تلك الاستخدامات عن طريق نظام تأميني إلزامي خاص بها، بصندوق يتم تمويله عن طريق اشتراكات مُنتجي ومُستخدمي ومالكي ومُشغلي الأنظمة الذكية الحالية أو الخارقة ـ فيما بعد[92]. رابعًا: قد يجزم البعض بضرورة اختلاف الوضع في المستقبل، وبالتالي الحاجة إلى تنظيم مسألة مسئولية الأنظمة الذكية من منظور استقلالها في اتخاذ القرار. ولكن التساؤل المهم يكمن في أنه إلى أي مدى سوف يكون هذا الاستقلال بين النظام الذكي ومستخدمه؛ للتعرف على مدى استقلاله في اتخاذ القرار، واعتقد أنه مهما كانت درجة الاستقلال، فلن يكون استقلالاً تامًا عن محيط البيئة التي يعمل خلالها. ففي النهاية، سوف يمثل تدخل الإنسان البداية في طريقة عمل النظام الذكي. خامسًا: تُغطي المسؤولية المدنية الناتجة عن عيوب المُنتَج العيوب التي تظهر نتيجة عيب صناعة الجسم المادي الذي يعمل من خلاله النظام الذكي هذا من ناحية، ومن ناحية النظام الذكي ذاته، فهو في حد ذاته يعتبر مُنتجًا متمتعًا بالحماية المقررة للمصنفات الفكرية والأدبية بشرط دمجه على دعامات وهو الأمر الواقع بالنسبة للأنظمة الذكية بالفعل[93]؛ لذلك تنتقل دراسة هذه الصورة من النطاق العام لتأسيس المسؤولية عن أضرار استخدامات الأنظمة الذكية، إلى نطاق بحثها ضمن صور المسؤولية عن أضرار تلك الاستخدامات[94]. سادسًا: اختلاف فكرة “النائب الإنساني” عن فكرة الوكالة؛ حيث قد يتبادر إلى الذهن أن الأولى مجرد تطبيق للثانية. فنجد أن الوكالة عقد يلتزم فيه الوكيل بأن يقوم بعمل قانوني لحساب الموكل[95]، بينما النائب الإنساني هي فكرة ـ حيلة ـ مبتكرة لإيجاد طريقة لإسناد المسؤولية إلى عنصر بشري ذا ذمة مالية واقتضاء التعويض المناسب منها، هذا من ناحية. ومن ناحية أخرى، قد تكون الوكالة تبرعية وقد تكون بأجر[96]، وبذلك تختلف عن فكرة “النائب الإنساني” التي قد يمتلك فيها المُستخدم نفسه النظام الذكي.
ومن ناحية ثالثة، إذا كان مصدر الوكالة هو التراضي ـ العقد، الأمر الذي يستتبع رسم حدود الوكالة بالاتفاق بين الوكيل والموكل، وبالتالي يتحدد نطاق المسؤولية الناشئة عنها لضرر أصاب الغير[97]، نجد أن مصدر فكرة النائب الإنساني هي القانون المدني الأوروبي مباشرة ـ كما سبق ورأينا. وقد تكون الوكالة عامة أو خاصة[98]، أما فكرة النائب الإنساني لا يمكن تخيل تحققها إلا في أمر خاص يستطيع النظام الذكي إنجازه.
إضافة إلى أن الوكيل يظل يعمل لحساب الموكل ولصالحه، وهو ما يخول الغير المضرور الرجوع على الموكل عن أضرار تنفيذ عقد الوكالة[99]، أما في حالة النائب الإنساني يرجع المضرور على المُستخدم مباشرة بنص القانون.
وأخيرًا، يلتزم الوكيل ـ عند تنفيذ الأعمال الموكل له بها ـ ببذل عناية الرجل المعتاد[100] متحريًا في ذلك مصلحة الموكل، وبذلك هو التزام ببذل عناية، يترتب عليه عدم مسئولية الوكيل في حالة ما إذا كان الضرر الذي أصاب الموكل راجعًا لسبب أجنبي[101]. وذلك على العكس في حالة النائب الإنساني المبتكرة، والتي يُسأل بموجبها النائب عن الأضرار التي يسببها استخدام النظام الذكي وفقًا لأحكام المسؤولية الموضوعية ـ كما سبق التوضيح، الأمر الذي يفرض البحث في كل صورة من صور استخدام الأنظمة الذكية؛ للوصول إلى نوع الالتزام وطبيعته وتأثيره على مسألة عبء الإثبات ونقله.
ومن جماع ما تقدم، يمكن القول إن المسؤول في كل مرة عن أضرار استخدامات الأنظمة الذكية الواقعة على الغير فعليًا لا يخرج عن مُستخدم، أو مُشغل، أو مالك، أو صانع النظام الذكي.
المطلب الثاني
صور استخدام الأنظمة الذكية
تتعدد الصور التي أوردها المشرع الأوروبي لاستخدامات الأنظمة الذكية، وبالتالي تتعدد الأضرار الناتجة بتعدد تلك الصور، وذلك على حسب صورة الاستخدام التي يقوم بها النظام الذكي، فقد تقع الأضرار في مرحلة التشغيل، أو الاستخدام الفعلي سواء من المستخدم أو المشغل، أو نتيجة عيب في النظام الذكي ذاته. ولجبر تلك الأضرار ـ في كل حالة، يلزم ضبط وتحديد مسألة عبء الإثبات الذي يلتزم به المضرور لإثبات الضرر الواقع عليه؛ ومن مطالعة تلك الحالات يمكن تصنيفها إلى حالات استخدام مباشر سواء من قبل المالك أو من الصانع المالك أيضًا، وحالات استخدام غير مباشر من قبل غير المالكين وهم المُشغل والمُستخدم، وذلك في فرعين كما يأتي:
الفرع الأول
صور الاستخدام المباشر
وتنقسم تلك الصور إلى صورتين هما، حالة المالك الذي يملك النظام الذكي ويقوم هو بنفسه باستخدامه وتشغيله لصالحه، وحالة الص
انع الذي يملك النظام الذكي وما يعمل من خلاله النظام الذكي من آلات قبل بيعه أو بعد ذلك، وذلك على التفصيل الآتي:
الحالة الأولى: حالة مالك النظام الذكي
والمالك هو الذي يقوم بتشغيل النظام الذكي شخصيًا لخدمته أو لخدمة عملائه، كالطبيب مالك المستشفى فهو يملك الروبوت ـ النظام الذكي[102] ـ ويقوم بتشغيله لحسابه؛ لمساعدته في التشخيص الطبي أو في إجراء العمليات الجراحية. وتتحقق مسئولية الطبيب إذا نتج عن هذا الاستخدام أضرارًا تمثل خطرًا على سلامة المرضى[103].
تُعد تلك الحالة من السهولة والوضوح في تحمل المالك منفردًا لتعويض أضرار استخدام النظام الذكي. فعلاوة على كون المالك هو من يمتلك النظام الآلي ملكية خالصة حرة ـ كالروبوتات الطبية وأنظمة الإحصاء والمحاسبة الذكية بالبنوك وغيرها ـ فمن المفترض امتلاكه القدرة الفنية والتقنية العالية المؤهلة لاستخدامه النظام الذكي بحرفية، تجعل من إقرار مسئوليته مسئولية صارمة أمرًا لا جدال فيه ولا مسئول عنه غيره، وذلك عن أية أضرار تصيب الغير ناشئة عن استخدام هذا النظام الذكي.
إضافة لذلك، فالغير المضرور ـ في هذه الحالة ـ لا يلتزم بإثبات خطأ المسؤول، حيث يحتاج الإثبات في تلك الحالة إلى قدرة تقنية عالية لا يمكن أن يتحلى بها المضرور؛ لذلك فهو ملتزم فقط بإثبات الضرر وعلاقة السببية بين مصدر الضرر والضرر ذاته، وفقًا لأحكام المسؤولية المدينة الموضوعية.
وبالتالي يمكن تصنيف نوع الالتزام الواقع على المسؤول هنا بأنه التزام بالضمان ـ في معظم الحالات؛ يتحمل بموجبه المسؤولية وتعويض كل ضرر وقع نتيجة استخدامه النظام الذكي، بحيث لا يمكن له دفعها بالسبب الأجنبي. ولعل السبب وراء ذلك، هو قدرة المالك التقنية التي تجعل تدخل عناصر أخرى ـ يمكن أن تُوجد السبب الأجنبي، أمرًا غاية في الصعوبة أو قد يكون مستحيلاً، فتنحصر الملكية والاستخدام في شخص واحد فقط.
والجدير بالذكر من وجهة نظري، أن المسؤولية هنا مسئولية كاملة صارمة عن أي ضرر ناتج عن استخدام النظام الذكي، وذلك على عكس ما ادعاه البعض من كونها مسئولية محدودة، يُسأل مالك النظام الذكي فقط عنه بقدر رأس المال ـ قيمة النظام الذكي ـ الذي استثمره المالك في هذا النظام الذكي، ويتحمل الباقي ـ بقدر ما تدخل في الممارسة العملية ـ النظام الذكي ذاته كشخصية قانونية مستقلة من اشتراكات التأمين الموزعة بين كل منهما من قبل[104].
الحالة الثانية: حالة صانع النظام الذكي
من الجدير بالذكر، أن النظام الذكي لا يمكن استخدامه إلا من خلال وسيط مادي، مثل الحواسب الآلية أو السيارات أو القطارات أو الطائرات أو الروبوتات المنزلية أو الروبوتات الحربية أو المدنية، وغيرها. لذلك تنقسم معالجة تلك الحالة إلى صورتين، الأولى: تتعلق بصناعة الجسم المادي للنظام الذكي ـ الآلة، والثانية: تتعلق بصناعة أو إنتاج النظام الذكي ذاته.
ففي الصورة الأولى، يُسأل صانع الروبوت ـ المُنتج ـ عن عيوب تصنيع الآلة، والتي يعمل النظام الذكي خلالها أو لتشغيلها، كأن يؤدي هذا العيب إلى انفلات الآلة جميعها ـ عند تشغيلها بواسطة النظام الذكي ـ عن مسارها، بما يجعلها تقوم بأفعال خارجة عن إطار استخدامها الطبيعي، مسببة أضرارًا تلحق بالغير[105].
وتتأسس المسؤولية هنا على قواعد المسؤولية الموضوعية ـ دون خطأ[106]، والتي تُلزم المضرور بإثبات الضرر الواقع عليه من عيب تصنيع المنتج وعلاقة السببية بينهما[107]. وينتج عن ذلك ضرورة تصنيف نوع التزام المُنتج على أنه التزام بالضمان لا يمكن له دفعه حتى مع توافر السبب الأجنبي؛ فمن غير المعقول تحقق سبب أجنبي يدفعه لإنتاج آلة بمواصفات دقيقة وبها عيب من عيوب الصناعة[108]، فوقت الإنتاج ملكه، وتجربته والإشراف على إنتاجه ملكه وحده، غير مقيد فيه بوقت ولا بأحد.
أما في الصورة الثانية، وهي المتعلقة بعيوب إنتاج الأنظمة الذكية ذاتها كبرامج أو أنظمة الذكاء الاصطناعي والتي تقوم بتشغيل الآلة المادية، ويتكون منها بعد ذلك الروبوت، والسيارة الذكية ذاتية القيادة وبرامج وأنظمة المحاسبة والإحصاء والهندسة التي تعمل بواسطة حاسبات. فمن المسؤول عن الأضرار الناتجة عن عيوب إنشاء أو صناعة تلك الأنظمة والبرامج غير المادية؟ وبالتالي ما هو نوع التزام المسؤول؟
في البداية، نجد اعترافًا من المشرع الأوروبي لبرامج الحاسب الآلي بالمُنتج[109]. وبالتالي فتُعد من قبيل المنتجات التي يمكن المسألة عن الأضرار الناتجة عن عيوب صناعتها، مثلما هو الحال في عيوب الجسم المادي الذي يعمل النظام الذكي من خلاله[110].
وبناءً على ما تقدم، تسري أحكام المُنتج السابق عرضها على ضمان عيوب الصناعة بالنسبة للبرامج والأنظمة الذكية أيضًا، بما في ذلك نوع التزام المسؤول وهو الصانع أو المُنتج. بحيث يُمثل هو الأخر التزامًا بالضمان عن عيوب صناعة البرامج أو الأنظمة الذكية، بحيث لا يمكن دفعه حتى مع توافر إحدى حالات السبب الأجنبي. ولكن ما يزيد الأمر تعقيدًا هو صعوبة إثبات المضرور لهذا العيب مصدر الضرر في محاولته إثبات علاقة السببية بين الضرر وهذا العيب؛ الأمر الذي يحتاج إلى توافر المزيد من الخبراء المتخصصين في هذا المجال الحيوي، لمساعدة المضرورين في ذلك.
ويدق الأمر في حالة صعوبة تحديد مصدر الضرر، أو الاشتراك فيه بين عيب من عيوب الآلة وعيب من عيوب إنتاج أو برمجة النظام الذكي، وإن كان الأمر يحتاج إلى ذوي الخبرة في هذا المجال؛ لفض هذا التشابك وتحديد نسبة مقدار معين من المسؤولية وبالتالي التعويض إلى مُنتج كل منهما، من خلال قياس درجة مساهمة كل منهما في إحداث الضرر. ولعل هذا المسلك هو ما انتهجه المشرع الأوروبي عندما قرر نظام المسؤولية المحدودة بحدود الضرر، إذا اشتركوا في التأمين ضمانًا للتعويض[111].
ومن جماع ما تقدم، نجد أن التشريع الأوروبي في معالجته للأنظمة الذكية ـ صورتها الروبوتات ـ قد تبنى نظام المسؤولية الموضوعية في المرحلة الحالية ـ الذكاء المتوسط، وأوصى بتبني المسؤولية الموضوعية الصارمة في الصكوك الأخرى في المستقبل والتي سوف تعالج ذات الموضوعات. وقد أثر هذا الأمر على نوع التزامات المسؤول عن أضرار استخدامات الأنظمة والبرامج الذكية، وبالتالي على طرق دفع تلك المسؤولية، والحق في دفعها.
فبعد أن كان نوع الالتزام لا يتعدى كونه التزامًا بمجرد بذل عناية[112]، أو بتحقيق نتيجة مُخففة [113]، أصبح نوع الالتزام ـ بعد ابتكار نظرية النائب الإنساني ـ أمرًا يخضع في كل حالة إلى تحديد درجة استقلال وتعلم النظام الآلي، وكذلك إلى تحديد خبرة المسؤول في كل صورة من صور استخداماته؛ فهذه المحددات هي التي تُبنى عليها المسؤولية، ويتحدد على أساسها نوع الالتزام الذي يتأرجح ما بين التزام بتحقيق نتيجة تقليدية، والتزام بالضمان ـ كما سبق التوضيح[114].
ولعل تلك النظرية المُبتكرة كانت هي السبب في تكييف نوع الالتزام بهذه الطريقة. ولكن علاوة على أنها ضرورة اضطرت إلى استحداثها التطورات الحاصلة في مجال الإلكترونيات بصفة عامة، فإن هذا التطور صاحبه تنبؤ بتطور جديد على المدى القريب أو المتوسط، أشار إليه التوجيه الأوروبي محل الدراسة.
والجدير بالذكر أن هذا التطور قد يقودنا ـ في مرحلة الذكاء الخارق أو القوي ـ إلى تبني المسؤولية الموضوعية الصارمة دون خطأ، مع التزام المسؤول بالضمان فقط، وقد يقودنا إلى مستقبل أخر يتحرر ويستقل فيه النظام الذكي نهائيًا عن الإنسان، وبالتالي يمكن أن يُسأل مدنيًا وفقًا لنظريات المسؤولية جميعها ـ سواء الشخصية أو المُفترضة أو الموضوعية، كأي شخص قانوني عادي. وقد يمتد التطور ليشمل مفردات النظرية الموضوعية ذاتها فيُحدث فيها التغيير الذي يلائم تلك المرحلة[115]. وفي انتظار هذا التطور يبقى لنا بحث كل حالة على حدة في ضوء نظرية الوكيل الإنساني المُبتكرة.
الفرع الثاني
صور الاستخدام غير المباشر
وتنقسم تلك الصور إلى صورتين هما، حالة مستخدم النظام الذكي الذي يقوم باستخدامه من غير أن يملكه وإن قام باستخدامه مباشرة إلا أنه يظل غير مالك له، وحالة مُشغل النظام الذكي الذي يقوم بتشغيله غير مالك النظام ـ شخص محترف ـ لمصلحة آخر وهو المستفيد، وذلك على التفصيل الأتي:
الحالة الأولى: حالة مُستخدم النظام الذكي
يعني المُستخدم الشخص الذي يقوم باستخدام النظام الذكي مباشرة، بحيث يكون مسئولاً عن سلوك وقرار النظام الذكي وما يسببه من أضرار تصيب الغير[116].
وتتمثل هذه الحالة في استخدام النظام الذكي عن طريق المُستفيد منه ـ المسؤول عنه أو الذي يعمل النظام الذكي لصالحه، حيث أقر القانون المدني الأوروبي عدم إمكان تحميل المسؤولية للنظام الذكي، وضرورة تحميل المسؤولية عن أضرار استخداماته إلى وكيل إنساني، فيمكن تحديد هذا الوكيل الإنساني بالـ “مُستخدم”، وهو الوحيد الذي يمكنه توقع وتجنب السلوك الضار للنظام الذكي[117].
وبتطبيق قواعد المسؤولية الموضوعية المُختارة يتحمل المُستخدم المسؤولية الناتجة عن أضرار النظام الذكي. لكن السؤال: ما هي درجة العناية الواجب عليه أو على النظام الذكي اتخاذها حتى تتحقق مسئوليته؟ وما هي وسائل دفع تلك المسؤولية عند تحققها؟
في البداية يمكن القول إن تحمل المُستخدم للمسئولية ـ في حالة استخدامه النظام الذكي بنفسه ـ تقترن بافتراض خبرته في مجال الأنظمة الذكية والإلكترونيات، الأمر الذي لم يعوزه إلى مُشغل خاص لنظامه الذكي. إضافة إلى ذلك، لا يمكن أن ننسى مسألة عدم بلوغ الأنظمة الذكية مرحلة الذكاء القوي أو الخارق، وهو ما يؤكد عدم الاستقلال التام لقرار النظام الذكي، الذي يحتاج إلى تدخل المُستخدم بعض الشيء.
فهذه وتلك مقدمات لتحديد نوع ودرجة التزام المدين أو المسؤول ـ المُستخدم ـ لمنع الإضرار بالغير عند استخدام النظام الذكي، والذي لا يمكن تصنيفه على أنه مجرد التزام ببذل عناية، أو حتى بتحقيق نتيجة مُخففة. وإن كان هذا التحليل قد يدفعنا لاعتباره التزامًا بتحقيق نتيجة تقليدية، لا يمكن للمدين التخلص من مسئوليته الناشئة عنها إلا بإثبات السبب الأجنبي.
غير أنه إذا نظرنا إلى الأمر من منظور إمكان تطور قواعد المسؤولية الموضوعية وتشديدها؛ نظرًا لخطورة وتعقد مجال الذكاء الاصطناعي عمومًا، وافتراض خبرة المُستخدم التي جعلته يقوم هو باستخدام النظام الذكي، فيمكن لنا القول إن التزام المُستخدم ـ المدين ـ بعدم الإضرار بالغير هو أمر لا يمكن دفعه والتنصل منه ـ عملاً ـ بوجود سبب أجنبي يجعله غير مسئول، وبالتالي غير ملزم بالتعويض. حيث يظل المُستخدم مسئولاً حتى مع توافر السبب الأجنبي، أي أن نوع التزامه ينبغي أن يتحرك من التزام بتحقيق نتيجة تقليدية إلى نوع الالتزام بالضمان، خصوصًا إذا وضعنا في الاعتبار حقيقة مهمة وهي أن تلك الأنظمة تعمل في كل الظروف والأوقات باستقلالية ـ بعض الشيء ـ في اتخاذ القرار.
وعلى الجانب الأخر، نستنتج أن التشريع الأوروبي قد قرر أن نوع الالتزام هنا هو التزام بتحقيق نتيجة وليست بالنتيجة المُخففة، ولكنه لم يقرر أنها نتيجة تقليدية أم التزام بالضمان، تاركًا الأمر لبحث وتقدير كل حالة على حدة. حيث قرر أنه بمجرد تحديد الأطراف المسؤولة يجب أن تتناسب مسئوليتهم مع المستوى الفعلي للتعليمات المعطاة للنظام الذكي ودرجة استقلاليته، بحيث تكون قدرة النظام الذكي على التعلم أو استقلاليته أكبر، كلما طالت مدة تدريبه، وبالتالي تزداد مسئولية المُستخدم[118].
ويُفهم من ذلك، أن تحديد نوع التزام المُستخدم لا يكون إلا بعد النظر إلى بعض العناصر والمحددات المتعلقة بتعلم النظام الذكي ودرجة استقلاليته، بحيث كلما ازداد تعلم النظام الذكي ازدادت استقلاليته في اتخاذ القرار، وأصبح التزام المُستخدم بالضمان أوجب. والعكس بالعكس، ففي حالة عدم بلوغ النظام الذكي بتعلمه واستقلاله تلك الدرجة، يكون التزام المُستخدم هو نوع الالتزام بتحقيق نتيجة تقليدية، يمكن دفعها بالسبب الأجنبي.
ويستنتج من ذلك، أنه إذا كان عبء إثبات أضرار استخدامات الأنظمة الذكية دائمًا ما يقع على عاتق المضرور في هذا الوضع، فما يلتزم بإثباته فقط هو وقوع الضرر وعلاقة السببية بين الفعل الضار والضرر الواقع. أما ركن الخطأ ـ والذي قد يتمثل في فعل أو إهمال، فالمضرور غير مطالب بإثباته. غير أن الأمر يختلف ـ من ناحية مسألة عبء الإثبات ـ في حالة دفع المسؤولية من قِبل المسؤول ـ المُستخدم؛ حيث يمكن التمسك بالسبب الأجنبي لدفع المسؤولية المدنية الناتجة عن استخدام النظام الذكي في حالة عدم وصول النظام الذكي إلى درجة تعلم أو استقلالية معينة، أما في حالة وصوله إلى تلك الدرجة من التدرب والتعلم والاستقلالية، تصبح مسئولية المُستخدم بالضمان عن أي ضرر ينتج عن استخدام الأنظمة الذكية، بحيث لا يمكن دفعها لأي سبب كان ولو كان السبب الأجنبي. بمعنى أخر تتدرج مسألة إمكان دفع المسؤولية تبعًا لتدرج حالة النظام الذكي من حيث التعلم والاستقلال في اتخاذ القرار[119]، هذا كله في الوقت الحالي فقط.
الحالة الثانية: حالة مُشغل النظام الذكي
ومُشغل النظام الذكي هو ذلك الشخص المحترف الذي يقوم على استغلال النظام الذكي، مثل إدارة البنك التجاري الافتراضي[120]، والذي يقوم بتشغيل تطبيق ذكي يعتمد على نظام ذكي في إدارة بعض العمليات المصرفية (كشركات الفاينتاك)[121].
ومن هنا يتضح أن مُشغل النظام الذكي يقوم بتشغيله لحساب طرف أخر يُسمى المُستفيد. ويفترض أنه ليس لديه الإمكانيات التكنولوجية والتقنية العالية لتشغيله، وبالتالي يصبح لدينا في الصورة شخصان هما المُستفيد والمُشغل، فمن منهما المسؤول عن أضرار استخدام الأنظمة الذكية؟ أهو من قام بتشغيل النظام الذكي على سند من القول إنه الشخص المؤهل لذلك، أم الشخص الذي يعمل النظام الذكي لحسابه، أم أن المسؤولية مشتركة؟
وفقًا لأحكام التشريع الأوروبي الذي ابتكر فكرة “النائب الإنساني”، فقد ألقى المسؤولية المدنية على عاتق المُشغل أو المُستخدم أو المالك أو المُصنع بطريقة تخييرية بين أحدهم[122]، أي يُفهم من ذلك أن المسؤولية هنا تقع على عاتق أحدهم وهو المُشغل فقط، هذا من ناحية.
ومن ناحية أخرى، عاد التشريع ذاته في المواد المتعلقة بالمسؤولية، وخصوصًا في المواد المتعلقة بتغطية الأضرار عن طريق إنشاء صندوق خاص بأضرار استخدامات الأنظمة الذكية، وسمح للمُصنع أو المُبرمج أو المالك أو المُستخدم بالاستفادة من المسؤولية المحدودة في حالة مشاركتهم في تأمين هذه الأضرار[123].
وما يمكن أن نفهمه مما سبق، أن هناك اشتراكًا في تغطية التعويض من خلال اشتراكات هذه الأعضاء جميعًا في صندوق التأمين، من خلال المسؤولية التضامنية بين المُشغل والمُستفيد إذا كان مصدر الضرر الواقع مشترك بينهما، وذلك على حسب نسبة ودرجة مساهمة كل منهما في وقوع الضرر، وبالتالي يتم توزيع التعويض عليهما بتلك النسبة. وتثير تلك الصورة مشكلة نوع التزام كل منهما، وهل يظل التزامًا بالضمان بالنسبة لكل منهما، أم أنه التزام بتحقيق نتيجة تقليدية، أم يصبح التزامًا ببذل عناية في جانب المُستفيد وغير ذلك في جانب المُشغل؟
في تلك الصورة، ينبغي التفرقة بين المُشغل والمُستفيد، فالأول يظل التزامه إما بتحقيق نتيجة تقليدية يمكن دفع المسؤولية الناتجة عنها بالسبب الأجنبي، وإما بالضمان على حسب درجة تعلم واستقلالية النظام الذكي الذي يقوم بتشغيله؛ ويرجع ذلك لتخصصه وإتقانه وخبرته في هذا المجال، وهو ما دفع المُستفيد إلى اللجوء لمُشغل لنظامه الذكي لنفص خبرته أو لانعدامها، هذا من ناحية.
أما من ناحية المُستفيد، فمن المفروض ألا يقع عليه التزام حتى نريد تصنيفه، لكن لو حدث وتمكن المُستفيد من الاشتراك في تشغيل النظام الذكي في جزء من التشغيل، هنا نجد أن الالتزام الذي يقع عليه هو التزام ببذل عناية؛ لعدم خبرته أو درايته بتشغيل الأنظمة الذكية، وبالتالي لإثبات مسئوليته يجب أن يُثبت خطؤه والضرر وعلاقة السببية بينهما. ولكن نظرًا لخطورة الأضرار الناتجة عن استخدام الأنظمة الذكية، جعل المشرع الأوروبي صندوق التأمين الخاص بأضرار تلك الاستخدامات ضامنًا لوقوعها أيًا كان مصدرها.
ويُعد ذلك تأكيدًا لتطبيق قواعد المسؤولية الموضوعية، والتي تفرض أن ينقلب التزام المُستفيد إلى التزام إما بتحقيق نتيجة تقليدية أو بالضمان، وهو ما يؤثر على مسألة عبء الإثبات وإمكانية دفع المسؤولية ـ كما سبق القول. غير أن ذلك مرهون أيضًا بمعيار أخر بجانب درجة تعلم واستقلال النظام الذكي، وهو درجة وعي المُستفيد وخبرته في هذا المجال.
أما في الصورة الأخرى[124]، وهي أن يكون المصدر الوحيد للضرر هو المُشغل، يكون التزامه هو ذات التزام المُستخدم في الصورة الأولى، وهو التزام بتحقيق نتيجة تقليدية لا يمكن دفعها إلا بالسبب الأجنبي ـ خصوصًا في هذه المرحلة من مراحل الذكاء، أو التزام بالضمان من وقوع الضرر نتيجة عمل النظام الذكي الآن، وفي مرحلة الذكاء الخارق أو القوي. ونُذَكِر أن المحدد الدقيق لنوع الالتزام ـ كما سبق القول ـ هو قياس درجة تعلم واستقلال النظام الذكي، والتي يمكن قياسها ـ في حالات النزاع ـ عن طريق خبراء متخصصين في هذا النوع الدقيق من العلوم.
هذا وقد يستخدم المُشغل مُستخدمًا أخرًا بشريًا في مساعدته في تسيير وتشغيل النظام الذكي، ويحدث نتيجة تشغيله للنظام الذكي أضرارًا تصيب الغير، فهنا يكون المُشغل مسئولاً بالكيفية ذاتها أمام المُستفيد، وإن رجع المُشغل على من استخدمه بسبب إهماله[125].
الخــــــــــــــــــــاتــــــــمــــــــــة
تتفاوت التشريعات المختلفة في تناول مسألة أسس المسؤولية المدنية عن الأضرار الناتجة عن الأنشطة المختلفة في أي مجال من المجالات، فمنها من يقرر الاعتماد على المسؤولية التقليدية، أو القائمة على افتراض الخطأ، ومنها من توسعت معالجته وذهبت لأبعد من ذلك واعتمدت أسس المسؤولية الموضوعية، والقائمة على فكرة المخاطر، على أساس تطور دور الآلة في الأنشطة المختلفة. هذا وقد تطور دور الآلة حتى وصل إلى مرحلة متقدمة من التعلم والاستقلالية، التي مكنت الآلة من القدرة على اتخاذ القرار؛ ما جعل المشرع الأوروبي يتنبه إلى خطورة استخدامات الأنظمة الذكية وما يترتب عليها من أحكام تتعلق بالمسؤولية المدنية الناتجة عنها، وبالتالي على نوع الالتزامات الملقاة على عاتق المسؤول. ولقد أدت هذه المعالجة إلى إظهار العديد من النتائج، ومن أهمها:
أولا: تنظيم التشريع الأوروبي لتطبيق واحد فقط من الأنظمة الذكية ـ وهو الروبوتات، لم يمنع من الاستهداء بتلك القواعد لتطبيقها على باقي الأنظمة الذكية. فأحكام الأنظمة الذكية يمكن استنباطها من هذا التنظيم، ومنها قواعد المسؤولية؛ فالروبوتات تمثل التطبيق الحي والكامل للأنظمة الذكية.
ثانيًا: لم يمنع عدم تنظيم موضوع الأنظمة الذكية ـ بصفة عامة، ووضع قواعد مُحكمة تفصيلية لها من محاولة وضع تعريف لها؛ تمهيدًا لتناول أحكامها في تشريع لاحق، حتى يصبح تحت بصيرة المُشرع العربي فيما بعد، مع الاستهداء في وضع هذا التعريف بعناصر الذكاء الاصطناعي.
ثالثًا: انتقال الخلاف حول شيئية أو استقلال النظام الذكي، أدى بالبعض إلى تطبيق قواعد المسؤولية عن حراسة الأشياء ـ نظرية الخطأ المفترض ـ في الحالة الأولى، وإلى تطبيق قواعد المسؤولية الشخصية ـ القائمة على فكرة الخطأ ـ في الحالة الثانية.
رابعًا: إذا كان الخلاف ـ في مسألة البحث ـ يبدأ من اختيار الأساس المناسب للمسئولية عن أضرار استخدامات الأنظمة الذكية، فالقول إن تأسيس المسؤولية الناتجة عن تلك الأضرار على أساس المسؤولية الموضوعية ـ في الوقت الحالي ـ هو أمر حتمي لا مراء فيه. فتطور دور الآلة أدى إلى ظهور هذا النوع من المسؤولية، والتي لا تتخذ من الخطأ ركنًا من أركان المسؤولية؛ فتكتفي بتحقق وإثبات المسؤول لركني الضرر وعلاقة السببية بين الفعل الضار والضرر.
خامسًا: وعلى العكس مما سبق، ففي المستقبل حال الوصول إلى مرحلة الذكاء الخارق، قد يتمثل أساس المسؤولية في المسؤولية الشخصية القائمة على الخطأ من جانب النظام الذكي ذاته، أو تطبيقًا لنظرية الخطأ المفترض وفقًا للقواعد التقليدية للمسئولية المدنية، أي أن التطور قد يقودنا إلى الرجوع للأحكام التقليدية، هذا من جانب.
ومن جانب أخر، قد يتمثل هذا الأساس في تطوير أكثر للمسئولية الموضوعية ذاتها؛ بالاستغناء عن إثبات علاقة السببية أيضًا، وقصر الأمر على إثبات وقوع الضرر، حيث لا يُحدد عندها نوع الضرر مصدر الضرر فقط، بل أيضًا يُعد دليلاً على علاقة السببية بين الضرر ومصدره.
ولا يخفى تأثير ما سبق على مسألة نوع الالتزام المُلقى على عاتق المدين ـ المسؤول، وهل هو مجرد التزام ببذل عناية، أم التزام بتحقيق نتيجة في صورة من صورها المختلفة، التي استقرت عليها الدراسات الأكاديمية.
سادسًا: إن خرج ابتكار التشريع الأوروبي لفكرة “النائب الإنساني” بحل لمشكلة وقتية وهي مسألة تحديد المسؤول عن أضرار استخدامات الأنظمة الذكية، لكنه في الحقيقة يُعد تعقيدًا أكثر وإرجاءً لحل المشكلة على المدى المتوسط والبعيد. فالتطور في مجال الذكاء الاصطناعي يسير بخطى سريعة لا تحتمل معها تأخير معالجة مسألة تحديد المسؤول، وما يجب على المضرور ـ الدائن ـ إثباته، ووسائل دفع المدين للمسئولية. والجدير بالذكر، اختلاف فكرة “النائب الإنساني” عن غيرها من أفكار كفكرة الوكالة، والتبعية، وغيرها.
سابعًا: لم يعد يقتصر نوع التزام المسؤول في المسؤولية المدنية على نوع الالتزام ببذل عناية فقط، وبالتالي ضرورة البحث في درجة العناية المطلوبة فقط، بل إن الأمر تعدى ذلك بخصوص أضرار استخدامات الأنظمة الذكية، حتى وصلت شدتها إلى الالتزام بتحقيق نتيجة تقليدية، أو بالضمان، وهو بالتالي ما يؤثر على مسألة عبء الإثبات، ونقله، والذي يؤثر بدوره على مسألة وسائل دفع المسؤولية. ويتحكم في تحديد نوع الالتزام عاملي التعلم واستقلال النظام الذكي، فكلما كان اكثر استقلالاً كان الالتزام أشد، والعكس صحيح.
ثامنًا: انحصار نوع الالتزام في مسألة الأضرار الناتجة عن استخدامات الأنظمة الذكية ـ في الوقت الحالي، في نوعين هما الالتزام بتحقيق نتيجة تقليدية أو الالتزام بالضمان. لكن من المؤكد أن يصير نوع الالتزام المأخوذ به في المستقبل هو الالتزام بالضمان، أو تعديل نظرية المسؤولية الموضوعية.
المقترحات والتوصيات:
أولاً: دراسة الذكاء الاصطناعي بعناية أكبر، وخصوصًا من الناحية القانونية، وضرورة وضع تعريف للأنظمة الذكية، حتى تكتمل صورة تلك الأنظمة، لتأكيد اعتمادها على الجزء المادي (الآلة) والمعنوي (البرامج والأنظمة). وإن كان هذا القصور لم يمنع من محاولة تعريفها في ضوء الذكاء الاصطناعي، على أنها: “تلك الأنظمة التي تستخدم القدرة التكنولوجية لمحاكاة البشر أو العمل مثلهم، والتفاعل معهم ومع بيئاتهم باستقلالية تامة”.
ثانيًا: إنهاء الخلاف القائم حول مادية برامج الذكاء الاصطناعي، لاعتبارها من الأشياء، فهو غير ذي جدوى؛ فالشيء يطلق ـ لغة ـ على أي موجود ثابت متحقق يصح أن يُتصور ويُخبر عنه سواء أكان حسيًا أم معنويًا، وبذلك يطلق على النظام الذكي، وهو ما يؤكد أن إنشاء هذا الخلاف ليس سوى خلاف وهمي لإثبات شيئية النظام الذكي، فهو بالفعل شئ. يضاف لذلك اختلاف بحث مسألة تكييف النظام الذكي على أنه شخص أو شئ عن مسألة تحديد المسؤولية المدنية الناتجة عن استخداماته. فلا تقتصر أضرار الأشياء على المسؤولية الناتجة عن استخداماتها فقط، فقد تكون المسؤولية عن عيوب صناعتها، أو تشغيلها، أو تطويرها، وهذه مسائل تحكمها قواعد متباينة؛ لذلك وجب دراسة كل صورة وتحقيقها على حدة.
ثالثًا: تأسيس المسؤولية عن أضرار استخدامات الأنظمة الذكية على أساس أحكام المسؤولية الموضوعية، على الأقل في الوقت الحاضر، فهي نتاج تطور دور الآلة ووصولها لهذه الدرجة من التقنية والدقة. أما في المستقبل، يوصى بمحاولة تطوير تلك النظرية ذاتها والاكتفاء بإثبات وقوع الضرر، حيث يتم تصنيف أضرار الأنظمة الذكية وتحدد بدقة ويُحدد مصدرها، بحيث لا يأخذ المضرور على عاتقه إثبات علاقة السببية، بل مجرد وقوع الضرر فقط.
رابعًا: عدم الاعتراف بالشخصية القانونية المستقلة للنظام الذكي، والاكتفاء في المرحلة الحالية بإعمال فكرة “النائب الإنساني”، والتي ابتكرها المشرع الأوروبي، والانتظار حتى نرى ما سوف يسفر عنه التطور في هذا المجال، وهل سوف تتحقق فكرة الاستقلال كاملة؟ وكيف؟ حتى يمكن تحديد نطاق المسؤولية والضمان. لكن ذلك لا يمنع من وضع حدود لشخصية النظام الذكي ذاته، فمادام أن هناك نائبًا يمثله، بالتالي يجب وضع حدود لشخصية الأصيل من ناحية مدى اكتسابه للحقوق وتحمله بالالتزامات.
خامسًا: تحديد أنواع التزام المسؤول عن أضرار استخدامات الأنظمة الذكية، وحصرها فقط في الالتزام بتحقيق نتيجة تقليدية أو الالتزام بالضمان، في الوقت الحالي، وبالتالي إمكان دفع المسؤولية الناتجة عن تلك الالتزامات في الحالة الأولى بالسبب الأجنبي، وعدم إمكان دفعها بالكلية في الحالة الثانية من الالتزامات. علاوة على ضرورة وضع تصور خاص بالمستقبل يتمكن من خلاله المضرور من اقتضاء التعويض بسهولة.
سادسًا: تحديد نوع الالتزام ودرجته في كل صورة من صور استخدام الأنظمة الذكية، على حسب تعددها. الأمر الذي يساعد على تحديد المسؤولية بدقة متناهية، وكيفية ضمانها، وما يساعد على ذلك من حتمية وضع معايير ثابتة لتحديد درجة التعلم والاستقلال الذي وصل إليها الناظم الذكي، ووضع طرق لقياس ذلك.
سابعًا: تزويد جهات الخبرة الخاصة والعامة بخبراء متخصصين في مجالات الذكاء الاصطناعي بصفة عامة، والأنظمة الذكية بصفة خاصة؛ لمساعدة المحاكم والقضاة في تحديد عناصر المسؤولية من تعلم واستقلال الأنظمة الذكية، وبالتالي إبراز حدود المسؤولية والمسؤولين.
ثامنًا: الاستعانة في وضع التشريع العربي الخاص بالمسؤولية عن أضرار استخدامات الأنظمة الذكية بالتشريع الأوروبي، مع الحث على البحث في هذا المجال، والاستعانة بغيرها من الأبحاث الأجنبية حتى يتم وضع نظام متكامل عن هذا النوع من المسؤولية يعالج الحاضر والمستقبل. إضافة لذلك، يجب أن يشتمل هذا التشريع على كافة تطبيقات الذكاء الاصطناعي، سواء العقدية أو التقصيرية، على أن تتناول تنظيم كافة الأنظمة الذكية، والتي من بينها الروبوتات وليست الأخيرة وحدها. كما يجب الحث على سرعة إصدار تلك التشريعات؛ حتى تمر بمراحل التطور والاستحداث المستمر الحاصل في هذا المجال.
المراجع
أولاً: المراجع باللغة العربية:
1ـ مراجع عامة:
- أيمن إبراهيم العشماوي، تطور مفهوم الخطأ كأساس للمسئولية المدنية، دار النهضة العربية، عام 1998م.
- عبدالرزاق أحمد السنهوري، الوسيط في شرح القانون المدني، منشأة المعارف الإسكندرية، الجزء السابع ـ المجلد الأول، عام 2004م.
- عبدالرزاق أحمد السنهوري، الوسيط في شرح القانون المدني، منشأة المعارف الإسكندرية، الجزء الأول، عام 2004م.
- محمد ربيع فتح الباب، المسؤولية المدنية عن أضرار التلوث الإشعاعي النووي، دار النهضة العربية، عام 2016م.
2ـ مراجع متخصصة:
- آلان بونيه، ترجمة: د. علي صبري فرغلي، الذكاء الاصطناعي ـ واقعه ومستقبله، عالم المعرفة، أبريل عام 1993م.
- أبو بكر محمد الديب، التطبيقات العسكرية للذكاء الاصطناعي في ضوء القانون الدولي العام ـ منظومة الأسلحة ذاتية التشغيل نموذجًا، دار النهضة العربية، عام 2021م.
- أسامة أحمد بدر، الالتزام ببذل عناية والالتزام بتحقيق نتيجة بين المسؤوليتين الشخصية والموضوعية ـ دراسة تحليلية قضائية في القانونين الفرنسي والمصري، دار الجديدة، عام 2011م.
- سعيد سعد عبدالسلام، مشكلة تعويض أضرار البيئة التكنولوجية، دار النهضة العربية، عام 1999م.
- هيثم السيد أحمد عيسى، الالتزام بالتفسير قبل التعاقد من خلال أنظمة الذكاء الاصطناعي، دار النهضة العربية، عام 2018م.
3ـ البحوث والمقالات والمؤتمرات:
- حوراء موسى، التنظيم التشريعي لاستخدامات الطائرة من دون طيار والروبوتات، معهد دبي القضائي ـ مجلة المعهد، العدد رقم 21، أبريل 2015م.
- جبارة نورة، نظرية المخاطر وتأثيرها على المسؤولية المدنية، مسطرة إجرائية ـ مختارات من أشغال الملتقى الوطني حول: مستقبل المسؤولية المدنية، جامعة امحمد بوقرة ـ بومردس ـ كلية الحقوق والعلوم السياسية، قسم القانون الخاص، في 28/1/2020م.
- سامية شهيي، باي محمد، حيزية كروش، الذكاء الاصطناعي بين الواقع والمأمول ـ دراسة تقنية وميدانية، مؤتمر الملتقى الدولي للذكاء الاصطناعي: تحد جديد للقانون؟، الجزائر، المنعقد في الفترة 26 ـ 27 من نوفمبر لعام 2018م.
- سمير حامد الجمال، المسؤولية المدنية عن الأضرار البيولوجية ـ دراسة مقارنة، بحث منشور بمجلة الشريعة والقانون، جامعة الإمارات العربية المتحدة ـ كلية القانون، السنة الرابعة والعشرون ـ العدد الثاني والأربعون، ربيع الأخر 1431هـ ـ أبريل 2010م.
- فوزية برسولي، د. سميرة عبدالصمد، توظيف التكنولوجيا للارتقاء بجودة التعليم العالي: مدخل نظم التعلم الذكية، مجلة المنتدى للدراسات والأبحاث الاقتصادية، جامعة زيان عاشور بالجلفة ـ كلية العلوم الاقتصادية والعلوم التجارية وعلوم التسيير بالجزائر، المجلد 7 العدد 4، 31 ديسمبر 2018م.
- محمد ربيع أنور فتح الباب، الطبيعة القانونية للمسئولية المدنية عن أضرار الروبوتات (دراسة تحليلية مقارنة)، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، جامعة المنصورة ـ كلية الحقوق، والمنعقد في فترة 23، 24 مايو 2021م.
- محمد محمد شوقي أبو ليلة، تقنيات الذكاء في العمارة نحو استثمار المباني التراثية، المجلة الدولية في العمارة والهندسة والتكنولوجيا، عدد أبريل 2018م.
- محمد محمد عبداللطيف، المسؤولية عن الذكاء الاصطناعي بين القانون العام والقانون الخاص، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، جامعة المنصورة ـ كلية الحقوق، والمنعقد في فترة 23، 24 مايو 2021م.
- همام القوصي، إشكالية الشخص المسؤول عن تشغيل الروبوت (تأثير نظرية النائب الإنساني على جدوى القانون في المستقبل) ـ دراسة تحليلية استشرافية في قواعد القانون المدني الأوروبي الخاص بالروبوتات، مركز جيل البحث العلمي، مجلة جيل الأبحاث القانونية المعمقة، العدد 25، 25 مايو 2018.
- همام القوصي، نظرية نابليون للالتزام تترنح أمام التكنولوجيا المالية ـ فاينتك، مقال منشور بجريدة عالم المال، بجمهورية مصر العربية، بتاريخ 19/5/2018.
- سامي جبار عنبر، د. موفق عبدالحسين محمد، جودة التدقيق باعتماد الذكاء الاصطناعي ـ بحث تطبيقي في عينة من الهيئات الرقابية العاملة في ديوان الرقابة المالية الاتحادي، مجلة الدراسات المحاسبية والمالية، جامعة بغداد ـ المعهد العالي للدراسات المحاسبية والمالية، المجلد الحادي عشر ـ العدد 34، الفصل الأول لسنة 2016م.
- سوجول كافيتي، قانون الروبوتات، معهد دبي القضائي ـ مجلة المعهد، العدد رقم 21، أبريل 2015م.
- مفرح جابر مسفر التليدي، أثر إدخال الذكاء الاصطناعي على مستقبل العاملين في القطاع الحكومي السعودي ـ دراسة تطبيقية على وزارة العدل بمنطقة عسير، مجلة العلوم الاقتصادية والإدارية والقانونية، المركز القومي للبحوث، فلسطين ـ غزة، المجلد الخامس، العدد رقم (1)، 30 يناير 2021م.
4ـ الرسائل:
- بهاء حسين الحمداني، المحاسبة الإدارية الشاملة: حقيقة التطور في ظل التقدم العلمي ومفهوم الذكاء الاصطناعي، رسالة دكتوراه، جامعة بغداد ـ كلية الإدارة والاقتصاد، عام 2010م.
- فاتن عبدالله صالح، أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي على جودة اتخاذ القرارات، رسالة ماجستير، جامعة الشرق الأوسط بالأردن ـ كلية الأعمال، قسم إدارة الأعمال، عام 2009م.
- قتيبة مازن عبدالمجيد، استخدام الذكاء الاصطناعي في تطبيقات الهندسة الكهربائية ـ دراسة مقارنة، رسالة ماجستير في نظم المعلومات الإدارية ـ الأكاديمية العربية في الدنمارك، عام 2009م.
5ـ النصوص القانونية:
- القانون المدني المصري رقم 131 لسنة 1948، والصادر في 16/7/1948، والمنشور بالوقائع المصرية العدد رقم 108 مكرر (أ) في 29/7/1948.
- قانون المعاملات المدنية الإماراتي الاتحادي رقم 5 لسنة 1985 في 5/12/1985، والمنشور بالجريدة الرسمية في 29/12/1985، العدد 158، الجزء الثاني عشر، ص 13813.
- قانون حماية المستهلك المصري رقم 181 لسنة 2018، والمنشور بالجريدة الرسمية، العدد رقم (37) تابع، والصادر في 13/9/2018.
6ـ السوابق القضائية:
- النقض المدني في الطعن رقم 6420 لسنة 64 قضائية، جلسة 8/6/2019، ومثاله النقض المدني في الطعن رقم 9195 لسنة 87 قضائية، جلسة 23/3/2019، والنقض المدني في الطعن رقم 2005 لسنة 81 قضائية، جلسة 9/5/2018.
- النقض المدني المصري في الطعن رقم 12404 لسنة 76 قضائية، جلسة 22/4/2015.
- ثانيًا: المراجع باللغة الأجنبية:
1ـ المراجع باللغة الفرنسية:
-
Alain Bénabent, Droit civil – Les obligations, Montchrestien, 2001.
-
Alexy Hamoui, La responsabilité civile médicale à l’épreuve de l’intelligence artificielle, Master de Droit privé general, Université PARIS II, 2020.
- Anne Boulangé, Carole Jaggie, “Ethique, responsabilité et statut juridique du robot compagnon: revue et perspectives”, IC2A, Master Recherche Sciences Cognitives, 2014 – 2015.
- Baudouin Bouckaert, La responsabilité civile comme base institutionnelle d’une protection spontanée de l’environnement, Journal des Economistes et des Etudes Humaines, vol.2 numéro 2&3, juin/ septembre 1991.
- Caminade Alexandra Mendoza, “Le droit confronté à l’intelligence artificielle des robots: vers l’émergence de nouveaux Concepts juridiques?”., Recueil Dalloz., no 8.,25/2/2016.
- Isabelle Poirot-Mazères, Robotique et médecine: quelle(s) responsabilité(s) – Chapitre 8, Journal International de Bioéthique, Vol. 24, No. 4, 2013.
-
Jonathan Pouget, La Réparation Du Dommage Impliquant Une Intelligence Artificielle, Thèse pour le doctorat en droit, Aix Marseille Université – Faculté de droit et de sciences politiques, École doctorale sciences juridiques et politiques, présentée et soutenue le 12 décembre 2019.
- Laurène Mazeau, Intelligence artificielle et responsabilité civile: Le cas des logiciels d’aide à la décision en matière médicale, Revue pratique de la prospective et de l’innovation, LexisNexis SA, 13 Aug 2018.
- Nour EL Kaakour, L’intelligence artificielle et la responsabilité civile délictuelle, Mémoire pour l’obtention du Diplôme d’Études Approfondies En « Droit Interne et International des Affaires », Université Libanaise Faculté de Droit et des Sciences Politiques et Administratives Filière Francophone, 2017.
- Philippe Cullet, La responsabilité et le protocole sur la biosécurité, International Environnemental Law Research Centre, 2004/3.
- Steven De Schrijver, “The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots”, 5/1/ 2018.
2ـ المراجع باللغة الإنجليزية:
-
A D Marshall and R R Martin, Computer Vision, Models and Inspection , World scientific publishing Co. Pte. Ltd , 1992.
- Andrei s. Monin, On the Definition of the Concepts Thinking Consciousness, And Conscience, Psychology, Proc. Acad. Sci. USA, Vol. 89, pp. 5774-5778, July 1992.
- Arthur L. Samuel, “Some Studies in Machine Learning Using the Game of Checkers”, IBM Journal of Research and Development 3 No 3, 1959.
- Cristono Almonte Plaintiff,v. Avernavision & Robotics, INC., Defendant. United States District Court, W.D. New York, No. 11-CV1088 EAW, 128 F.Supp.3d 729 (2015), 31 Aug 2015.
-
Enrique Castillo, Jose m. Gutierrez and Ali S. Hadi, Expert System and Probabilistic Network Models, (New York, USA: Springer Verlag, 1997.
- John R. Searle, Mind, Brains, and Programs, The Behavioral And Brain Sciences, Cambridge University Press, 1980.
- Kevin Gurney, An Introduction To Neural Networks, UCL Press Limited, London, UK, 2007.
- Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, Harvard Journal of Law & Technology, Volume 29, Number 2 Spring 2016.
- Moritz Goeldner, Cornelius Herstatt and Frank Tietze, The emergence of care robotics – A patent and publication analysis, Technological Forecasting and Social Change, vol. 92, issue C, P, 2015.
-
Nathalie Nevejans, Directorate – General For Internal Policies, Polisy Department C: Citizens’ Rights And Constitutional Affairs, Legal Affairs, European Civil Law Rules In Robotics, No. EA n° 2471, October 2016.
- Nick Pentreath, Machine Learning with Spark, Packt Publishing Ltd, 2015.
- Nik Bessis, Ciprian Dobre, Big Data and Internet of Things: A Roadmap for Smart Environments, Springer International Publishing Switzerland, 2014.
- Owen Holland, Machine Consciousness, Imprint Academic, 2003.
- Pat Langley, Elements of Machine Learning, Morgan Kaufmann Publishers, San Francisco, California, 1996.
- Richard D Harvey et al., “Mainstream science on intelligence”, An article in The wall street journal, Tuesday, 13 December 1994. A18.
- Robert J. Sternberg, HandBook of Intelligence, Cambridge University Press, 2000, P. 342. And, Stuart J. Russell and Peter Norvig, Artificial Intelligence A Modern Approach, Prentice Hall, Third Edition, 2010.
-
Robert J. Sternberg, Metaphors of Mind: Conceptions of the Nature of Intelligence, Cambridge University, Cambridge University Press, 2003.
- Sakharam Tirgul and Mangesh Raghunath Naik, Artificial Intelligence and Robotics, International Journal of Advanced Research in Computer Engineering & Technology, (IJARCET) Volume 5, Issue 6, June 2016.
- Sebastian Raschka, Python Machine Learning, Packt Publishing Ltd, 2015.
- shane legg and marcus hutter, A Collection of Definitions of Intelligence, Frontiers in Artificial Intelligence and Applications, 2007, Vol.157.
- Taiwo Oladipupo Ayodele, Types of Machine Learning Algorithms, In New Advances in Machine Learning, Yagang Zhang (Ed.), Rijeka, Croatia, InTech, 2010.
- Ulric Neisser et al., Intelligence: knowns and unknowns, an article in American Psychologist, February 1996.
- Wolfgang Ertel, introduction to artificial intelligence, Springer – Verlag, London, UK, 2011.
3ـ النصوص القانونية:
- اتفاقية الأمم المتحدة بشأن استخدام الخطابات الإلكترونية في العقود الدولية، الدورة الستون، الصادر بناء على قرار الجمعية العامة للأمم المتحدة 23 تشرين الثاني/ نوفمبر 2005 بناء على تقرير اللجنة السادسة (A/60/515)، في 9/12/2005.
- التوجيه الأوروبي المتعلق بالحماية القانونية لبرامج الحاسب رقم 24 لسنة 2009، والصادر في 23/4/2009.
- التوجيه الأوروبي المتعلق بالحماية المقررة للمصنفات الفكرية والأدبية رقم 24 لسنة 2009، والصادر في 23/4/2009.
- التوجيه الأوروبي المتعلق بحماية المستهلك رقم 374/85/ EEC، والصادر في 25/7/1985.
- القانون المدني الفرنسي المُعدل بالمرسوم بقانون رقم 131 لسنة 2016م.
- قواعد القانون المدني بشأن الروبوتات ، قرار البرلمان الأوروبي بتاريخ 16 فبراير 2017 مع توصيات لجنة قواعد القانون المدني الخاصة بالروبوتات 2103/2015،P8_TA ، 2017، الجريدة الرسمية للاتحاد الأوروبي (2018 /25/ 252C ).
4ـ السوابق القضائية:
-
Cour D’appel de Paris, Rapport du groupe de travail, sur “La réforme du droit de la responsabilité civile et les relations économiques”, 25 juin 2019.
- Cour de Cassation, Chambre civile 2, du 5 janvier 1956, Décision attaquée pourvoi: Cour d’appel Poitiers 29 du octobre 1952, N° 56-02.126, 56-02.138.
- civ., 1 ère , 3 mai 2018., no16-26531.
- ثالثًا: المواقع الإلكترونية:
- https://www.courdecassation.fr/
- https://undocs.org/pdf?symbol=ar/A/RES/60/21
[1] وهو تعريف للفيلسوف الإنجليزي “هيربت سبنسر”، وهو يقترب من الاتجاهات الفلسفية القديمة.
[2] راجع في ذلك:
Robert J. Sternberg, Metaphors of Mind: Conceptions of the Nature of Intelligence, Cambridge University, Cambridge University Press, 2003, P. 25 to 68.
2 Richard D Harvey et al., “Mainstream science on intelligence”, An article in The wall street journal, Tuesday, 13 December 1994. P.A18.
3 Ulric Neisser et al., Intelligence: knowns and unknowns, an article in American Psychologist, February 1996, P. 77.
[5] حيث يمكن تقديم الذكاء الاصطناعي في ثمانية تعريفات مختلفة منظمة في أربع فئات، هي: التفكير الإنساني، التصرف بشكل إنساني، التفكير بعقلانية، والتصرف بعقلانية، راجع:
Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, Harvard Journal of Law & Technology, Volume 29, Number 2 Spring 2016, P. 360.
[6] حيث دخل الذكاء الاصطناعي على جميع المجالات العلمية التقنية منها حتى العلوم الإنسانية، راجع في ذلك سامية شهيي، باي محمد، حيزية كروش، الذكاء الاصطناعي بين الواقع والمأمول ـ دراسة تقنية وميدانية، مؤتمر الملتقى الدولي للذكاء الاصطناعي: تحد جديد للقانون؟ الجزائر، المنعقد في الفترة 26 ـ 27 من نوفمبر لعام 2018م، ص 1.
3 See, Wolfgang Ertel, introduction to artificial intelligence, Springer – Verlag, London, UK, 2011, P. 2, 3.
[8] راجع في ذلك تفصيلاً، قتيبة مازن عبدالمجيد، استخدام الذكاء الاصطناعي في تطبيقات الهندسة الكهربائية ـ دراسة مقارنة، رسالة ماجستير في نظم المعلومات الإدارية ـ الأكاديمية العربية في الدنمارك، عام 2009م، ص 8، 9.
[9] محمد محمد شوقي أبو ليلة، تقنيات الذكاء في العمارة نحو استثمار المباني التراثية، المجلة الدولية في العمارة والهندسة والتكنولوجيا، عدد أبريل 2018م، ص 2.
[10] سامي جبار عنبر، موفق عبدالحسين محمد، جودة التدقيق باعتماد الذكاء الاصطناعي ـ بحث تطبيقي في عينة من الهيئات الرقابية العاملة في ديوان الرقابة المالية الاتحادي، مجلة الدراسات المحاسبية والمالية، جامعة بغداد ـ المعهد العالي للدراسات المحاسبية والمالية، المجلد الحادي عشر ـ العدد 34، الفصل الأول لسنة 2016م، ص 44.
[11] مفرح جابر مسفر التليدي، أثر إدخال الذكاء الاصطناعي على مستقبل العاملين في القطاع الحكومي السعودي ـ دراسة تطبيقية على وزارة العدل بمنطقة عسير، مجلة العلوم الاقتصادية والإدارية والقانونية، المركز القومي للبحوث، فلسطين ـ غزة، المجلد الخامس، العدد رقم (1)، 30 يناير 2021م، ص 80.
[12] فاتن عبدالله صالح، أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي على جودة اتخاذ القرارات، رسالة ماجستير، جامعة الشرق الأوسط للدراسات العليا ـ كلية الأعمال ـ قسم إدارة الأعمال، عام 2009م، ص 12.
[13] فوزية برسولي، سميرة عبدالصمد، توظيف التكنولوجيا للارتقاء بجودة التعليم العالي: مدخل نظم التعلم الذكية، مجلة المنتدى للدراسات والأبحاث الاقتصادية، جامعة زيان عاشور بالجلفة ـ كلية العلوم الاقتصادية والعلوم التجارية وعلوم التسيير بالجزائر، المجلد 7 العدد 4، 31 ديسمبر 2018م، ص 396.
1 shane legg and marcus hutter, A Collection of Definitions of Intelligence, Frontiers in Artificial Intelligence and Applications, 2007, Vol.157, P. 23.
[15] بهاء حسين الحمداني، المحاسبة الإدارية الشاملة: حقيقة التطور في ظل التقدم العلمي ومفهوم الذكاء الاصطناعي، رسالة دكتوراه، جامعة بغداد ـ كلية الإدارة والاقتصاد، عام 2010م، ص 261.
[16] هيثم السيد أحمد عيسى، الالتزام بالتفسير قبل التعاقد من خلال أنظمة الذكاء الاصطناعي، دار النهضة العربية، عام 2018م، ص 18.
[17] وهذا هو التقسيم المُجمع عليه من غالب الفقه والعلماء، غير أن هناك من يرى تقسيمه إلى ثلاثة أنواع، هي: الذكاء الاصطناعي الضيق أو الضعيف، والقوي أو العام، والخارق، راجع في تفصيل ذلك: مفرح جابر مسفر التليدي، مرجع سبق ذكره، ص 85.
[18] John R. Searle, Mind, Brains, and Programs, The Behavioral And Brain Sciences, Cambridge University Press, 1980, P. 417.
1 Robert J. Sternberg, HandBook of Intelligence, Cambridge University Press, 2000, P. 342. And, Stuart J. Russell and Peter Norvig, Artificial Intelligence A Modern Approach, Prentice Hall, Third Edition, 2010, P. 1021& 1022.
[20] ولكن هذا لا يمنع من القول بوجود وعي صناعي قوي محدود في مجال الذكاء الاصطناعي، وتتوقف درجة محدوديته على ما يضعه المبرمج أو يستخدمه من إمكانيات وتكنولوجيا، تجعل إلى أي مدي يتوقف عنده الوعي الاصطناعي لعمل الآلة أو النظام أو البرنامج باستقلالية.
3 Owen Holland, Machine Consciousness, Imprint Academic, 2003, P. 192.
4 Andrei s. Monin, On the Definition of the Concepts Thinking Consciousness, And Conscience, Psychology, Proc. Nati. Acad. Sci. USA, Vol. 89, pp. 5774-5778, July 1992, P. 5776.
[23] هيثم السيد أحمد عيسى، مرجع سبق ذكره، ص 34، 35.
[24] يقــصد بالأنظمة المؤتمتة بأنها: “برنــامج حاسوبي أو وســيلة إلكترونيـة أو وسـيلة آلية أخـرى تُـستخدم لاسـتهلال إجـراء ما أو للاسـتجابة كليًا أو جزئيًا لرسائل بيانات أو لعمليات تنفيذها، دون مراجعة أو تدخل مـن شخص طبيعي في كـل مرة يـستهل فيها النظام إجراء ما أو ينشئ استجابة ما”، راجع اتفاقية الأمم المتحدة بشأن استخدام الخطابات الإلكترونية في العقود الدولية، الدورة الستون، الصادر بناء على قرار الجمعية العامة للأمم المتحدة 23 تشرين الثاني/ نوفمبر 2005 بناء على تقرير اللجنة السادسة (A/60/515)، في 9/12/2005، المادة 4/ز، ص 5. ولقد استخدمت الاتفاقية للتعبير عن هذا النظام عبارة “نظام الرسائل الآلي”، والمقصود به النظام المؤتمت. يمكن مراجعة الاتفاقية على الرابط الآتي: https://undocs.org/pdf?symbol=ar/A/RES/60/21، تم الاطلاع بتاريخ 28/7/2021.
1 Enrique Castillo, Jose m. Gutierrez and Ali S. Hadi, Expert System and Probabilistic Network Models, (New York, USA: Springer Verlag, 1997, P. 2: 8.
2 Kevin Gurney, An Introduction To Neural Networks, UCL Press Limited, London, UK, 2007, P. 13: 18.
[27] آلان بونيه، ترجمة: د. علي صبري فرغلي، الذكاء الاصطناعي ـ واقعه ومستقبله، عالم المعرفة، أبريل عام 1993م، ص 27.
[28] هيثم السيد أحمد عيسى، مرجع سبق ذكره، ص 24.
3 Arthur L. Samuel, “Some Studies in Machine Learning Using the Game of Checkers”, IBM Journal of Research and Development 3 No 3, 1959, pp. 210 – 229.
4 Pat Langley, Elements of Machine Learning, Morgan Kaufmann Publishers, San Francisco, California, 1996, P. 1: 9.
[31] راجع في تلك الأنواع بالتفصيل:
Taiwo Oladipupo Ayodele, Types of Machine Learning Algorithms, In New Advances in Machine Learning, Yagang Zhang (Ed.), Rijeka, Croatia, InTech, 2010, P. 19 and beyond.
6 Taiwo Oladipupo Ayodele, Ibid, P. 19.
7 Nick Pentreath, Machine Learning with Spark, Packt Publishing Ltd, 2015. P.41.
1 Nick Pentreath, Ibid, P. 41.
2 Taiwo Oladipupo Ayodele, P.R, P. 19.
3 ويتشابه التعلم التعزيزي مع التعلم غير الخاضع للإشراف في أن المخرج غير معروف، لكنه يختلف عنه ويتشابه مع التعلم الخاضع للإشراف في إعطاء الآلة بعض الإشارات الدالة على صحة أو خطأ تصرفها؛ لكي تختار التصرف الصحيح بعد ذلك، ومثاله الروبوت الذي يقوم على التعلم التعزيزي لأداء مهمة معينة، راجع في ذلك:
Sebastian Raschka, Python Machine Learning, Packt Publishing Ltd, 2015. P.6.
[37] وللتفصيل والمزيد عن إنترنت الأشياء، راجع:
Nik Bessis, Ciprian Dobre, Big Data and Internet of Things: A Roadmap for Smart Environments, Springer International Publishing Switzerland, 2014, P. 4 and beyond.
5 A D Marshall and R R Martin, Computer Vision, Models and Inspection, World scientific publishing Co. Pte. Ltd , 1992, P. 5 and beyond.
1 Sakharam Tirgul and Mangesh Raghunath Naik, Artificial Intelligence and Robotics, International Journal of Advanced Research in Computer Engineering & Technology, (IJARCET) Volume 5, Issue 6, June 2016, P. 1787 & 1791.
[40] لا تقتصر تلك الالتزامات على نوعين فقط، بل يمكن تقسيمها إلى أربعة أنواع، وهي:
أولاً: التزامات ببذل عناية، يجب إثبات خطأ المدين بها.
ثانيًا: التزامات بتحقيق نتيجة مُخففة، توجد فيها دائمًا قرينة الخطأ لمصلحة الدائن، ويكون على المدين دحض هذه القرينة بإثبات عدم وجود خطأ في جانبه.
ثالثًا: التزامات بتحقيق نتيجة تقليدية، لا يمكن للمدين أن يتخلص من مسئوليته الناشئة عنها إلا بإثبات السبب الأجنبي.
رابعًا: التزامات بالضمان، وهي المسؤولية بقوة القانون حتى مع توافر إحدى حالات السبب الأجنبي، راجع في ذلك:
Alain Bénabent, Droit civil – Les obligations, Montchrestien, 2001, P. 282.
3 Voir en détail: Jonathan Pouget, La Réparation Du Dommage Impliquant Une Intelligence Artificielle, Thèse pour le doctorat en droit , Aix Marseille Université – Faculté de droit et de sciences politiques, École doctorale sciences juridiques et politiques, présentée et soutenue le 12 décembre 2019, P. 44 et au-delà.
[42] وذلك على العكس من الخطأ في المسؤولية العقدية الذي يمكن أن يكون التزامًا بتحقيق غاية أو بذل عناية، راجع في ذلك عبدالرزاق أحمد السنهوري، الوسيط في شرح القانون المدني، منشأة المعارف بالإسكندرية، الجزء الأول، عام 2004م ، ص 643، 644.
[43] راجع في تفصيل ذلك، أبو بكر محمد الديب، التطبيقات العسكرية للذكاء الاصطناعي في ضوء القانون الدولي العام ـ منظومة الأسلحة ذاتية التشغيل نموذجًا، دار النهضة العربية، عام 2021م، ص 61، وما بعدها.
[44] ولعل هذا الأمر يثير العديد من التساؤلات حول المسؤول عن تلك الأضرار مسئولية، وحدود تلك المسؤولية، بالإضافة إلى الأساس المناسب الذي يمكن أن تتأسس عليه المسؤولية المدنية، وهو ما سوف نحاول معالجته ضمن هذا البحث.
[45] وهو عكس مسلك الاتحاد الأوروبي، والتي قد أصدرت لجنته القانونية “قواعد القانون المدني على الروبوتات” ـ كأحد تطبيقات الذكاء الاصطناعي، بعد أن قامت مجموعة عمل منبثقة عن لجنة الشئون القانونية بالاتحاد الأوروبي بإصدار التوصيات اللازمة تمهيدًا لإصدار القواعد المذكورة، راجع بالتفصيل همام القوصي، إشكالية الشخص المسؤول عن تشغيل الروبوت (تأثير نظرية النائب الإنساني على جدوى القانون في المستقبل) ـ دراسة تحليلية استشرافية في قواعد القانون المدني الأوروبي الخاص بالروبوتات، مركز جيل البحث العلمي، مجلة جيل الأبحاث القانونية المعمقة، العدد 25، 25 مايو 2018م، ص 84.
[46] واقصد بها هنا الشخصية القانونية التي تتحمل بمختلف الالتزامات، وتكتسب مختلف الحقوق. وبمعنى آخر تلك الشخصية التي لا يقتصر كمالها على مجال دون آخر، وهو الأمر الذي قد يتحقق في مجال أنظمة الذكاء الاصطناعي والذي قد تكتمل الشخصية القانونية لها في نطاق عملها ـ كما سنرى.
3 Civil Law Rules on Robotics, European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), P8_TA(2017)0051, Official Journal of the European Union, (2018/C 252/25), Article n. 59/f.
[48] فالتوصيات هنا تشير إلى تصورات الوضع المستقبلي عند الوصول إلى مرحلة الذكاء الخارق، كنوع من أنواع حتمية الوصول إليها في يوم قريب من الأيام، ولكن ذلك يجب ألا يؤثر على معالجة الموضوع وفقًا لتصورات الوضع الراهن أيضًا.
5 Cour D’appel de Paris, Rapport du groupe de travail, sur “La réforme du droit de la responsabilité civile et les relations économiques”, 25 juin 2019, P. 109.
[50] محمد محمد عبداللطيف، المسؤولية عن الذكاء الاصطناعي بين القانون العام والقانون الخاص، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، جامعة المنصورة ـ كلية الحقوق، والمنعقد في فترة 23، 24 مايو 2021م، ص 9.
[51] توضيحًا لهذا المعنى، راجع: أسامة أحمد بدر، الالتزام ببذل عناية والالتزام بتحقيق نتيجة بين المسؤوليتين الشخصية والموضوعية ـ دراسة تحليلية قضائية في القانونين الفرنسي والمصري، دار الجديدة، عام 2011م ، ص 26، وما بعدها.
[52] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 793، وما بعدها.
[53] راجع بالتفصيل في رفض فكرة المسؤولية عن الغير ممثلة في علاقة مسئولية المتبوع عن أعمال تابعه أو من له حق التوجيه والإشراف، وحراسة الأشياء والحيوانات في مجال المسؤولية المدنية الناتجة عن استخدامات الأنظمة الذكية:
Voir en detail: Jonathan Pouget, op.cit, P. 45 et au-delà.
[54] همام القوصي، مرجع سبق ذكره، ص 85.
[55] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 860.
[56] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 902.
5 Caminade Alexandra Mendoza, “Le droit confronté à l’intelligence artificielle des robots: vers l’émergence de nouveaux Concepts juridiques?” Recueil Dalloz., no 8.,25/2/2016, P. 445.
[58] محمد ربيع أنور فتح الباب، الطبيعة القانونية للمسئولية المدنية عن أضرار الروبوتات (دراسة تحليلية مقارنة)، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، جامعة المنصورة ـ كلية الحقوق، والمنعقد في فترة 23، 24 مايو 2021م، ص 16. وتدعيمًا لهذا الرأي راجع:
Laurène Mazeau, Intelligence artificielle et responsabilité civile: Le cas des logiciels d’aide à la décision en matière médicale, Revue pratique de la prospective et de l’innovation, LexisNexis SA, 13 Aug 2018, P. 41.
[59] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 895، 896. وراجع في ذلك المادة رقم 176 من القانون المدني المصري، والمُقابلة للمادة رقم 314 من قانون المعاملات المدنية الإماراتي.
[60] راجع، عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 931.
[61] المُقررة بالمادة رقم 178 من القانون المدني المصري، والمُقابلة للمادة رقم 316 من قانون المعاملات المدنية الإماراتي. وتم دعم هذه النظرة تأسيسًا على اعتبار النظام الذكي شيئًا.
[62] وأصبحت تلك المادة الآن تحمل رقم 1242 من القانون المدني الفرنسي المُعدل بالمرسوم بقانون رقم 131 لسنة 2016م. راجع في ذات المعنى تفصيلاً، د. محمد ربيع انور فتح الباب، مرجع سبق ذكره، ص 15.
[63] كالطائرات، السيارات، الروبوتات، القطارات، آلات الفحص والتشخيص الطبي، وغيرها الكثير في مجالات الائتمان المصرفي، البنوك، الهندسة، الإحصاء، المحاسبة، التعليم، وغيرها.
[64] حيث قُضي بأن: “المقرر في قضاء محكمة النقض أن النص في المادة ١٧٨ من القانون المدني يدل على أن الحراسة على الأشياء الموجبة للمسئولية على أساس الخطأ المفترض طبقاً لهذا النص إنما تتحقق بسيطرة الشخص الطبيعي أو المعنوي على الشيء سيطرة فعلية في الاستعمال والتوجية والرقابة لحساب نفسه”، النقض المدني في الطعن رقم 6420 لسنة 64 قضائية، جلسة 8/6/2019، ومثاله النقض المدني في الطعن رقم 9195 لسنة 87 قضائية، جلسة 23/3/2019، والنقض المدني في الطعن رقم 2005 لسنة 81 قضائية، جلسة 9/5/2018، والمنشورة على الرابط الآتي: https://www.cc.gov.eg/civil_judgments ، تم الاطلاع بتاريخ 14/2/2022.
[65] وتخضع تلك البرامج والأنظمة للحماية المقررة في قواعد حقوق الملكية الفكرية، راجع في ذلك:
Nour EL Kaakour, L’intelligence artificielle et la responsabilité civile délictuelle, Mémoire pour l’obtention du Diplôme d’Études Approfondies En « Droit Interne et International des Affaires », Université Libanaise Faculté de Droit et des Sciences Politiques et Administratives Filière Francophone, 2017, P. 48.
[66] وهو الأمر الذي لا يمكن دفعه بحكم محكمة النقض الفرنسية، والتي جزأت فيه الحراسة إلى نوعين: الأولى: حراسة الاستعمال التي يعتبر بها الحائز حارسًا في حدود ما يقتضيه استعمال الشيء، والثانية: حراسة التكوين والتي تتحقق فيها الحراسة للمنتج عن العيب أو الخلل الموجود بهيكل الشيء المادي؛ فالوضع بالنسبة للأنظمة والبرامج الذكية وما يحتويها من أجهزة أو آلات مادية يحوي من الدقة والتقنية ما يصعب معه تحديد مصدر الضرر الناتج عن استخدامات تلك الأنظمة والبرامج، وما إذا كان هو الهيكل المادي وبالتالي يكون المنتج مسئولاً، أم النظام الذكي المغذى به الآلة فيكون مبرمجه أو مطوره، أم بسبب سوء الاستخدام فيكون المستخدم مسئولاً، وهو ما يجعل تحديد شخص المسؤول ـ الحارس ـ أمرًا صعبًا للغاية، وإن تم تحديده، فما هي حدود مسئوليته، وإن تم تحديدها هي الأخرى، فهل يصلح أن يكون حارسًا مستخدم النظام الذكي على الرغم عمله باستقلالية وذاتية. فهنا سنظل في دائرة مفرغة لتحديد المسؤولية والمسؤول، راجع:
Cour de Cassation, Chambre civile 2, du 5 janvier 1956, Décision attaquée pourvoi: Cour d’appel Poitiers 29 du octobre 1952, N° 56-02.126, 56-02.138.
[67] راجع في ذات المعنى، أسامة أحمد بدر، مرجع سبق ذكره، ص 28، 29.
[68] بدأ التوسع في تطبيق هذا النوع من المسؤولية؛ لإمكان تطبيقها على جميع الحوادث، وبالتالي سهولة اقتضاء التعويض المناسب، دون أن تحول صعوبة الإثبات من اقتضاء التعويض المناسب.
[69] أيمن إبراهيم العشماوي، تطور مفهوم الخطأ كأساس للمسئولية المدنية، دار النهضة العربية، عام 1998م، ص 428.
[70] محمد ربيع فتح الباب، المسؤولية المدنية عن أضرار التلوث الإشعاعي النووي، دار النهضة العربية، عام 2016م، ص 123، وما بعدها.
4 Philippe Cullet, La responsabilité et le protocole sur la biosécurité, International Environnemental Law Research Centre, 2004/3, P. 4.
[72] سمير حامد الجمال، المسؤولية المدنية عن الأضرار البيولوجية ـ دراسة مقارنة، بحث منشور بمجلة الشريعة والقانون، جامعة الإمارات العربية المتحدة ـ كلية القانون، السنة الرابعة والعشرون ـ العدد الثاني والأربعون، ربيع الأخر 1431هـ ـ أبريل 2010م، ص 383.
[73] سمير حامد الجمال، مرجع سبق ذكره، ص 383، 384.
[74] راجع في ذات المعنى: سعيد سعد عبدالسلام، مشكلة تعويض أضرار البيئة التكنولوجية، دار النهضة العربية، عام 1999م، ص 124، وما بعدها.
2 Baudouin Bouckaert, La responsabilité civile comme base institutionnelle d’une protection spontanée de l’environnement, Journal des Economistes et des Etudes Humaines, vol.2 numéro 2&3, juin/ septembre 1991, P. 9.
[76] واقصد بالشخصية القانونية الكاملة، الشخصية القانونية التي تمتلك الأهلية القانونية في جميع المجالات، ولا تختص بمجال معين فقط، كالهندسة، التشخيص الطبي والعلاجي، المحاسبة، الائتمان، الإعلام، العسكري، أو غيرها. فالنظام الذكي قد يمتلك الشخصية القانونية المستقلة في أحد تلك المجالات، لكنه لا يمتلكها في غيرها أو في غير ما تم تزويده به من مجالات، بعكس الشخصية القانونية الكاملة كالإنسان، والتي تمتلك الشخصية القانونية في جميع المجالات، حتى ولو لم تكن على علم تام بمجال معين منها.
[77] وقد ذكره القانون المدني للاتحاد الأوروبي بمصطلح “”A Specific Human Agent، أي “النائب الإنساني المُحدد”، راجع:
The European Parliament, Civil Law Rules on Robotics of 2017, Section AD.
[78] ولقد أطلق الفقه الفرنسي عليه مصطلح “قرين الروبوت” “Companion Robot”، راجع في ذلك:
Anne Boulangé, Carole Jaggie, “Ethique, responsabilité et statut juridique du robot compagnon: revue et perspectives”, IC2A, Master Recherche Sciences Cognitives, 2014 – 2015, P. 13.
[79] صدرت هذه الالتزامات والحقوق ضمن توصيات المجلس الدنماركي للأخلاق:
The Danish Council of Ethics, 2010, Recommendations concerning Social Robots.
، وصدرت تلك الصور في صورة إرشادات وتوصيات، ولم ترق إلى مستوى القواعد القانونية أو الأخلاقية. بينما حدد بعضها ضمن قواعد الأخلاق وبعضها الآخر ضمن التزامات صارمة القانون المدني الأوروبي، راجع في مبادئ الأخلاق:
The European Parliament, Civil Law Rules on Robotics of 2017, Section 10: 17.
3 Voir le detail, Anne Boulangé, Carole Jaggie, op.cit, P. 14.
[81] سوجول كافيتي، قانون الروبوتات، معهد دبي القضائي ـ مجلة المعهد، العدد رقم 21، أبريل 2015م، ص 33.
[82] حوراء موسى، التنظيم التشريعي لاستخدامات الطائرة من دون طيار والروبوتات، معهد دبي القضائي ـ مجلة المعهد، العدد رقم 21، أبريل 2015م، ص 23.
[83] كذلك تختلف عن حوالة الحق، والكفالة، ونظام التأمين ضد المسؤولية، راجع بالتفصيل: همام القوصي، مرجع سبق ذكره، ص 85، 86.
[84] همام القوصي، مرجع سبق ذكره، ص 87.
[85] والذي يُعد النموذج الأول في معالجة هذا الأمر ـ بتخصص دقيق من زاوية الروبوتات؛ لذلك ينبغي النظر إليه نظرة متأنية ودقيقة لتفادي ما يعتريه من نقصان، ووضع ذلك في الحسبان عند معالجة المشرع الوطني لهذه المسألة.
4 The European Parliament, Civil Law Rules on Robotics of 2017, P. 20.
5 The European Parliament, Civil Law Rules on Robotics of 2017, Section AD.
6 The European Parliament, Civil Law Rules on Robotics of 2017, Sections Z and A A.
7 The European Parliament, Civil Law Rules on Robotics of 2017, Section AD.
8 The European Parliament, Civil Law Rules on Robotics of 2017, Section AF.
1 The European Parliament, Civil Law Rules on Robotics of 2017, P. 19.
[92] ولعل ذلك هو ما أكد عليه التشريع الأوروبي، راجع:
The European Parliament, Civil Law Rules on Robotics of 2017, P. 20.
ويُعد ذلك اعترافُا منه بعدم كفاية تلك القواعد لتنظيم ذات المسألة في المستقبل القريب.
[93] راجع بالتفصيل: د. محمد ربيع أنور فتح الباب، مرجع سبق ذكره، ص 26، وما بعدها. وهو ذاته ما قرره التوجيه الأوروبي رقم 24 لسنة 2009، والصادر في 23/4/2009.
[94] حيث تأخذ المسؤولية هنا صورة المسؤولية الصارمة أو المسؤولية دون خطأ ـ المسؤولية الموضوعية، والتي يحتاج المضرور فيها إلى إثبات العيب والضرر وعلاقة السببية بينهما، وهو ما نص عليه التوجيه الأوروبي رقم 374/85/ EEC، والصادر في 25/7/1985م. ويُعد ذلك مسلكًا مشابهًا لما انتهجه المشرع المصري في قانون حماية المستهلك رقم 181 لسنة 2018، والمنشور بالجريدة الرسمية، العدد رقم (37) تابع، والصادر في 13/9/2018م. وإذا كان الأمر كذلك بالنسبة لعيب المُنتج، فيكون الأخذ بالمسؤولية الموضوعية في نطاق استخدامات الأنظمة الذكية هو الأولى، وإن كان الأمر يحتاج إلى تنظيم تلك المسألة بدقة خصوصًا في جانب طبيعة الالتزامات في كل صورة من صور تلك الاستخدامات. راجع بالتفصيل: محمد ربيع أنور فتح الباب، مرجع سبق ذكره، ص 22، وما بعدها.
[95] المادة 699 من القانون المدني المصري.
[96] عبدالرزاق أحمد السنهوري، الوسيط في شرح القانون المدني، منشأة المعارف الأسكندرية، الجزء السابع ـ المجلد الأول، عام 2004م، ص 340.
[97] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 357، وما بعدها.
[98] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 400، وما بعدها.
[99] إلا إذا كان الضرر ناتجًا عن خطأ الوكيل الشخصي. كما يمكن للاتفاق أن يعدل قواعد المسؤولية تلك، بعكس الحال بالنسبة للنائب الإنساني. وفي ذات المعنى راجع: النقض المدني المصري في الطعن رقم 12404 لسنة 76 قضائية، جلسة 22/4/2015، والمنشور على الرابط الآتي: https://www.cc.gov.eg/civil_judgments
[100] المادة 704 من القانون المدني المصري.
[101] عبدالرزاق أحمد السنهوري، مرجع سبق ذكره، ص 437، وما بعدها.
[102] فالنظام الذكي هو ما يعمل الروبوت كجسم من خلاله.
2 Isabelle Poirot-Mazères, Robotique et médecine: quelle(s) responsabilité(s) – Chapitre 8, Journal International de Bioéthique, Vol. 24, No. 4, 2013, le Résumé.
[104] راجع في ذلك:
Steven De Schrijver, “The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots”, 5/1/ 2018. On the following link: https://whoswholegal.com/features/the-future-is-now-legal-consequences-of-electronic-personality-for-autonomous-robots, Viewed in 3/5/2022.
[105] ومن أمثلتها إخفاء المُنتج عيوب الروبوت ـ كهيكل مادي، كأن لم يزدوه بأنظمة أمان؛ فيُسهل وقوع الحوادث. راجع:
Nathalie Nevejans, Directorate – General For Internal Policies, Polisy Department C: Citizens’ Rights And Constitutional Affairs, Legal Affairs, European Civil Law Rules In Robotics, No. EA n° 2471, October 2016, P. 16.
،وكأن تؤدي الآلة الذكية المُستخدمة في المجال الطبي إلى تحريك المريض بطريقة ما خاطئة، فتؤدي إلى تفاقم حالته الصحية، راجع في ذلك:
Moritz Goeldner, Cornelius Herstatt and Frank Tietze, The emergence of care robotics – A patent and publication analysis, Technological Forecasting and Social Change, 2015, vol. 92, issue C, P. 116.
، وللمزيد من الصور الطبية، راجع:
Alexy Hamoui, La responsabilité civile médicale à l’épreuve de l’intelligence artificielle, Master de Droit privé general, Université PARIS II, 2020, P. 13.
[107] في ذات المعنى، راجع: محمد ربيع أنور فتح الباب، مرجع سبق ذكره، ص 28، 29.
[108] ولقد نصت المادة الثانية من التوجيه الأوروبي رقم 374/85 والصادر في 25/7/1985، على قصر مفهوم المُنتج على الأشياء المادية المنقولة فقط، فيما نصت المادة السادسة من ذات التوجيه على قصر حالات عيوب المُنتج التي لا توفر الأمان الكافي للمستهلك، او حرمانه من منفعته كليًا أو جزئيًا، أو الانتقاص من منفعة المُنتج ذاته.
[109] حيث تنص المادة الأولى من التوجيه الأوروبي رقم 24 لسنة 2009، والصادر في 23/4/2009 في شان الحماية القانونية لبرامج الحاسب، على أن: “…… تنطبق الحماية القانونية المنصوص عليها في هذا التوجيه على أي شكل من أشكال التعبير عن برامج الكمبيوتر ….”.
[110] كما أن برامج الذكاء الاصطناعي تعتبر من قبيل الملكية الفكرية الفنية والأدبية باعتبارها من برامج الحسب الآلي أوالبرمجيات، ومن ثم تحظى بالحماية المقررة للمصنفات في قوانين حماية الملكية الفكرية، بشرط أن تكون من قبيل المصنفات المبتكرة، د. محمد ربيع أنور فتح الباب، مرجع سبق ذكره، ص 25، وفي ذات المعنى راجع:
Cass.civ., 1 ère , 3 mai 2018., no16-26531, Publié sur le site: https://www.courdecassation.fr/
1 The European Parliament, Civil Law Rules on Robotics of 2017, Section 59/ B & C & D .
، وذلك أيضًا استنادًا إلى حساب الضرر الذي يلحق بشخص ما، يتم اقتضاؤه من مُصدِر الفعل الضار، راجع في ذلك:
Alexy Hamoui, op.cit, P. 11.
[112] ومن ثم يتعين على الشخص المضرور إثبات الخطأ والضرر وعلاقة السببية.
[113] وذلك على اعتبار النظام الذكي شيئًا، فيتحمل المسؤول دائمًا قرينة الخطأ في جانبه، بحيث يستطيع دحضها بإثبات عدم ارتكاب أية خطأ.
[114] وفي ذات المعنى، وأكثر؛ حيث ذهب البعض أبعد من ذلك ففكروا في إمكانية الاستغناء عن إثبات علاقة السببية، راجع:
Alexy Hamoui, op.cit, P. 19 & 21.
[115] انظر في كيفية وأسباب التحول إلى نظرية المسؤولية الموضوعية أو نظرية المخاطر أو تحمل التبعة، وكيفية التطور الحاصل على النظريات السابقة لها، بالتفصيل: جبارة نورة، نظرية المخاطر وتأثيرها على المسؤولية المدنية، مسطرة إجرائية ـ مختارات من أشغال الملتقى الوطني حول: مستقبل المسؤولية المدنية، جامعة امحمد بوقرة ـ بومردس ـ كلية الحقوق والعلوم السياسية، قسم القانون الخاص، في 28/1/2020م، ص 12، وما بعدها. ولعل من اهم التطبيقات التي كرست فمرة المخاطر ـ نظرية المسؤولية الموضوعية، هي المسؤولية الطبية ومسئولية المُنتج، والتي تُعد أيضًا أبرز التطبيقات في مجال استخدامات الأنظمة والبرامج الذكية.
2 The European Parliament, Civil Law Rules on Robotics of 2017, Section AE.
3 The European Parliament, Civil Law Rules on Robotics of 2017, Section AD.
[118] ويلاحظ على وجه الخصوص، أن المهارات الناتجة عن التدريب الممنوح للنظام الذكي لا ينبغي الخلط بينها وبين المهارات التي تعتمد بشكل صارم على قدرات التعلم الذاتي عند السعي لتحديد الشخص الذي يُنسب إليه السلوك الضار للنظام الذكي؛ لذلك ـ على الأقل في المرحلة الحالية ـ يجب أن تقع المسؤولية على عاتق الإنسان وليس الروبوت. راجع في ذلك:
The European Parliament, Civil Law Rules on Robotics of 2017, Section 56.
[119] للوصول للنتيجة المرجوة من عمل النظام الذكي، فالنظام الذكي دائمًا سوف يطلب منه تحقيق نتيجة معينة، قد تسمح قدراته التعلمية والاستقلالية من الوصول إليها، وقد يكون هناك شك في ذلك.
[120] فاتن عبدالله صالح، أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي على جودة اتخاذ القرارات، رسالة ماجستير، جامعة الشرق الأوسط بالأردن ـ كلية الأعمال، قسم إدارة الأعمال، عام 2008 ـ 2009م، ص 32.
[121] همام القوصي، نظرية نابليون للالتزام تترنح أمام التكنولوجيا المالية ـ فاينتك، مقال منشور بجريدة عالم المال، بجمهورية مصر العربية، بتاريخ 19/5/2018م.
1 The European Parliament, Civil Law Rules on Robotics of 2017, Section AD.
2 The European Parliament, Civil Law Rules on Robotics of 2017, Section 59/C.
[124] وهي الصورة الأساسية والأوضح التي تمثل تلك الحالة.
2 Cristono Almonte Plaintiff,v. Avernavision & Robotics, INC., Defendant. United States District Court, W.D. New York, No. 11-CV1088 EAW, 128 F.Supp.3d 729 (2015), 31 Aug 2015.