“نظرية الشخصيَّة الافتراضية” للروبوت وفق المنهج الإنساني
-دراسة تأصيلية تحليلية استشرافية في القانون المدني الكويتي والأوروبي-
The Theory of Virtual Personality of Robot according to Humanistic Approach
-Prospective “Outlook” Analytical Study in The Kuwaiti & European Civil Law-
الدكتور همام القوصي، دكتوراه بالقانون التجاري تخصُّص قانون وأنظمة البورصة من جامعة حلب – الجمهوريَّة العربيَّة السوريَّة.
Dr. Humam Al Qussi, Ph. D/S.J.D in Trading Law – Exchange Law & Regulation from the University of Aleppo – Syrian Arab Republic.
مقال نشر في مجلة جيل الأبحاث القانونية المعمقة العدد 35 الصفحة 11.
المُلخَّصيلفُّ الغموض موضوع شخصيَّة الروبوت؛ فعلى الرغم من أنَّ الروبوت ما يزال في نظر المشرع الكويتي آلة مهما بلغ حدَّة ذكائها، إلاَّ أنَّها آلة تُحاكي الذكاء البشري إلى الدرجة التي باتت فيه قواعد المسؤوليَّة المدنيَّة التقليديَّة غير عادلةٍ فيما يخصُّ الوقائع التي يتدخَّل فيها الروبوت.
فالمشرع الكويتي –الطامح لرؤية كويت جديدة 2035- ينظر للروبوت على أنَّه آلة خطرة تحتاج إلى إنسان حتى يحرسها ويُسأل عن أعمالها غير المشروعة وفق نظام الخطأ المفترض، في حين أنَّ للروبوت القدرة الذاتيَّة على تجاوز المخاطر بما يُختلف عن الآلات التقليديَّة الخطرة.
ومن هنا، فقد قام المشرع الأوروبي بتغيير النظرة نحو “كيان الروبوت”، فارضاً نظرية النائب الإنساني التي حظرت افتراض الخطأ، ومانحاً إيَّاه منزلةً مستقبليَّةً أرقى من الآلة الجامدة، دون النص صراحةً على الاعتراف بالشخصيَّة الافتراضيَّة.
وبناءً عليه، نكتشف بموجب هذا البحث “نظرية الشخصيَّة الافتراضية” للروبوت التي تهدف إلى الارتقاء بالمكانة القانونية للروبوتات على منهج الارتقاء بالشخصيَّة الإنسانية، وتقييمها في ظلِّ اعتبارات السيادة الإنسانية.
وهو ما يوجب علينا تأصيل فكرة الشخصيَّة الافتراضيَّة على القواعد العامة المدنيَّة للإنسان؛ بغرض استشراف ما إذا كانت هي الحل القانوني الأمثل لإشكاليَّة المسؤوليَّة عن الروبوت، والخروج بنتائج منطقيَّة للافتراضات المستقبليَّة التي باتت تطرق أبواب الحاضر.
الكلمات المفتاحية: الروبوت، الإنسان الآلي، المسؤولية المدنية، القانون المدني الأوروبي الخاص بالروبوتات، شخصيَّة الروبوت، الشخصيَّة المعنوية، الشخصيَّة القانونية، الشخصيَّة الالكترونية، الشخصيَّة الافتراضية.
Abstract
Mystery surrounds the subject of robotics. While the robot is still considered by the Kuwaiti legislator to be as object whatever its cleverness it may be, the rules of traditional civil responsibility have become unfair with regard to the realities in which the robot intervenes.
The Kuwaiti legislator, who aspires to reach a new Kuwait view 2035, still see the robot as a dangerous machine that needs a man to guard and ask for its illegal actions according to the presumed false legal system, while the robot has the autonomy to overcome the risks different from the traditional dangerous machines.
Hence, the European legislator changed the perception of the “robot entity”, imposing the theory of the human agent, giving robot a future status higher than the rigid machine, without explicitly recognition of the robot’s virtual legal personality.
Accordingly, I explore the “Virtual Personality Theory” of the robot, which aims to elevate the legal status of robots on the method of upgrading human personality, to evaluate it under considerations of human sovereignty.
Such ambiguity requires us to root the idea of virtual personality on the general civil rules, in order to anticipate whether it is the best legal solution to the problem of liability for the robot, and to come up with logical results for the future assumptions that are now touching the doors of the present.
Keywords: Robot, Robotics, Civil Liability, New Kuwait View 2035, Civil Law Rules on Robotics of 2017, Robot Personality, Legal Personality, Electronic Personality, Virtual Personality.
المُقدمِّة
لم يعدْ من الخيال العلمي أن نتحدَّث عن شخصيَّة “الروبوت” “Robot”؛ فاليوم باتت الروبوتات جزءاً أساسيَّاً من حياتنا اليوميَّة دون أن نشعر بها، فقد تغلغلت في صورتها البرمجيَّة في مفاصل تعاملاتنا ومجتمعاتنا ولم نعدْ نستطيع الاستغناء عنها.
فمثلاً، باتت الشركات تستخدم روبوتات المجيب الآلي والتحاور مع العملاء من خلال التطبيقات المتَّصلة بالهاتف الذكي أو حتى من خلال الشبكة الخليويَّة، وباتت مُحرِّكات البحث على الإنترنت ترصد اختيارات ورغبات الباحثين عن المعلومات عبر الإنترنت، وتقترح لهم ما يمكن أن يجول في خاطرهم دون تكبُّد عناء البحث التقليدي في قواعد البيانات كاملةً.
كل هذه الأمثلة هي للروبوتات البرمجيَّة القادرة على العمل بشكل ذاتي والتعلُّم من تجربتها الشخصيَّة وكسب المال لصالح مالكها، وهناك أيضاً روبوتات فيزيائيَّة تقوم على تشغيل خطوط الإنتاج في المصانع، وتقود الحافلات والسيارات الذاتيَّة، وتقوم بالعمليَّات الجراحيَّة الخطرة.
وكان لاختلاف البيئة التقنيَّة أثرها في البيئة التشريعيَّة التقليديَّة في القواعد العامة للقانون الكويتي؛ فالروبوت قادرٌ على تفادي الأخطار والتفكير في محاذير الأمان بالطريقة التي ينتَهِجُها الإنسان، وهذا الأمر هو نقطة الفصل في انتقال الروبوت من مرحلة الشيء محل الحراسة إلى الكائن الذي ينوب الإنسان عنه في تحمُّل المسؤوليَّة بقوَّة القانون دون افتراض الخطأ، كما أقرَّ القانون المدني الأوروبي الخاصِّ بالروبوتات[1].
ولكن هذا التغيير التشريعي كان واضحاً أنَّه مُجرَّد تمهيدٍ سيتلوه منح الروبوت منزلةً قانونيةً مستقبليَّةً خاصَّةً كما صرَّح المشرع الأوروبي[2]، وهذا المنهج في الارتقاء بمرتبة الروبوت هو عبارة عن تغطية للمفهوم الذي نرى تسميته بـ: “نظرية الشخصيَّة الافتراضية” “Virtual Personality Theory”، عبر محاكاة المنهج الإنساني في الارتقاء بمراحل الأهليَّة.
وبناءً عليه، فلا يمكن استمرار تجاهل هذا الواقع التكنولوجي من المشرع من جهة، ولا يصحُّ الانسياق وراء حُمَّى تكنولوجيا “الذكاء الاصطناعي” “Artificial Intelligence” الذي يُشغِّل الروبوت رغماً عن خطورته على الإنسان من جهة أخرى.
ومن هنا جاء هذا البحث حتى يستشرف المعالم الأولى لنظرية الشخصيَّة الافتراضيَّة للارتقاء المرتبطة بالمنهج الإنساني؛ بغرض تأصيل هذه الشخصيَّة على قواعد القانون المدني، ثم تحديد الحلول القانونيَّة المنطقَّية للإشكاليَّات المستقبليَّة بما يكفل فرض أكثر القواعد عدالةً لتحقيق أكبر استفادةٍ من ذكاء الروبوتات من جهة، وحماية الإنسان من مخاطر الوقوع في منزلق المساواة مع الروبوت من جهة أخرى.
أهمية البحث
تتمثَّل أهمية البحث بالاعتراف بأنَّ نظرية الشخصيَّة الافتراضيَّة للارتقاء في مكانة الروبوت القانونيَّة ليست بدعة بل واقع مُعاش ستُضْحِي دونه قواعد القانون غير عادلةٍ، وبالمقابل ستوضِّح التفاصيل القانونية للاعتراف بالشخصيَّة الافتراضيَّة مخاطر هذا الاعتراف على الوجود والسيادة الإنسانية.
أهداف البحث
نهدف من خلال هذا البحث إلى:
- تصوير نظريَّة ارتقاء الشخصيَّة الافتراضيَّة بشكل تأصيلي على القواعد العامة المدنية وفقاً لنظرية ارتباط شخصيَّة الروبوت بالمنهج الإنساني بما يكفل للمشرع الكويتي تنفيذ رؤية كويت جديدة 2035[3] واستشراف المستقبل المنظور.
- إيجاد الحلول للتناقضات بين أهلية الشخصيَّة الافتراضيَّة والإنسانية.
- توضيح مخاطر وصول الشخصيَّة الافتراضيَّة إلى المرتبة الإنسانية.
- تحديد الإجراءات المقترحة لمواجهة واقع الشخصيَّة الافتراضيَّة.
- ضبط نظرية الشخصيَّة الافتراضيَّة ضمن مجموعة من الخطوط التشريعية الحمراء.
منهج البحث
سننتهج من خلال هذا البحث المنهج التأصيلي بغرض توضيح التكييف الممكن لشخصيَّة الروبوت الافتراضية وفقاً للقواعد العامَّة في القانون الكويتي والقواعد الحديثة في القانون الأوروبي، وذلك في كل مرحلة من مراحل ذكائه الاصطناعي، ثم ننتهج المنهج التحليلي الاستنتاجي لهذه القواعد بناءً على احتياجات الواقع التكنولوجي المستقبلي بغرض نقدها واستنتاج القانونية الممكنة.
مشكلة البحث
تُعتبر مشكلةُ هذا البحث مشكلةً قانونيَّةً وأخلاقيَّةً بامتياز؛ حيث إنَّ المشرع سيقف قريباً أمام وقائع الروبوتات دون أن يجدَ حلاًّ قانونياً عادلاً لإقامة المسؤوليَّة المدنيَّة في ظلِّ اعتبار الروبوت كشيءٍ أصم، وبالمقابل فإنَّ الارتقاء بكيان الروبوت نحو الاعتراف به كشخصٍ ومنحه الشخصيَّة الافتراضيَّة سيعني تقبُّل فكرة المساواة بين الآلة والإنسان ثم المخاطرة بالسيادة البشريَّة في المستقبل.
ولذلك تتمثَّل مشكلة البحث في التساؤل التالي:
“هل يتمثَّل الحل القانوني لفقدان القواعد العامَّة المدنيَّة عدالتها مع الروبوت في منحه الشخصيَّة الافتراضيَّة حتى تتغيَّر أحكام المسؤوليَّة المدنيَّة ضدَّ الروبوت أو لمصلحته وفق المنهج الإنساني في تطوُّر الإدراك من العدم إلى الرشد؟”
مصطلحات البحث (ضبط المعنى)
نرى أنَّ التسمية الأدق للشخصيَّة التي قد يتم منحها للروبوت هي “الشخصيَّة الافتراضيَّة” لأنَّها تُمثِّل افتراضاً قانونياً ناشئاً عن ضرورات الواقع العملي، فيما يبدو لنا أنَّ تسمية “الشخصيَّة الالكترونيَّة” تقترب من المعنى التقني أكثر من القانوني من ناحية، وقد يتم منحها للأشخاص العاديين الذين يمارسون نشاطاً اجتماعياً على الإنترنت دون أي تواصل اجتماعي حقيقي من ناحية أخرى.
ويجب التأكيد على أنَّ “النائب الالكتروني” هو عبارة عن نظام الكتروني؛ أي كيان غير إنساني يُشيرُ إلى الروبوت الذي يتمتَّع بالذكاء الاصطناعي كونه نائبٌ اجتماعيٌّ عن شخصيَّة الإنسان، فيما يُشيرُ مصطلح “النائب الإنساني” فهو الكيان الإنساني الذي يُشيرُ إلى الإنسان المسؤول عن أفعال الروبوت غير المشروعة لوجود رابط بين الفعل غير المشروع للروبوت وهذا النائب؛ كالمالك أو المُشغِّل من غير المالك أو المُصنِّع أو المُستعمِل. وقد اعتمدنا في ذلك على “نظرية النائب الإنساني المسؤول” “Responsible Human Agent” التي تمَّ توضيحها من الفقه العربي لأول مرة عام 2018[4].
ونعني بـ: “المالك” إمَّا مالك الروبوت المُشغِّل له، أو المالك غير المُشغِّل عندما يكون مؤجِّراً للروبوت مثلاً، فيما يكون “المُشغِّل” فقط هو الشخص الذي يقوم على تشغيل الروبوت دون وجود صفة مالك؛ كأن يكون المُشغِّل مُستأجِراً للروبوت مثلاً.
بينما في إطار تحصيل حقوق الروبوت الشخصيَّة من الغير بفرض منحه الشخصيَّة الافتراضيَّة، فإنَّ الإنسان المُخوَّل بذلك هو المالك المُشغِّل أو غير المُشغِّل الذي يكون الروبوت جزءاً من ذمَّته الماليَّة، بينما يستطيع المُشغِّل من غير المُلاَّك تحصيل التعويض الذي يمسُّ شخصه وأعماله.
أمَّا بخصوص إجازة أو إبطال تصرُّفات الروبوت بفرض منحِه الشخصيَّة الافتراضيَّة، فهنا سيتمُّ ذكر مُصطلح “المالك” حتى يُشير إلى المالك المُشغِّل فيما يتعلَّق بتصرُّفات الروبوت الشخصيَّة أو التي يقوم بها لحساب هذا المالك، وقد يكون المالك غير مُشغِّلاً في حالة تصرُّفات الروبوت الشخصيَّة فقط دون التشغيليَّة التي تتمُّ لمصلحة المُشغِّل غير المالك.
فيما سيتمُّ استخدام مصطلح “المُشغِّل” فقط حتى يُشير إلى “المشغِّل من غير المُلاَّك” الذي يستطيع إجازة أو إبطال تصرُّفات الروبوت التشغيليَّة التي تتمُّ لحساب المُشغِّل نفسه دون تصرُّفات الروبوت الشخصيَّة التي تتمُّ لحساب الروبوت نفسه.
مُخطَّط البحث
المبحث الأول: الارتقاء من المرتبة الشيئيَّة إلى المعنويَّة غير المُميِّزة
المطلب الأول: الشخصيَّة الافتراضيَّة للروبوت في المرتبة الشيئيَّة
المطلب الثاني: الشخصيَّة الافتراضيَّة للروبوت في المرتبة المعنويَّة غير المُميِّزة
المبحث الثاني: الارتقاء من المرتبة المعنويَّة غير المُميِّزة إلى الإنسانيَّة
المطلب الأول: الشخصيَّة الافتراضيَّة للروبوت في المرتبة المعنويَّة المُميِّزة
المطلب الثاني: الشخصيَّة الافتراضيَّة للروبوت في المرتبة الإنسانية
المبحث الأول
الارتقاء من المرتبة الشيئيَّة إلى المعنويَّة
إن أردنا الخوض في الاحتمالات المُمكنة للشخصيَّة الافتراضيَّة، فيبدو أنَّنا يجب أن نبدأ ليس من الصفر بل من تحت الصفر أي من العدم (المرتبة الشيئيَّة – الشيء)، ثم ننتقل إلى مرحلة منح الشخصيَّة غير المُميِّزة (المرتبة المعنويَّة غير المُميِّزة).
المطلب الأول
الشخصيَّة الافتراضيَّة للروبوت في المرتبة الشيئيَّة
كان المشرع الكويتي –وما يزالُ- ينظرُ نحو الروبوت وكأنَّه شيءٌ تقليديٌّ أصمٌّ، وهذه النظرة لا تختلف بين أنواع الروبوتات؛ فكل هذه الاختراعات بنظر المشرع هي آلات، أي أشياءٌ لا تعقِلْ.
وهذا الموقف التشريعي لم ينشأ عن اقتناع المشرع بهذا الموقف بقدر ما نشأ عن التغيُّر المفاجئ في مقدرات الآلات الذكيَّة التي باتت تعقِلْ بما يُشبه منطق البشر، وكان لسرعة التغيير صعوبة مواكبة العمل التشريعي للمرحلة التقنية.
إلاَّ أنَّ الاستمرار في تطبيق فلسفة الشيء على الروبوت يعني أنَّ الذكاء الاصطناعي بنظر القانون هو والعدم سواء؛ فهذا الذكاء لا يرتقي قانونيَّاً بمنزلة شخصيَّة الآلة الذكيَّة التي تتمتَّع بالذكاء، ولا حتى يُغيِّر جذرياً من القواعد التي تحكم أنشطتها بصدد المسؤوليَّة المدنيَّة سواءً أكانت ضدَّ الروبوت أم لمصلحته كما سنرى.
أولاً: المسؤوليَّة المدنيَّة ضدَّ الروبوت “الشيء”
سنبحث في الروبوت “الشيء” وفقاً للرؤية التقليديَّة ثم الحديثة.
1- الروبوت “الشيء” في الرؤية القانونيَّة التقليديَّة
كما أنَّ الخدمات التي قدَّمها الذكاء الاصطناعي لا حصرَ لها حيث كانت بعض العمليَّات الحاسوبيَّة مستحيلةً في السابق، فإنَّ الأضرار الآتية من الروبوتات العاملة بموجب هذا الذكاء[5] لا حصر لها أيضاً؛ فتبدأ من الأضرار الماديَّة البدنيَّة إلى الأضرار الذهنيَّة التي تؤدِّي إلى خداع مُخيِّلة الإنسان وقيادة إدراكه نحو صورةٍ مُضلِّلةٍ[6]، وكان لا بد على القانون من مواجهة هذا الواقع المستجد.
ولكن كيف ستكون تلك المواجهة في الوقت الذي يبدو أنَّ على المشرع أن يختار بين اعتبار الروبوت كأداة “شيء” أو كشخص كما ذكر جانب من الفقه البرتغالي[7]، وهو سيختار الحلَّ الأولَ بالتأكيد في الوقت الحالي، فـ “الشي” لا يصحُّ أن يتمتَّع بالشخصيَّة القانونيَّة حتى وإن كان روبوتاً ذكيَّاً كما أشار جانب من الفقه الفرنسي[8].
وقد أقرَّ المشرع الكويتي القاعدة الأساسيَّة في القانون المدني حول المسؤوليَّة، فقد نصَّ على أنَّه: “كل مَنْ أحدث بفعله الخاطئ ضرراً بغيره يلتزم بتعويضه…”[9]؛ وهذا ما يُشير بشكلٍ واضحٍ إلى أنَّ المسؤوليَّة المدنيَّة تقعُ فقط على مَن يُقرُّ القانون لهم التمتُّع بصفة الأشخاص سواءً الشخص الطبيعي أم المعنوي.
فالعبارة المذكورة في القانون المدني لا يُمكن تفسيرها –وفقاً لقصد المشرع- على أنَّها يُمكن أن تشمل الأشياء إلى جانب الأشخاص لسببين:
- أنَّ المشرع استخدم حرف: “مَن”، وهذا الحرف يُستخدم للدلالة على الأشخاص؛ فنقول: “مَن المسؤول؟” وليس “مَن الشيء المسؤول؟” بل: “ما هو الشيء”.
- أنَّ قيام مسؤوليَّة الروبوت كشيءٍ من الناحية المدنيَّة يتنافى مع الآليَّة القانونيَّة التي تفرض وجودَ شخصٍ قانونيٍ ذو ذمَّةٍ ماليَّةٍ قادرٍ على تحمُّل الالتزامات، وهذا الأمر غير مُمكنٍ تجاه الأشياء.
وبالتالي، فلا يجوز الحديث من الأساس عن قيام المسؤوليَّة المدنيَّة ضدَّ الروبوت من حيث الفقه، ليس من باب المنطق بل من منطلق القواعد القانونيَّة الآمرة التي لا يجوز مخالفتها.
وتأصيلاً على ذلك، فقد أقرَّت محكمة التمييز الكويتية مبدأً مفاده أنَّ: “… أيَّة مجموعة من الأموال لم يعترف القانون لها بهذه الشخصيَّة لا تعدُّ ذمةً ماليَّةً مستقلَّةً عن الذمة الماليَّة لصاحبها…” [10]، وصاحبها في حالة الذكاء الاصطناعي هو مالك الروبوت.
ويعني هذا الطرح –القائم في الواقع حاليَّاً- أنَّ على المحكمة التي يَدفَعُ أمامها أيُّ خصمٍ بمسؤوليَّة الروبوت كشخصٍ قانونيٍّ، أن تَرُدَّ دفعه وتلتفت عنه لبطلانه؛ فلا يُمكن لأيَّةِ محكمةٍ –حتى محكمة التمييز- أن تُقرَّ مبدأً يُخالف النصوص القانونيَّة الآمرة.
ولكن لا بدَّ للآلة الذكيَّة من قواعدٍ قانونيةٍ تحكم عملها غير المشروع، فلا يمكن تركَ وقائع الضرر التي قد تتسبَّب به الروبوت دون تأصيلٍ قانونيٍّ.
وبناءً عليه، فلا يبدو أمام القضاء –في ظل البيئة التشريعيَّة الحاليَّة- سوى الاعتماد على تأصيل الروبوت الذكي على أنَّه شيء: “… يتطلَّب عناية خاصَّة لمنع وقوع الضرر منه…”[11]؛ أي كما شرح الأستاذ BOURCIER من الفقه الفرنسي أنَّ على القانون حماية الأفراد من استخدامات الذكاء الاصطناعي[12].
وبالتالي فإنَّ على المحكمة –بغضِّ النظر عن اقتناعها- تطبيق قواعد حارس الأشياء على المسؤوليَّة المدنيَّة المُترتِّبة على أخطاء الآلات الذكيَّة، وكأنَّ الروبوت هو سيارةٌ أو آلاتٌ صناعيَّةٌ ميكانيكيَّةٌ.
وهذا يعني أنَّ حارس الروبوت سيتحمَّل مسؤوليَّة مدنيَّة غايةً في الثقل، فعلى الرغم من أنَّ الروبوت –من الناحية التقنيَّة- مستقلٌّ ذاتياً ويتمتَّع بقدرةٍ على تجنُّب الأخطار، فإنَّ حارسه سيُسأل عن أيِّ ضررٍ آتٍ من تشغيله بشكلٍ مُفترضٍ دون حاجةٍ لإثبات الخطأ، بحيث لا يُمكن دفع هذه المسؤوليَّة إلاَّ عبر إثبات السبب الأجنبي[13]، وهي مهمَّةٌ قانونيَّةٌ عسيرةٌ.
2- الروبوت “الشيء” في الرؤية القانونيَّة الحديثة
سنشرح رؤية المشرع الأوروبي أولاً، ثم نرى التطبيقات القضائيَّة الحديثة للروبوت الشيء ثانياً.
أ- رؤية المشرع الأوروبي الحديثة للروبوت “الشيء”
لقد أكَّد جانب من الفقه الطبي الخاص بعلم الدماغ والأعصاب عام 2017 على أنَّ تقليد الذكاء الاصطناعي للمنهجيَّة البشريَّة في التفكير واتِّخاذ القرار يجعلُ من التفسير القانوني الحالي ضعيفاً وقاصراً، ويفتح المجال لفكرة الشخصيَّة الافتراضيَّة في المستقبل[14].
ورغبةً من المشرع الأوروبي في ركوب موجة التطوير الهائل التي تضرب عالم التكنولوجيا، فقد أصدر البرلمان الأوروبي قانوناً مدنيَّاً خاصَّاً بالروبوتات “Civil Law Rules on Robotics – Règles de Droit Civil sur la Robotique“ عام 2017 ألغى بموجبه وصف الشيء بالنسبة للروبوت، واعتمد الأوصاف التالية:
- “النائب الالكتروني غير الإنساني (النظام الالكتروني)” “Non-Human Agent – Agent non humain” [15] للدلالة الاجتماعيَّة على الروبوت الذي يُصبِح جزءاً من شخصيَّة الإنسان.
- “النائب الإنساني” “Human Agent – Agent Humain[16] للدلالة القانونيَّة على الإنسان المسؤول عن أخطاء تشغيل الروبوت.
وقد شرح الأستاذان WETTING و ZEHENDNER من الفقه الألماني تأسيس النيابة القانونيَّة استناداً على شخصيَّة الإنسان أو الكيان الذي يمتلك أو يُشغِّل الروبوت[17]، فالآلة النائبة الكترونيَّاً واجتماعيَّاً عن الشخص تُرخِي بآثار تصرُّفاتها غير المشروعة على هذا الشخص[18]؛ فينوب الشخص (النائب الإنساني) بقوَّة القانون عن روبوته[19] (النائب الالكتروني).
ونتساءل هنا:
هل إنَّ منح الروبوت لصفة “المُناب عنه” قد نَفَتْ عنه صفة الشيء تأصيلاً على أنَّ الشيء لا يُمكن أن يكون مُناباً عنه بل شيئاً لا شخصيَّة له؟
الواقع أنَّه على الرغم من كل هذا التغيير الأوروبي الجذري في فكرة حارس الأشياء انتقالاً إلى فكرة النائب الإنساني عن الآلات الذكيَّة بقوَّة القانون، إلاَّ أنَّ هذا التغيير قد بقي شكليَّاً في نظر المشرع الأوروبي على ما يبدو.
فالنائب الإنساني -وفقاً للقانون الأوروبي المُشار إليه- قد بقي مسؤولاً بشكلٍ شخصيٍّ كاملٍ عن الروبوت[20]، ليس بوصف الإنسان نائباً كما تدلُّ عليه تسمية النائب الإنساني، بل بوصفه مالكاً أو مشغلاً أو مُصنِّعاً أو مستعملاً[21]، بغضِّ النظر عن تغيير أركان قيام هذه المسؤوليَّة من الخطأ المفترض إلى الخطأ واجب الإثبات[22].
وهذا ما قد أكَّد عليه جانب من الفقه الإيطالي من أنَّ رؤية البرلمان الأوروبي تجاه الشخص الالكتروني ليست واضحةً مطلقاً، حيث فسَّر الأستاذان GALLO و STANCATI هذا الموقف التشريعي انطلاقاً من أنَّه خشية المشرع الأوروبي من الروبوتات على الوجود البشري[23].
وبالتالي، فما يبدو لنا بكلِّ وضوحٍ هو أنَّ المشرع الأوروبي لم يعترفْ من جهة بشخصيَّة افتراضيَّة الكترونيَّة مطلقة للروبوت مثل شخصيَّة البشر؛ بدليل أنَّ الروبوت مملوكٌ لشخص آخر، ومن جهة أخرى فإنَّ هذا المشرع لم يعترفْ بشخصيَّة قانونيَّةٍ معنويَّة مُحدودةِ الحقوق والواجبات كما لدى الشركات؛ بدليل أنَّه لم يُنظِّم كيفيَّة منحها، ولم يُشرْ إلى آثارها من وجود ذمَّةٍ ماليَّةٍ مستقلَّةٍ للروبوتات أبداً، بل أكَّد على مسؤوليَّة الشخص كنائبٍ إنسانيٍّ عن الروبوت فقط دون قيام مسؤوليَّة الروبوت عن نفسه.
كما أنَّ المشرع الأوروبي عندما بشَّر بـ: “الوضعيَّة القانونيَّة الخاصة” “Special Legal Status – Statut Juridique Spécial” للروبوت فقد ربطها بالمستقبل كتوصيةٍ بعيدة المدى “in the long run – à long terme”[24].
ولذلك فقد قصد المشرع الأوروبي بالروبوت الشيء المملوك عديم الشخصيَّة في الوقت الحالي قولاً واحداً.
أمَّا عن كون الروبوت نائباً الكترونيَّاً عن النائب الإنساني، فهو خيالٌ تقنيٌّ واجتماعيٌّ وليس قانونياً حتى الآن، ولكن هذا الفكر هو أساس تبرير مسؤوليَّة النائب الإنساني قانونيَّاً عن نائبه الالكتروني بعد انتهاء الأساس الفكري المستنِد لحراسة الأشياء التقليديَّة.
فالنائب الإنساني (الشخص) يُسأل عن أعمال نائبه الالكتروني (الروبوت) الذي يُمثِّل شخصيَّته في المجتمع.
ب- التطبيقات القضائيَّة الحديثة للروبوت “الشيء”
في التطبيقات القضائيَّة الحديثة للروبوت الشيء، يبدو أنَّ مصطلح “النائب الالكتروني” قد استخدمه القضاء الأمريكي عام 2016 للدلالة على برامج الحاسوب المستقلَّة من جهة[25]، ولكن بقيت أحلام صانعي الروبوتات تُسْرَدُ كأقوالٍ مُرسلةٍ كما جاء في قرار لمحكمة كولورادو الأمريكيَّة عام 2018 من جهة أخرى[26].
وقد توافقت هذه الرؤية مع محكمة النقض الفرنسيَّة التي أشارت عام 2018 إلى روبوت الإجابة على رسائل البريد الالكتروني على أنَّه مُجرَّد: “برنامج حاسوبي/معلوماتي” “Programme Informatique”[27] دون منحهِ أيَّة صفةٍ نيابيَّةٍ عن مُشغِّله؛ أي مُجرَّد وسيلةً تُساهِم في تدفُّق البيانات في الفضاء الرقمي خدمةً للحاجات العامَّة من جهة أخرى[28].
وبناءً عليه، فإنَّ المرحلة التي جاءت بها نظريَّة النائب الإنساني لم تحملْ أيَّ تغييرٍ في المكانة القانونيَّة للروبوت من الناحية الفعليَّة، فبقي شيئاً وإن كان ذكيَّاً.
فهل سيتغيَّر الأمر فيما لو نظرنا إلى الروبوت كصاحب حق في إقامة المسؤوليَّة المدنيَّة من الناحية القانونيَّة؟.
ثانياً: المسؤوليَّة المدنيَّة لمصلحة الروبوت “الشيء”
سنرى كيفيَّة المطالبة بالتعويض المالي لمصلحة الروبوت “الشيء” أولاً، والشخص المخوَّل بذلك ثانياً.
1- كيفيَّة المطالبة بالتعويض المالي لمصلحة الروبوت “الشيء”
تظهر الفروض المستقبليَّة للوقائع التي تتَّصل بعمل الروبوتات بآلاف الاحتمالات، وذلك نابعٌ في الحقيقة من تغيُّر الواقع العملي بشكلٍ جذريٍّ بعد ازدياد الاعتماد على الذكاء الاصطناعي.
فالروبوتات قد دخلت حاليَّاً في العديد من المجالات بشكلٍ احترافيٍّ خاصةً في المجالات البرمجيَّة، وهي في إطار التجريب الأخير قبل الاعتماد عليها تماماً في مجالات عمليَّة خطرة أخرى كالسيَّارات ذاتيَّة القيادة.
مثل هذه الفروض تجعلنا نطرح التساؤل التالي:
ألا يحقُّ للروبوتات -كآلاتٍ ذكيَّةٍ- أن تُطالب بالتعويض عن الأضرار التي يتسبَّب بها الأشخاص لها؛ طالما أنَّها تتمتَّع بمحاكاةٍ للذكاء البشري والاستقلال الذاتي؟
الحقيقة أنَّ هذا التساؤل يحمل معه إشكاليَّاتٍ شائكةٍ تتعلَّق في معظمها بمدى اعتراف القانون بشخصيَّة الروبوت، فيما يبدو أنَّ التناقضات القانونيَّة التي قد تدفع المشرع نحو عدم الاعتراف بالشخصيَّة الافتراضيَّة أكثر من الضرورات العمليَّة التي قد تدفع للاعتراف بها كما أشار جانب من الفقه العربي المكتوب بالإنجليزيَّة[29].
فالمُطالبة بالتعويض المدني عن الأضرار تحتاج إلى أهليَّة وإن كانت ناقصةً، بينما نجد الروبوت حاليَّاً يخضع لوصف الشيء سواءً أكان ذكيَّاً أم تقليديَّاً.
ولذلك فإنَّ الصيغة الأدقَّ لهذا التساؤل يجب أن تكون:
هل يحقُّ للشيء الذكي أن يُطالِب بالتعويض عن الأضرار التي لحقت به؟.
الإجابة ستكون بالنفي دونما شكٍّ؛ فالشيء مهما بلغ ذكاؤه لا يتمتَّع حتى بمُجرَّد الحق بطلب الحق، وهذا يعني أنَّ الروبوت يُمكن أن يُعتدَى عليه بالأفعال غير المشروعة دون أن يمنحه القانون آليَّةً واضحةً حتى يُحصِّل حقَّه.
ولكن تأصيل القانون لفكرة الشيء ترتبط بفكرة الأشياء كمُمتلكاتٍ؛ ومن هنا يُمكن لمالك الروبوت أن يُطالِب بالتعويض عن الأضرار التي يتسبَّب بها الناس لهذا الروبوت الذي يندرج ضمن ذمَّته الماليَّة.
وبالتالي، فمهما بلغ الروبوت من الذكاء والاستقلال عن الإدارة البشريَّة خلال فترات تشغيله فإنَّ لمالكه الحقَّ بالمطالبة له بالتعويض، وذلك بناءً على كون الروبوت جزءاً من ذمَّة المالك وفقاً للنظرة القانونيَّة التقليديَّة، أو بناءً على كون هذا المالك نائباً إنسانيَّاً وفقاً لنظريَّة القانون الأوروبي الحديثة التي جئنا على ذكرها.
2- الشخص المخوَّل بالمطالبة بالتعويض لمصلحة الروبوت “الشيء”
يمكننا أن نطرح هنا تساؤلاً فرعيَّاً مفاده:
هل إنَّ مَن يمتلك الحق بالمطالبة بالتعويض عن الأضرار التي تلحق بالروبوت هو مالكه فقط أم مُشغِّله أو مُصنِّعه أو مُستعمِله أيضاً كنوَّابٍ إنسانيِّين؟
لم يقصرْ المشرع الأوروبي المسؤوليَّة عن أضرار تشغيل الروبوت على مالكه، ولم يفرض حتى قرينةً على أنَّ مالكه هو المسؤول عن الضرر حتى يَثْبُت العكس[30]، بل فرض المسؤوليَّة التقصيريَّة -أو غير العقديَّة- بشكلها الأساسي الذي يتطلَّب إثبات أركان الخطأ والضرر والسببيَّة على الشخص المخطئ[31] أو المُمْتنع عن تلافي الخطر رغم قدرته وتوقُّعه[32].
فهل يُقاس على ذلك بأنَّ تعويض الشخص عن الأضرار التي تصيب الروبوت يكون وفقاً لصفة الشخص مالكاً كان أم مُشغِّلاً؟، فهل يمكن للمُشغِّل من غير الملاَّك أن يُطالِب بالتعويض قضائيَّاً؟
في حالة الإجابة بـ: نعم، فهنا يُمكن أن يُطالِب مُشغِّل الروبوت بالتعويض عن التعرُّض بالأذى للروبوت الذي يقوم على تشغيله؛ فإن كان مصنع المجوهرات مثلاً مُستأجراً لروبوتٍ ذكيٍّ يقوم بعمليَّةٍ حرفيَّةٍ للحفر على الذهب، فقام أحد العُمَّال بإساءة استخدامه ممَّا أدَّى إلى إعطابه رغم عمل دورةٍ تدريبيَّةٍ لهذا العامل وتنبيههِ مراراً لمحاذير استخدام ذلك الروبوت، فهل يستطيع مَصنَع المجوهرات المُطالَبة بالتعويض عن الأضرار التي أحاقت بالروبوت كونه يُعدُّ نائباً إنسانيَّاً مسؤولاً عنه؟
علينا هنا تأصيل موقع المُشغِّل (مصنع المجوهرات)، فهو مُستأجرٌ لا يقع الروبوت ضمن ذمَّته الماليَّة حتى تَصِحُّ مطالبته بالأضرار التي أصابت الروبوت (الشيء)، بينما هنا يحقُّ للمالك أن يُطالِب بهذا التعويض من المَصْنَع المُشغِّل مباشرةً؛ لأنَّ الخطأ ارتكبه تابعٌ (العامل) خلال تأدية وظيفته لحساب المتبوع (مصنع المجوهرات).
على أنَّه يحقُّ للمُشغِّل المُستأجر (مصنع المجوهرات) أن يَرجِعَ على تابِعِهِ (العامل) بما دفعه لمالك الروبوت كتعويضٍ إن رجع عليه المالك مباشرةً، إضافةً للتعويض عن تعطيل الأعمال الماديَّة والأضرار في سمعة المَصْنَع المعنويَّة.
أمَّا بالنسبة لمُصَنِّع الروبوت، فلا يُعتبَر صاحب الحق في المُطالبة بالتعويض عن الأضرار التي تُصيب الروبوت حتى وإن كان نائباً إنسانيَّاً له؛ فإن كان الروبوت يقوم بالأخطاء بسبب سوء الصناعة فإنَّ المُصنِّع هو نائبه الإنساني المسؤول عن تلك الأخطاء، ولكن إن قام شخصٌ بكسر أحد أجزاء الروبوت، فلا يستطيع المُصنِّع مُطالبة هذا الشخص بالتعويض؛ لأنَّ الروبوت يكون قد خرج حينئذٍ من ذمَّته الماليَّة، فهنا يحقُّ لمالكه فقط المُطالبة بمثل هذا التعويض.
وبخصوص المُستعمِل، فذمَّته الماليَّة بعيدةٌ كلَّ البعد عن شمول الروبوت، فالمُستعمِل كالعامل التابع لصاحب العمل الذي يكون هو مالك الروبوت أو مُشغِّله.
وبالتالي قد يكون المُستعمِل هو النائب الإنساني إن قام الروبوت بالإِضرار بالغير نتيجة الخطأ في الاستعمال، ولكن لا يُمكن لهذا المُستعمِل أن يُطالِب الغير بالتعويض عن الأضرار التي يكون هذا الغير قد تسبَّب بها للروبوت، وإنَّما يكون ذلك للمالك فقط.
وكنتيجةٍ واضحةٍ لكلِّ هذا التأصيل القانوني، فإنَّ معالجة وقائع الروبوتات على أساس نظريَّة النائب الإنساني لا تمنح الروبوت أيَّة شخصيَّة افتراضيَّة، وهذا ما يوجب علينا دراسة افتراض منحه هذه الشخصيَّة وإن كان بشكلها غير المُميِّز.
المطلب الثاني
الشخصيَّة الافتراضيَّة للروبوت في المرتبة المعنويَّة غير المُميِّزة
يرتقي الإنسان –كشخصٍ طبيعيٍّ- في مراحل الشخصيَّة القانونيَّة، فينتقل من العدم إلى مرحلةٍ أعلى من حيث الحقوق والالتزامات تُدعى “انعدام التمييز”؛ أي أنَّ هذا الشخص موجودٌ ويحمل “الشرعية” “Legitimacy” للاعتراف به كشخص من الناحية القانونيَّة كما وصفها جانب من الفقه العربي[33]، ولكن تعوزه الملكات الفكريَّة المطلوبة حتى يُميِّز بين الصالح والطالح، فإن تمَّ منحه الشخصيَّة القانونيَّة الكاملة أصاب نفسه وغيره بأضرارٍ جسيمةٍ.
وبالتالي فقد ارتأى المشرع الكويتي عدم منح الإنسان الشخصيَّة القانونيَّة خلال هذه المرحلة إلاَّ بأضيق الحدود، تلك الحدود التي تمنحه الاعتراف بالشخصيَّة القانونيَّة من جهة، وتَمتُّعه بالحقوق والالتزامات دون الحق بإدارة أمواله من جهة أخرى.
وبناءً عليه فإنَّ الشخص غير المُميِّز لا يصلح أهلاً للتصرُّفات المدنيَّة مُطلقاً، إلاَّ أنَّه في المقابل يصلحُ كشخصٍ مُستَقبِلٍ للحقوق الماليَّة؛ لأنَّ هذا الاستقبال فيه منفعةٌ أكيدةٌ لغير المُميِّز، أو كملتزمٍ بها بقوَّة القانون نتيجة أفعاله غير المشروعة، ذلك دون أن يحقَّ له التصرُّف بذمَّته المالية تحت طائلة البطلان المطلق.
وبالإسقاط على الشخصيَّة الافتراضيَّة، فقد وجد الأستاذ BOURCIER من الفقه الفرنسي مُبكِّراً مع بداية الألفيَّة الجديدة إمكانيَّة الانتقال: “من الذكاء الاصطناعي إلى الشخص الافتراضي”“De L’Intelligence Artificielle à La Personne Virtuelle”[34]؛ حيث إنَّ: “قدرة الروبوت على القيام بالكثير من المهام التي يقوم بها البشر وبما يُحاكي الذكاء البشري قد أصبح حقيقةً قائمةً” كما أكَّد جانب من الفقه الماليزي[35].
ولذلك، فقد بادر جانب من الفقه العربي المكتوب بالإنجليزيَّة بإطلاق فكرة مفادها أنْ: “حان الوقت لمعاملة (الأنظمة الالكترونية) كالكائنات البشريَّة” “Time to Treat Them (Electronic Agents) as Human Beings” [36].
وبالطبع، فالمقصود بالأنظمة الالكترونيَّة الآلات الذكيَّة مثل الروبوتات التي تُضحِي نائبةً عن مُشغِّلها نتيجة الارتباط العاطفي أو العملي بين شخصيَّة الآلة والإنسان، مثل الروبوتات الشخصيَّة أو الروبوتات المُستخدَمَة في الأعمال التجاريِّة الالكترونيَّة.
وعلى أيِّ حالٍ، فمن غير المفاجِئ في المستقبل أن يتمَّ منح الشخصيَّة القانونيَّة “المعنويَّة غير المُميِّزة” للروبوت غير المُميِّزة بغرض جعله أهلاً لملكيَّة ذمَّة ماليَّة مُسجَّلة باسمه بشكلٍ رسميٍّ، فتكون مثقلةً بالالتزامات التي تنشأ عن أعمال الروبوت غير المشروعة ورصيداً لثمار أعماله المشروعة؛ حيث إنَّ أجيال الروبوت الحاليَّة باتت قادرةً على العمل والإنتاج والإبداع وهذا ما قد يفتحُ الإمكانيَّة لها لكي تتقاضى أجراً يُودَع في ذمتها الماليَّة.
وبالتالي فقد استشرف جانب من الفقه الروسي الشخصيَّة الافتراضيَّة القادمة على هيئة منهجٍ نظريٍّ، فيكون: “الشخص الالكتروني الذي يتحمَّل الالتزامات القانونيَّة ويكتسب الحقوق، هو –في الواقع- عبارةٌ عن مجموعةٍ من الحقوق والواجبات؛ ومحتوى الحقوق والالتزامات هي وقائع الذكاء الاصطناعي”[37].
وهذا ما سيجعل الروبوت غير المُميِّز قادراً على تحمُّل الالتزامات الماليَّة الناتجة عن أخطائه في حال ملاءته، أو الرجوع على نائبه الإنساني في حال عُسرِه.
ولذلك سنتعمَّق في أحكام المسؤوليَّة المدنيَّة وفقاً لهذا التصوُّر سواءً أكانت المسؤوليَّة مُقامةٌ ضدَّ الروبوت أم لمصلحته.
أولاً: المسؤوليَّة المدنيَّة ضدَّ الروبوت “غير المُميِّز”
سنبحث في مفهوم الروبوت غير المُميِّز أولاً، ثم في طبيعة الرابطة بين النائب الإنساني والروبوت غير المُميِّز ثانياً.
1- مفهوم الروبوت “غير المُميِّز”
يمكننا تعريف الروبوت غير المُميِّز بأنَّه الآلة الذكيَّة القادرة على المحاكمة العقليَّة البشريَّة القاصرة عن التصرُّف بالأمور بالشكل الطبيعي؛ أي ضمن إطارٍ ضعيفٍ من الإدراك والحكمة في معالجة المعلومات والوقائع.
وتأصيلاً على هذا الفرض، إنْ تمَّ منح الروبوت شخصيَّة غير المُميِّز فتصحُّ المسؤوليَّة المدنيَّة ضدَّه، وهكذا يرتقي الروبوت من صفة الشيء إلى الشخص، إلاَّ أنَّ هذا الشخص الالكتروني غير المُميِّز يبقى قاصراً تماماً عن أدنى مستوىً من التصرُّفات؛ نظراً لضعف قدراته الذهنيَّة، ويقع باطلاً الاتِّفاق على غير ذلك[38].
فكيف ستتمُّ معالجة الأفكار القانونيَّة الخاصَّة بالمسؤوليَّة المدنيَّة على الروبوت غير المُميِّز في هذه الحالة؟
يبدو أنَّ المشرع الكويتي قد كان صريحاً في هذه المسألة عندما نصَّ على أنَّه:
“كل مَنْ يجب عليه قانوناً أو اتفاقاً رقابة شخص في حاجة إلى الرقابة، بسبب قصره أو بسبب حالته العقليَّة أو الجسمية، يكون ملزماً بتعويض الضرر الذي يحدثه ذلك الشخص بعمله غير المشروع ويترتب هذا الالتزام ولو كان من وقع منه العمل الضار غير مُميِّز”[39].
وبالتالي فإنَّ منح الروبوت الشخصيَّة القانونيَّة بدرجة غير المُميِّز ستجعله شبيهاً بصفة القاصر الذي يحتاج إلى شخصٍ رقيبٍ على تصرُّفاته، وهذا الشخص يُشبه النائب الإنساني الذي كان موجوداً إبَّان وصف الروبوت بالشيء.
ولكن هنا نتساءل:
طالما أنَّ النائب الإنساني كان قائماً في القانون الأوروبي عندما كان الروبوت لا يزال شيئاً مملوكاً، فما الجديد الذي ستأتي به الشخصيَّة الافتراضيَّة إن كانت بدرجة الشخص غير المُميِّز؟
فهل النتيجة في الحالتَيْن هي أنَّ المضرور سيُقيمُ دعوى المسؤوليَّة المدنيَّة على حارسه أو نائبه الإنساني فيُلزَمُ بتعويض المضرور من ذمَّته الماليَّة؟
الحقيقة أنَّ ضعف الملكات الفكريَّة لدى الروبوت غير المُميِّز لا يعني مطلقاً الإعفاء من المسؤوليَّة المدنيَّة؛ حيث إنَّ تلك المسؤوليَّة تنبع من وجود الذمَّة الماليَّة المستقلَّة وليس التمييز والإدراك.
حيث جاء في القانون المدني الكويتي:
“يلتزم الشخص بتعويض الضرر الناشئ عن فعله الخاطئ ولو كان غير مُميِّز“[40].
وبناءً عليه، فإنَّ الشخص الالكتروني الحائز على شخصيَّة غير المُميِّز يَعترف القانون له بقيام الذمَّة الماليَّة المُستقلَّة عن الشخص الرقيب له أو عن مالكه، وذلك بغاية تلقِّي الحقوق الماليَّة وتحمُّل الالتزامات الناشئة عن الأعمال غير المشروعة التي يقوم بها، دون التصرُّفات التي لا تحقُّ له وهو في مرحلة عدم التمييز.
ولا يبدو طرح الذمَّة الماليَّة المستقلَّة للروبوت بعيداً عن الواقع؛ فالأجيال الحاليَّة باتت قادرةً على العمل والإبداع وتقاضي الأجر، فبدلاً من استحواذ المالك على مال الروبوت، سيتمُّ إيداع مال الروبوت في ذمَّته الماليَّة المستقلَّة التي يُديرها ويملك ثمارها الإنسان الرقيب عليه، ومثل هذا الفرض القانوني يُعدُّ خيالاً قانونيَّاً كالذي اقترن بشخصيَّة الشركات في السابق كما أشار جانب من الفقه الفرنسي[41].
ولذلك يحقُّ للمضرور أن يُقيمَ المسؤوليَّة المدنيَّة عن أعمال الروبوت غير المُميِّز على الرقيب نتيجة قيام صفة الرقابة على روبوت، أو إقامة هذه المسؤوليَّة على الروبوت ذاته كشخص غير مُميِّز إن كانت ذمَّته الماليَّة مليئةً.
ويمكن إجبار المضرور على الرجوع على الروبوت “الشخص” أولاً، ولكنَّنا لسنا مع فكرة مسؤولية مالك أو مُشغِّل الروبوت المحدودة في إطار ذمَّة الروبوت المالية لأنَّ ذلك سيعني عدم قدرة المضرور على الرجوع على حارسه أو نائبه.
وبالتالي، فإنَّ الشخص الرقيب على الروبوت “الشيء” يكون رقيباً على شيءٍ خطرٍ ضمن مفهوم حارس الأشياء وفقاً للمشرع الكويتي أو النائب الإنساني وفقاً للمشرع الأوروبي، بينما الشخص الرقيب على غير المُميِّز فهو يُراقِب شخصاً مستقلاًّ وليس شيئاً، لكنَّه شخصٌ ضعيفُ الإدراكِ، ذلك على أن تنشأ رابطة بين الشخصَيْن تُلزِمُ الشخص الراشد برقابة الشخص غير المُميِّز.
فإن كانت الرابطة القانونيَّة بين الإنسان “الحارس” والروبوت “الشيء” هي رابطة حراسة، فما هي الرابطة القانونيَّة بين الإنسان النائب والروبوت عندما سيكون شخصاً غير مُميزٍ؟
2- طبيعة الرابطة بين النائب الإنساني والروبوت “غير المُميِّز”
يتمثَّل التساؤل هنا بـ:
ما هي الرابطة القانونيَّة المُمكِنَة بين المُشغِّل والروبوت غير المُميِّز التي تُفسِّر إلزام الرقيب بتعويض المضرور عن أعمال هذا الروبوت غير المشروعة؟
ليس من المقبول قانوناً أن تكون الرابطة بين الإنسان والروبوت رابطةَ وصايةٍ على المال أو ولايةٍ على النفس؛ لأنَّها تنشأ عن وجود رابطة قَرابةٍ بالأساس، أو عن تعيينٍ بقرارٍ قضائيٍّ في حال غياب القائم الشرعي، ومثل هذه الأوصاف لا تصحُّ بين الإنسان والروبوت.
كما أنَّه من المُنافي للمنطق الحديث عن الرابطة الاتفاقيَّة بين الروبوت غير المُميِّز والإنسان؛ فالروبوت وهو في هذه المرحلة من الأهليَّة لا يجوز له إبرام التصرُّفات.
وبخصوص النيابة الالكترونيَّة والإنسانيَّة كرابطةٍ قانونيَّةٍ، فقد جادل الأستاذ WEITZENBOECK من الفقه النرويجي مع بداية الألفيَّة الجديدة على اعتبار أنَّ نيابة الروبوت للإنسان قد تكون عبارة عن “وهمٍ علميٍّ” “Science Fiction”.
إلاَّ أنَّ انتشار الروبوتات البرمجيَّة في معاملات التجارة الالكترونيَّة[42] قد جعل –فيما يبدو- مِن محاولة طمس النيابة الالكترونيَّة هذه أمراً صعباً عمليَّاً.
ولذلك، فلا بدَّ من النصِّ القانونيِّ الصريح في المستقبل على قيام رابطة الرقابة بين الإنسان (النائب الإنساني) والروبوت (النائب الالكتروني) غير المُميِّز، فتكون هذه الرابطة رابطةً قانونيَّةً بمُجرَّد تشغيل الإنسان للروبوت؛ بحيث تتمثَّل بالاعتراف للروبوت بنيابته الالكترونيَّة الاجتماعيَّة عن الإنسان والاعتراف بنيابة الإنسان القانونيَّة تجاه روبوته عن أعمال هذا الروبوت.
ولكن هل سيؤدِّي قيام الرابطة القانونيَّة بين شخصين أحدهما الكتروني إلى ولادة ذمَّة ماليَّة مستقلَّة للروبوت دائماً، بحيث يمكن التنفيذ عليها في حالة قيام مسؤوليَّته المدنيَّة؟
لقد أشار جانب من الفقه البرتغالي إلى منح الروبوت الشخصيَّة القانونيَّة حتى يكون نائباً عن الإنسان، ثم حتى يكون الإنسان نائباً قانونيَّاً عنه[43]، ذلك تأصيلاً على مبدأ التزام الأصيل بأعمال النائب في حدود نيابته، ففي هذه الحالة سيتمتَّع الروبوت بالشخصيَّة حتى تصحَّ مسؤولية الإنسان عنه، وليس حتى يتمتَّع بذمَّة ماليَّة مستقلَّة.
ولذلك، فإنَّ اعتراف المشرع بالرابطة القانونيَّة بين شخصَيْن أحدهما الكتروني لا يعني بالضرورة قيام الذمَّة الماليَّة المستقلَّة للشخص الالكتروني دون نصٍّ قانونيٍّ صريحٍ.
ونتساءل هنا بشكلٍ أكثر عمقاً: هل إنَّ الاعتراف بالشخصيَّة الافتراضيَّة سيعني انتهاء رابطة المُلكيَّة بين الروبوت والإنسان؟
لقد فنَّد جانب من الفقه الألماني في هذه الإشكاليَّة أنَّ الروبوت تحت مستوى التصرُّف سيكون شيئاً مَملوكاً للشخص القانوني الإنساني أو الاعتباري حتى وإن افترض المشرع أنَّ الروبوت يستمدُّ شخصيَّته من الشخص القانوني كمُمثِّلٍ آليٍّ له استناداً على نظريَّة النائب الإنساني[44]؛ وبالتالي ستبقى رابطة المُلكيَّة إلى جانب الاعتراف بالشخصيَّة الافتراضيَّة تماماً مثلماً بقيت رابطة المُلكيَّة من الشركاء تجاه الشركة إلى جانب الاعتراف بشخصيَّتها المعنويَّة.
ثم نتساءل: هل تختلف الرابطة القانونيَّة بين النائب الإنساني والروبوت إن كان الروبوت شخصيَّاً أو خدميَّاً؟
بغضِّ النظر عمَّا إذا كان الروبوت مُعدَّاً للاستخدامات الشخصيَّة أو: “الروبوت الشخصي” “Personal Robot – Robot Personnel” أم مُعدَّاً للخدمات أو: “روبوت خدمات” “Service Robot – Robot de Service” [45]؛ فالغاية من استخدام كلا النوعين تُفسِّر برأينا قيام الرابطة القانونيَّة بين النائب الإنساني والروبوت.
وكمثالٍ عمليٍّ، فإنَّ الروبوت الشخصي يَظهر بشكلٍ شديد الوضوح على أنَّه مرتبطٌ برابطة شخصيَّة مع مالكه ومُشغِّله؛ فروبوت الذاكرة الخاصُّ بمعالجة كبار السن ومساعدتهم على التذكُّر ومنع تدهور حالة الزهايمر لديهم يرتبط برابطةٍ قويَّةٍ مع شخصيَّاتهم وذكرياتهم بما يُبرِّر وجود رابطة النائب الإنساني القانونيَّة، تلك الروبوتات التي تدعى “روبوت المساعدة الشخصيَّة” “Personal Assistant Robots – Robot assistant personnel” [46].
والأمر ذاته بالنسبة لروبوت الخدمات ولكن في صورةٍ أخرى؛ فروبوت خدمة الزبائن في مطعم الوجبات السريعة أو روبوت التجارة الالكترونيَّة مثلاً لا يرتبط بشكلٍ شخصيٍّ مع خدمة صاحب العمل الذي يُشغِّله، إلاَّ أنَّ الروبوت -من خلال الخدمات التي يُقدِّمها لزبائن صاحب العمل- يكفل نجاح العمل وازدهار رأس المال؛ وهذا ما يُبرِّر وجود الرابطة القانونيَّة بين روبوت الخدمات وصاحب العمل.
ولكنَّ الفرق بين الرابطة التي تربط الإنسان مع الروبوت الشخصي أو الخَدَمِي هو “طبيعة” رابطة النيابة بين المُشغِّل والروبوت كنائبٍ الكترونيٍّ، ففي حالة الروبوت الشخصي يكون الروبوت نائباً الكترونيَّاً نظراً للرابطة العاطفية التي تربطه بمُشغِّله، بينما في حالة الروبوت التجاري الوسيط مثلاً فيكون الروبوت نائباً الكترونيَّاً عن مُشغِّله نظراً للرابطة المصلحيَّة في الأعمال التي تجمعهما.
وبالتالي، تبدو أمامنا إمكانيَّة واقعيَّة كبيرة لمنح الروبوت شخصيَّة غير المُميِّزِ نظراً لحجم إدراكه في الواقع الحالي؛ فهذا الإجراء يمنحُ تأصيلاً منطقيَّاً لمسؤوليَّة النائب الإنساني “الرقيب” عن الروبوت “غير المُميِّز”، ويجعلُ من ذمَّة الروبوت الماليَّة مَحلاًّ مُمكنا للالتزام من جهة، أو يمكن للمشرع اعتماد الشخصيَّة الافتراضيَّة للروبوت كنائبٍ عن الإنسان بغرض مساءلة الإنسان عن أخطاء الروبوت، وليس بغرض منح الأخير الذمَّة الماليَّة المستقلَّة من جهة أخرى.
ولكن هل تبدو الصورة مماثلةٌ بالنسبة لحقوق الروبوت تجاه الأشخاص الآخرين نتيجة قيام المسؤوليَّة لمصلحته هو؟
ثانياً: المسؤوليَّة المدنيَّة لمصلحة الروبوت “غير المُميِّز”
سنرى كيفيَّة إقامة المسؤوليَّة المدنيَّة لمصلحة الروبوت من مالكه أولاً، ثم الشخص القادر على مقاضاة مُشغِّل الروبوت ثانياً.
1- إقامة المسؤوليَّة المدنيَّة لمصلحة الروبوت “غير المُميِّز” من مالكه
يمكن أن تُشكِّل واقعة إيذاء الروبوت أو تدميره إشكاليَّة بعد أن يقوم المشرع بالاعتراف بشخصيَّته الافتراضيَّة؛ فالروبوت ذو الشخصيَّة غير المُميِّزة قد أضحى شخصاً يمكن تعويضه للأضرار التي ألمَّت في شخصه، وليس في ذمَّة مالكه.
حيث إنَّ الروبوت غير المُميِّز سيكون شخصاً بنظر القانون، وهذا الشخص يمتلك بذاته ذمَّة ماليَّة مستقلَّة عن مالكه، وبالتالي هو وحده سيكون المُستحقُّ للتعويض عن الأضرار التي قد يتعرَّض لها بعد إقامة المسؤوليَّة المدنيَّة على خصمه، وذلك بعد ممارسة حقوقه التي منحه إيَّاها القانون كشخص[47].
ولكن الروبوت لا أهليَّةً قانونيَّةً لديه لإبرام التصرُّفات وهو ما يزالُ في مرحلة عدم التمييز، فالقانون المدني الكويت قد نصَّ على أنَّه: “كلُّ شخص أهل للتعاقد، ما لم يقررْ القانون عدم أهليَّته أو ينقص منها”[48].
وبناءً عليه، فلا يحقُّ للروبوت تقديم مُطالباتٍ إلى المحكمة أو توكيل محامٍ لإقامة دعوى مدنيَّة قياساً بالصغير غير المُميِّز؛ حيث إنَّه: “أهليَّة الصغير غير المُميِّز لأداء التصرُّفات معدومة. وتقع كلُّ تصرُّفاته باطلة”[49].
وبناءً عليه، فهنا يمكن أن يؤصَّل الوضع القانوني للروبوت غير المُميِّز على أساس القاصر غير المُميِّز الذي يُديرُ وليُّه جميع الشؤون الخاصَّة به، فيكون للمالك الحقَّ في إقامة دعوى التعويض المدنيَّة لمصلحة الروبوت.
ومثل هذه الفروض ليست بخياليَّةٍ أو حتى بعيدةَ المدى من الناحية التقنيَّة، حيث إنَّ أجيال الروبوتات اليوم باتت قادرةً على العمل على شكلِ الاستقلالٍ الجزئي أو الكلِّي تحت المراقبة، كما أنَّها تستطيع إجراء العمليَّات المطلوبة منها أفضل ممَّا كان عليه الوضع منذ أكثر من 50 سنة مضت[50].
ولكن التساؤل هنا:
هل إنَّ ما يقوم به المالك هو حقٌّ له أم واجبٌ عليه تجاه الروبوت المُتضرِّر؟
الواقع هو أنَّ المالك سيكون مالكاً لمكاسب الروبوت غير المميِّز الشخصيَّة (مكاسبه الماليَّة)؛ وهذا ما يعني أنَّ المالك سيسعى في طريق تحقيق مصلحة الروبوت وكأنَّه حقٌّ له.
وحتى إن كان المالك قد أجَّر الروبوت إلى مُشغِّلٍ مثلاً، فإنَّ ملكيَّة الروبوت لن تنتقل إلى المشغِّل بل المكاسب الماليَّة خلال فترة الاستئجار هذه، وبالتالي إنَّ مَن يحقُّ له المطالبة بالتعويض عن الأضرار التي قد أصابت الروبوت ذاته هو مالكه، ويبقى للمُشغِّل الحق في طلب التعويض عن الضرر الذي أصابه نتيجة انخفاض المكاسب الماليَّة التشغيليَّة للروبوت أو تفويت فرصة الحصول عليها خلال فترة الآجار.
ولكن الروبوت ليس كالقاصر من حيث يقين النمو والبلوغ، فالقاصر بمجرَّد بلوغه سن التمييز أو الرشد القانونيَّة ترتقي أهليَّته إلى درجة إبرام التصرُّفات بحكم إرادته وليس فقط تلقِّي الحقوق والالتزامات بحكم القانون.
ومن هنا فإنَّ القاصر يستطيع مُقاضاة وليِّه إن كان مُقصِّراً في إدارة شؤونه ولم يُقِمْ دعوى التعويض المدنيَّة لمصلحته، ثم يُطالبه بالكسب الفائت نتيجة هذا الإهمال في إدارة أمواله.
بينما الروبوت غير المُميِّز هو في الواقع آلةٌ مُسخَّرةً لخدمة الإنسان، وشخصيَّتها الافتراضيَّة من الناحية القانونيَّة ستكون على شكل الشخص المعنوي المَمْلوك لأشخاصٍ آخرين، وهذا ما يعني أنَّ الروبوت “غير المُميِّز” -كشخصٍ مملوكٍ- ليس من حقِّه مُقاضاة مالكه عن عدم المطالبة بحقِّه، لأنَّ المالك يكون في حالة التصرُّف بحقوقه الخاصَّة.
فهل يُمكن لشخصٍ ما مطالبة المالك بتعويض ذمة الروبوت عن إهماله في المطالبة بحقوق الروبوت؟
2- الشخص القادر على مقاضاة مالك الروبوت “غير المُميِّز”
نتساءل هنا:
مَنْ هو الشخص القادر على حماية مصالح الروبوت من إهمال المالك في تحصيل حقوق الروبوت الشخصيَّة؟
يبدو في الإطار المنظور أن جذور الفكر القانوني في مسائل الأحوال الشخصيَّة ستبقى تنظر إلى الروبوت على أنَّه تابع لشخصيَّة الإنسان تأصيلاً على فكرة النائب الالكتروني الذي يُمثِّل جزءاً من شخصيَّة مالكه[51].
وبناءً عليه، فلا تبدو الرؤية القانونيَّة واضحةً إزاء الرقابة على تصرُّفات المالك في حقوق الروبوت؛ ولكن قد يتمُّ ابتكار أساليبٍ إداريَّةٍ حكوميَّةٍ أو جهاتٍ نقابيَّةٍ خاصَّةٍ بالروبوتات تُشرف على هذا الأمر.
لكن إن كانت ملكيَّة الروبوت “غير المُميِّز” مشتركةً بين عددٍ من الأشخاص، فيمكن في هذه الحالة أن يُطالِب أحد الشركاء شريكه بالتعويض في حالة إهماله بإدارة أو تحصيل حقوق الروبوت “الشخص” من الغير، الأمر الذي يكون قد سبَّب ضرراً في ذمَّة الروبوت المستقلَّة والتي تعود ملكيتها للشركاء.
وفي احتمالٍ آخرٍ، يبدو لنا أنَّ تعاقب الملكيَّة بين الأشخاص قد تؤدِّي إلى نشوء منازعاتٍ قانونيَّةٍ في هذا الإطار؛ فقد يدَّعي مالك مُشغِّل للروبوت بأنَّ المالك السابق قد سلب من الأموال التي كانت يجب أن تودع في ذمَّة الروبوت قبل انتقال المُلكيَّة إليه.
فالمالك السابق قد يكون قائماً على تشغيل روبوتٍ مُعيَّنٍ تمَّ الاعتداء عليه من أحد الأشخاص، فإن أقام الدعوى المدنيَّة باسم الروبوت كشخصٍ غير مُميِّزٍ، ثم كسبها وحصَّل للروبوت تعويض مُعيَّن، ثم باع المالك هذا الروبوت وقبض الثمن المتَّفق عليه، وخلال فترة التسليم امتنع هذا البائع عن إيداع مبلغ التعويض في حساب الروبوت مُخفياً ذلك عن المشتري، فهنا يحقُّ لهذا المشتري أن يُطالب بــ:
- رد المبلغ الذي حصَّله البائع بشكلٍ غير مشروع.
- الحكم للمشتري بالتعويض عن المكاسب الفائتة من هذا الفعل غير المشروع.
- فسخ عقد بيع الروبوت بين الشخصين إن أثبت المشتري أنَّه ما كان ليتعاقد مع البائع إن علم بإعسار الروبوت.
أمَّا بصدد الروبوت “الشخص” دون وجود ذمَّة ماليَّة مستقلَّة له، فإنَّ شخصيَّته الالكترونيَّة ستكون منحصرةً في كونه نائباً الكترونيَّاً عن الشخص المالك أو المُشغِّل له في إجراء التصرُّفات، فلا يمتدُّ مداها نحو التعاقد لمصلحة الروبوت الشخصيَّة، ولذلك فإنَّ طرح استحقاق الروبوت لحقوق شخصيَّة غير قائم في هذه الحالة.
فعلى سبيل المثال، يوجد “النائب الحاسوبي” “Computational Agents – Agents de Calcul”[52] أو “الـمُمثِّل” “Representation – Représentation”[53] القادر على تجميع حجم بياناتٍ ضخمٍ عن أيَّة صفقةٍ ورغبات ومواقف الأطراف، ثم التعاقد مع الطرف الآخر، دون أن يكون هناك أيَّة سيطرة لأيِّ إنسان على النائب الالكتروني هذا خلال مرحلة التفاوض والتعاقد[54].
فإن قام هذا الروبوت بالتعاقد نيابةً عن المُشغِّل مثلاً، فإنَّ آثار التعاقد ستكون على المُشغِّل وليس الروبوت، الذي سيكون شخصاً افتراضيَّاً الكترونيَّاً نائباً فقط لا يحقُّ له التعاقد لمصلحته.
ولكن تكييف ذلك يختلف وفقاً لصورتَيْن وفقاً للفقه الإيطالي اعتماداً على “الولاية الإدراكية” “Cognitive States” [55]:
- أن يتمَّ اعتبار الروبوت أداةً غير إدراكيَّة؛ فهنا لا يمكن للروبوت التعاقدي إبرام التصرُّفات باسم مُشغِّله كنائب الكتروني عنه. ففي هذه الصورة لا تنتقل آثار تلك التصرُّفات حتى يُوقِّع عليها المُشغِّل مُبرزاً إرادته ورضاه عن التعاقد، وبالتالي تنحصر النيابة الالكترونيَّة بمفهومها المجتمعي هنا في إطار البحث عن صفقة أو حتى التفاوض بشأنها دون التعاقد.
- أن يتمَّ اعتبار الروبوت أداةً ذكيَّة إدراكيَّةً؛ وبمعنى أبسط أن يمنحها المشرع الاعتراف بإرادة التعاقد لحساب مُشغِّلها؛ فهنا يكون الروبوت نائباً الكترونيَّاً، ويُعتبر توقيعه الالكتروني مُنجِزَاً في صفقات التجارة الالكترونيَّة[56]، وهو ما يمكن أن يؤدِّي إلى تقاضي الروبوت أجراً عن إبرام الصفقة إن تمَّ منحه الحق في ذمَّة مالية مستقلَّة مستقبلاً.
وسنرى في المبحث الثاني كيف سيكون عليه الأمر بصدد الفروض القانونيَّة بعد منح الروبوت الشخصيَّة القانونيَّة للشخص المُميِّز.
المبحث الثاني
الارتقاء من المرتبة المعنويَّة غير المُميِّزة إلى الإنسانيَّة
تُعتبَر مرحلة التمييز المرحلة المفصليَّة في حياة الشخص من الناحية القانونيَّة؛ فهي النقطة الزمنيَّة التي ينتقل فيها من الأهليَّة شبه المعدومة والمُقْتَصِرَة على استقبال الحقوق والالتزامات بقوَّة القانون (عدم التمييز) إلى المرحلة التي يصحُّ فيها للشخص إبرام التصرُّفات التي ينشأ عنها تلك الحقوق والالتزامات (التمييز)، فهل يُمكن للروبوت أن ينتقل بعد منحه الشخصيَّة المعنويَّة إلى شخصيَّة تتمتَّع بالتمييز كالتي يحظى بها الإنسان؟.
لقد أكَّد الأستاذ GRANDJEAN من الفقه الفلسفي الفرنسي على أنَّ عنصر “الخصائص الوظيفيَّة للشخصيَّة المعنويَّة” “Les Caractéristiques Descriptives de Cette Personnalité Morale” هي أحد أهم عناصر دراسة هذه الشخصيَّة المعنويَّة[57]، ومن هنا فإنَّ وظيفة إدارة الأموال بشكلٍ محدودٍ في الشخصيَّة المعنويَّة هي أهمُّ خواصِّها التي قد تنتقل بها نحو الشخصيَّة الإنسانيَّة المُميِّزة ذات الاستقلال.
وإسقاطاً على الشخصيَّة الافتراضيَّة، فتبدو الأمور بصدد الشخصيَّة المُميِّزة أكثر صعوبة على التأصيل القانوني السليم؛ حيث إنَّ التمييز يعني القدرة على اتِّخاذ القرار بهامشٍ جيِّدٍ من الحريَّة في إدارة الذمَّة الماليَّة، وهو ما يتطلَّب إمكانيَّات ذهنيَّة تتجاوز حدود الاستقلال الذاتي في الحركة أو المحاكاة المنطقيَّة البسيطة، إلى القدرة على التكيُّف في مواقف الحياة بمخاطرها الماليَّة.
وهذا الواقع ليس ببعيدٍ عن التحقيق بصدد الذكاء الاصطناعي، فقد أشار جانب من الفقه الياباني في مجال الذكاء منذ العشريَّة الماضية إلى أنَّ الآلة ستكون في حاجة إلى إدراك الحاجات الإنسانيَّة وتكييف سلوكها وفقاً لذلك[58].
وبناءً عليه فإنَّ “مرحلة الروبوت التكيُّفي” “Adaptive Robot Development – Développement de Robot Adaptatif”[59] ستجعله الأقرب لعقليَّة الإنسان في المستقبل.
وتنقسم مرحلة الارتقاء من المرتبة المعنويَّة غير المُميِّزة إلى الإنسانيَّة إلى مرحلتَيْن زمنيَّتَيْن، هما: المرتبة المعنويَّة المُميِّزة، ثم مرحلة المرتبة الإنسانيَّة، وسنرى إمكانيَّة تطبيق قواعد المسؤوليَّة المدنيَّة في كلاهما على الشخصيَّة الافتراضيَّة.
المطلب الأول
الشخصيَّة الافتراضيَّة للروبوت في المرتبة المعنويَّة المُميِّزة
بعد أن يكتمل التمييز في الشخصيَّة الافتراضيَّة، يمكن الحديث حينها عمَّا أشار إليه جانب من الفقه الروسي بــ: “القدرة على التفكير المنطقي، وإدارة الوقائع، وتصحيح القرارات في ظلِّ أحداثٍ مُتغيِّرةٍ في الظروف الخارجيَّة”[60].
وبالتالي، سيكون المشرع أمام مهمَّةٍ أكثر تعقيداً من تلك التي عالجناها إبَّان الشخصيَّة المعنويَّة غير المُميِّزة؛ فالروبوت حينئذٍ سيكون مؤهَّلاً لإبرام التصرُّفات التي قد تجرُّ عليه أو لمصلحته مسؤوليَّاتٍ ماليَّةٍ لا حصرَ لها.
وسنحاول إجمال القواعد الأساسيَّة لمسؤوليَّة الروبوت المدنيَّة إسقاطاً على مسؤوليَّة الشخص المُميِّز فيما إذا كانت المسؤوليَّة ضدَّه أو لمصلحته.
أولاً: المسؤوليَّة المدنيَّة ضدَّ الروبوت “المُميِّز”
سنبحث في طبيعة تصرُّفات الروبوت “المُميِّز” غير المشروعة أولاً، ثم في مصيرها ثانياً.
1- طبيعة تصرُّفات الروبوت “المُميِّز” غير المشروعة
بالنسبة للتصرُّفات غير المشروعة التي قد يرتكبها الروبوت وهو في مرحلة التمييز، فيكون الوضع القانوني ببساطةٍ كما وصفه الأستاذ Sartor من الفقه الإيطالي حيث عنون بحثه الشهير عام 2006 بــ: “الأتمتة الإدراكيَّة والقانون” “Cognitive Automata and the Law” [61]؛ أي أنَّ الانتقال التكنولوجي بات بغرض منح الذكاء الاصطناعي ميِّزة الإدراك انطلاقاً من الأتمتة، وهو ما سيقود نحو تحميلها المسؤوليَّة شخصيَّاً عن أعمالها غير المشروعة التي ترتكبها عن إدراك.
ولكن مثل هذه الصورة المُشرِقَة لروبوتات الذكاء الاصطناعي يجب أن ترتبط بارتفاع درجة “الوعي” “Consciousness – Conscience” لديها كما أكَّد جانب من الفقه الإيطالي[62]، فيجب أن يكون وعي الآلة الذكيَّة هو مِقياس الارتقاء بمستوى أهليَّتها.
ويمكننا طرحَ مثالٍ عن واقعةٍ واجهت محكمة باريس الإداريَّة عام 2018، حيث قدَّمت إحدى شركات الاستشارات الضريبيَّة والائتمانيَّة التي تقوم على تطوير برامج الذكاء الاصطناعي توصيةً تبيَّن أنَّها قد كانت مُضلِّلةً[63].
فإن افترضنا حدوث هذه الحالة في المستقبل بعد الاعتراف بتمييز روبوت الاستشارات، فإنَّ الروبوت سيكون مسؤولاً بشكلٍ شخصيٍّ عن تعويض الجهة المُتضرِّرة من ذمَّته الماليَّة المستقلَّة، كما أنَّ لتلك الجهة أن ترجع على الشركة بوصفها متبوعةً يمكن مُساءلتها عن أعمال الأشخاص من تابعيها، وفي حالتنا سيكون التابع هو روبوت الاستشارات المُميِّز.
ففي هذا الإطار، لا تبدو الحاجة لتغيير أحكام المسؤوليَّة المدنيَّة عن مرحلة عدم التمييز؛ فتبقى ذمَّة الروبوت مثقلةٌ بالالتزام بالتعويض، ويكون نائبه الإنساني -كالمُشغِّل- مسؤولاً بالنيابة قانونيَّاً عن أعمال الروبوت غير المشروعة،
ونرى ضرورة أن يُراعي القضاء إمكانيَّة المحاكمة العقليَّة لدى الروبوت في مقدار الخطأ، وكذلك أن يضع ملاءته الماديَّة المستقلَّة في عين الاعتبار وفقاً لظروف كل دعوى.
فإن كان الروبوت مليئاً، وقد ارتقى في درجات الوعي بشكلٍ كبيرٍ وأنَّ نائبه لم يُساهم في حدوث الفعل غير المشروع للروبوت بشكلٍ مقصودٍ أبداً، فيمكن حصر نطاق المسؤولية على ذمَّة الروبوت المليئة الكافية للتعويض.
إلاَّ أنَّ الإشكاليَّات القانونيَّة المُستجدَّة ستنشأ عن تصرُّفات الروبوت التعاقديَّة الشخصيَّة المستقلَّة عن نائبه الإنساني، والتي قد تُسبِّب ضرراً للغير؛ فقد أشار جانب من الفقه الألماني بصراحة إلى فكرة: “الآلة النائبة عن الإنسان (Agent) كالقاصر، قادرة على التعاقد بشكل محدود” “Agent as minor, capable of contracting in a limited way”[64].
ولا يُعتبَر طرح قيام الروبوت بالتصرُّفات العقديَّة بعيداً عن واقعنا الراهن، فالأجيال الحاليَّة من الروبوتات لا تَقتصر على القيام بالمهام الخطرة أو الدقيقة أو المُملَّة كما كان عليه الأمر في الماضي، حتى أنَّ الأعمال التي ستقوم بها الروبوتات في المستقبل قد تُنسِّق الإنسان بشكلٍ شبه كامل؛ ممَّا سيُنشئ أنواعاً جديدةً من الدعاوى والمسؤوليَّات القانونيَّة[65].
فقد أصبحنا نجد روبوتاتٍ مُبرمَجةٍ على التعامل مع عملاء الشركات الماليَّة وإبرام العقود معهم، أو حتى الروبوتات التي تقوم بعمليَّة التفاوض وتقديم العروض، إلاَّ أنَّ كلاًّ من الصور السابقة يكون فيها الروبوت تابعاً تماماً لمُشغِّله حتى وإن تمتَّع في المستقبل بشخصيَّة قانونيَّةٍ غير مُميِّزةٍ.
أمَّا أن يَعترِف المشرع لهذا الروبوت بالشخصيَّة المُميِّزة، فهذا سيعني إمكانيَّة أن يُرخِّص الروبوت لعمله الخاصِّ المستقلِّ عن مُشغِّله، بحيث تتمُّ إدارته الكترونيَّاً بشكلٍ كاملٍ، ثم تصبُّ أرباحه وخسائره في ذمّتَة الماليَّة التي يمتلك مكاسبها مالك الروبوت.
ففي هذه الحالة، سنكون أمام حالةٍ شبيهةٍ بتصرُّفات الشخص المُميِّز التي أقرَّ فيها القانون المدني الكويتي المبدأ التالي:
“1- تصرُّفات الصغير المُميِّز صحيحة إذا كانت نافعة له نفعاً محضاً، وباطلة إذا كانت ضارة به ضرراً محضاً.
2- أمَّا تصرُّفاته الدائرة في ذاتها بين النفع والضرر، فتقع قابلة للإبطال لمصلحته… “[66].
وبالتالي، فإنَّ الروبوت المُميِّز سيكون كغير المُميِّز من حيث قدرته على استقبال الحقوق والالتزامات بقوَّة القانون، وإضافةً إلى ذلك فإنَّ ذمَّته الماليَّة ستكون قابلةً للإدارة منه شخصيَّاً.
بمعنى أنَّ الذمَّة الماليَّة للشخص الافتراضي لن تكون راكدةً كما كان عليه الأمر إبَّان الشخصيَّة غير المُميِّزة، بل ستكون ذمَّةً قابلةً للتشغيل والإنتاج ثم الربح أو الخسارة، وفي هذه الحدود فقط سيحقُّ للروبوت إدارة أمواله؛ ممَّا قد يؤدي إلى إقامة المسؤوليَّة المدنيَّة ضدَّه نتيجة إخلاله بالتزاماته التعاقدية مثلاً.
أمَّا القيام بتصرُّفات مثل التبرُّع فهو أمرٌ غير ممكنٍ للروبوت لأنَّه سيؤدِّي إلى ضررٍ مؤكَّدٍ في ذمته الماليَّة، وهو ما يزال –وفقاً لهذا التصوُّر- في مرحلة التمييز وليس الرشد.
ونرى أنَّ النائب الإنساني المسؤول عن تصرُّفات الروبوت المميِّز غير المشروعة في ذمَّته الخاصَّة هو مالكه، لأنَّ الروبوت مع ذمَّته المستقَّلة سيكون مندرجاً ضمن ذمَّة المالك، بينما لا علاقة للمُشغِّل المستأجر للروبوت مثلاً بتصرُّفات الروبوت الماليَّة الشخصيَّة بل يُسأل كنائبٍ إنسانيٍّ عن تصرُّفات الروبوت التشغيليَّة التي يقوم بها لحساب المُشغِّل فقط.
2- مصير تصرُّفات الروبوت “المُميِّز”
نتيجةً لما سبق، فإنَّ الروبوت المُميِّز سيسكون في طريق تحقيق “تقنية الحكم الذاتي” “L’Autonomie Technique” كما أشار جانب من الفقه الفرنسي[67].
لكن التساؤل هنا سيكون:
ما هو مصير تصرُّفات الروبوت المُميِّز في حال كانت تستهدف إدارة أمواله دون استقبال الحقوق ولا التفريط بها؟، وما تأثير ذلك على قيام مسؤوليَّته تجاه الغير؟
الحقيقة أنَّ تصرُّفات الصغير المُميِّز تقع قابلةً للإبطال لمصلحته وفقاً للقواعد العامَّة: “ما لم تلحقها الإجازة مِمَّن له ولاية إجرائها عنه ابتداء، أو مِنه هو بَعد بلوغه سن الرشد”[68].
فهنا مَن سيكون في مقام الولي أو الوصي الذي يحقُّ له إجازة تصرُّف الروبوت؟، هل سيكون مالكه المسؤول عن تصرُّفاته أمام الغير في مرحلة عدم التمييز؟
وما علاقة ذلك بالمسؤوليَّة المدنيَّة التي قد تُقام ضدَّ الربووت؟
في الواقع إنَّ الإجابة السريعة لهذا التساؤل هو أنَّ مالك الروبوت سيكون في مقام الولي أو الوصي في إجازة أو إبطال تصرُّفات الروبوت الشخصيَّة، وقد يكون إبطال المالك لتصرُّف الروبوت تأسيساً على حماية الروبوت من مسؤوليَّة بعض تصرُّفاته الطائشة.
ولكن إن دقَّقنا أكثر في تكييف الشخصيَّة المُميِّزة سنجد أنَّها قد تحتاج إلى شخصٍ آخر؛ لأنَّ الروبوت الذي يفتتح أعماله ويدير ذمَّته الماليَّة باستقلالٍ ذاتيٍّ قد يتنافس بالنتيجة مع مالكه.
فعلى الرغم من أنَّ مالك الروبوت المميِّز هو الحائز على مكاسبه، إلاَّ أنَّ هذا المالك قد يُجيز أو يُبطل تصرُّفات الروبوت المُميِّز وفقاً لمصلحة تجارة المالك وليس الروبوت عند تعارض المصالح؛ تماماً مثل حالة عضو مجلس الإدارة في الشركة والذي قد يكون مالكاً لنسبة من رأس مال الشركة، إلاَّ أنَّه قد يُديرها بغير موضوعيَّة بغاية إفادة مشاريعٍ أخرى يملكها، وهو ما سيضرُّ بالشركة الأولى.
بينما في حالة الصغير المُميِّز، فيكون الولي أو الوصي مسؤولاً عن إجازة تصرُّفات الصغير نتيجة وجود صلة قرابةٍ أو قرار تعيينٍ قضائيٍّ يُشكِّل إحدى ضمانات عدم إيذاء القاصر، كما أنَّ للقاصر نفسه الحقَّ في إقامة مسؤوليَّة وليُّه أو وصيُّه في حال أضرَّ به بسبب استغلال سلطته في إجازة أو إبطال تصرُّفات القاصر.
في حين أنَّ الروبوت لا تجمعه مع مالكه علاقة قرابة أو رحمة ولا يوجد إشرافٌ قضائيٌّ كما هو الحال مع الولي أو الوصي، فحتى وإن ترسَّخت ثقافة الروبوت المرتبط بشخصيَّة الإنسان، إلاَّ أنَّه لا يمكن مقارنة ذلك بالوازع الأخلاقي والقانوني تجاه الصغير في مقابل وليِّه أو وصيُّه.
كما أنَّ الروبوت وإن أصبح في ثقافة المجتمع جزءاً من شخصيَّة الإنسان إلاَّ أنَّ الإنسان يقوم بتغليب مصالحه بعضها على بعض وفقاً للأولويَّات الخاصَّة به، فإن اعتبرنا جدلاً أنَّ مصلحة الروبوت الشخصيَّة هي جزءٌ من مصلحة مالكه، فقد يقوم بترتيب أولويَّات مصالحه على أن يضع مصالح أعماله قبل مصالح أعمال الروبوت وإن كان جزءاً من شخصيَّته.
وبالتالي فإن تمَّ منح الروبوت الشخصيَّة المُميِّزة ستنشأ إشكاليَّة تحديد الشخص الذي لديه صلاحيَّات إجازة أو إبطال تصرُّفات القاصر، بغرض حمايته من مسؤوليَّة بعض تصرُّفاته غير الناضجة.
ولا نرى أن يكون مالك الروبوت مستقلاَّ هو ذلك الشخص؛ خوفاً من تعارض مصالح الأعمال التجاريَّة بالخصوص.
ولذلك ضرورة وجود جهة مُختصَّة وموضوعيَّة غير مالك الروبوت بحيث تكون مهمَّتها مراجعة قرارات مالك الروبوت في مجال إجازة أو إبطال تصرُّفاته.
ثانياً: المسؤوليَّة المدنيَّة لمصلحة الروبوت “المُميِّز”
سندرس المسؤوليَّات الناشئة لمصلحة الروبوت “المُميِّز” المدير لأمواله أولاً، ثم أهليَّة التقاضي في الروبوت “المُميِّز” ثانياً.
1- المسؤوليَّات الناشئة لمصلحة الروبوت “المُميِّز” المدير لأمواله
بعد أن يتمتَّع الروبوت بشخصيَّة التمييز من الناحية القانونيَّة، سيكون الواقع القانوني مُختلفاً إزاء الوقائع التي يتدخَّل فيها الذكاء الاصطناعي؛ فالروبوت المُميِّز سيتمتَّع وفق جانب من الفقه الألماني بـ: “حقوق غير البشر” “Rights of Non-Humans – Droits des Non-Humains” [69].
حيث إنَّ الأشخاص الطبيعيِّين أو الاعتباريِّين أو حتى الإلكترونيِّين الافتراضيِّين سيكونون في مواجهة شخصٍ الكترونيٍّ قادرٍ على المطالبة بحقوقه بشكلٍ مستقلٍّ بعد أن يقوم بتقديم خدماته التجاريَّة الشخصيَّة المستقلَّة ثم إيداع مكاسب أعماله في حسابه الخاص الذي تعود ملكيَّته لملك الروبوت.
وقد اعتبر جانب من الفقه العربي أنَّ إيجاد حلٍّ منطقيٍّ وواقعيٍّ لتنظيم أحكام ثروة الروبوتات سيكون حجر الأساس في منحها الشخصيَّة الافتراضيَّة[70].
فمثلاً، إن كان روبوت التحليل المالي البرمجي عاملاً في شركة وساطة ماليَّة تقوم باستقبال عملائها من الراغبين بتداول الأوراق الماليَّة، فيقوم هذا الروبوت بتقدير الاستثمار الأنسب للعميل في ضوء إمكانيَّاته والسيولة المُخصَّصة للتداول ومقدار المخاطر الماليَّة الذي يريد العميل أن يَبقى في إطاره.
فهنا إن كان الروبوت من الأجيال القادمة القادرة على التصرُّف المستقلِّ بحيث يمنحها القانون أهليَّة التمييز، فيستطيع تقديم خدمات استشاراتٍ ماليَّةٍ أكثر تطوُّراً بدل البقاء في إطار استشارات التداول البسيطة، فيستطيع تقديم استشارات الجدوى الاقتصاديَّة للمشاريع العملاقة مثلا.
فهنا يُمكن أن يُرخَّص للروبوت البرمجي بتقديم خدمات استشاريَّة مستقلَّة لعملائه الخاصِّين، على أن تُودَع أتعابه في ذمَّته الماليَّة المستقلَّة، وبهذه الطريقة تمَّت الاستفادة القصوى من إمكانيَّات الروبوت في السوق من جهة، وازدادت مكانته الماليَّة بما يمكن تعويض أيِّ مُتضرِّرٍ من أعماله الشخصيَّة من جهة أخرى.
وعلى اعتبار أنَّ الروبوت المُميِّز سيستطيع إبرام تصرُّفات الإدارة الماليَّة، فإنَّ باب منازعات الأعمال سيكون مفتوحاً على مصراعيه أمام الشخصيَّة الافتراضيَّة، وهو الأمر الذي سيضع نظريَّات سلطان الإرادة، والشخصيَّة القانونيَّة، والرضا، والتمثيل القانوني محلَّ نقاشٍ من جديدٍ بعد أن استقرَّت أحكامها منذ زمن بعيد[71].
2- أهليَّة التقاضي في الروبوت “المُميِّز”
أقرَّت محكمة التمييز الكويتيَّة بكلٍّ وضوحٍ على مبدأٍ فحواه أنَّ: “… انتفاء أهليَّة الاختصام بالنسبة لأحد الخصوم في الدعوى أو الطعن يُبطِل إجراءاتها بطلاناً مطلقاً يتعلَّق بالنظام العام…”[72].
ولكن طالما أنَّ الروبوت المُميِّز قادرٌ على إدارة أمواله بما يحمل معه مخاطر الضرر مع احتمال الربح، فهل تجوز له المطالبة القضائيَّة على اعتبار أنَّ هذه المُطالبة تُعتبَر تصرُّفاً قد يَنتجُ عنه نفعٌ أو ضررٌ؟؛ فهل سيحقُّ للروبوت المُميِّز إقامة الدعوى المدنيَّة استقلالاً؟
الواقع أنَّ التمييز صفةٌ لا تمنح أهليَّة التقاضي، فالأهليَّة المطلوبة للتقاضي أمام المحاكم هي أهليَّة الأداء الكاملة؛ أي تلك التي تتحقَّق بعد بلوغ سن الرشد، حتى أنَّ الخصومة في الدعوى المدنيَّة تنقطع إن فُقِدَت أهليَّة الخصومة وفقاً لقانون المرافعات الكويتي[73]؛ أي أنَّ شرط اكتمال الأهليَّة هو شرطُ استمرارٍ لصحة التقاضي.
فقد أكَّدت محكمة التمييز الكويتية على أنَّ: “مناط الأهليَّة هو ثبوت الشخصيَّة القانونيَّة للخصم سواءً كان شخصيَّاً طبيعياً أو اعتبارياً…”[74]؛ وثبوت الشخصيَّة القانونيَّة يتنافى مع نقصانها أو محدوديَّتها في إطار حدود صلاحيَّات الشخص المُميِّز.
فالروبوت المميِّز سيكون شبه شخص يتمتَّع بالحقوق والواجبات، ولكن بشكلٍ جزئيٍّ[75]، ولن يكون منها –وفقاً لاتِّجاه محكمة التمييز الكويتيَّة المذكور- حق التقاضي.
وهنا سنعود للنقاش حول مَن سينوب عن الروبوت في إقامة الدعوى المدنيَّة فيما يخصُّ حقوقه الشخصيَّة، فهل سيكون مالكه؟
الواقع، أنَّ الفقهاء في عصرنا ما زالوا يرتكزون على “الخصوصية” “Privacy” في العلاقة مع الروبوت كمبدأٍ من مبادئ أخلاقيَّات الذكاء الاصطناعي[76]، وهذا ما يعني أنَّ الروبوت ما زال يُنظَرُ إليه على أنَّه جزءٌ من شخصيَّة الإنسان؛ فيجب على الروبوت أن يحفظ معلومات الإنسان الخاصَّة، ولا يُنظَرُ إليه كشخصٍ مستقلٍّ له حقوقه المتميِّزة عن مالكه.
إلاَّ أنَّنا وجدنا أنَّ المالك لا يُستحسن أن يمتلك صلاحيَّة إجازة أو إبطال أعمال الروبوت في إدارة أمواله الشخصيَّة خوفاً من تعارض المصالح، فإنَّ الأمر ذاته ينطبق على صلاحيَّة التقاضي ثم الخصومة بعد إقامة الدعوى.
فالمالك قد يكون مالكاً لأعمالٍ تجاريَّةٍ تتنافس أو تُكمِّل أعمال الروبوت المُستقلَّة، ومن هنا فقد يتراخى أو يندفع في التقاضي والخصومة بشكلٍ يخدم مصلحته هو وليس مصلحة الروبوت، ذلك على الرغم من أنَّ المالك يمتلك المكاسب الماليَّة لعمل الروبوت الشخصي؛ فالموضوعيَّة في إدارة مصالح الروبوت ستكون محلَّ شكٍّ.
وبالمقابل، فليس من المنطق أن يمتلك الروبوت زمام أمره بالكامل في مرحلة التمييز، فليس من المقبول أن نجد روبوتاً يتساقط في مِشيَته أو يخطئ التقدير في تقليده للبشر قادراً على المُطالبة القضائيَّة.
أي أنَّ الأجيال المنظورة التي ستقوم على تطوير الصورة التي نراها اليوم من الروبوتات، ستكون –على الأغلب- غيرَ قادرةٍ على القيام بأعباء التقاضي والخصومة التي تشقُّ حتى على بعض البشر الراشدين.
وبناءً عليه، فلا يوجد مفرٌّ من ضرورة رقابة جهةٍ مستقلَّةٍ وموضوعيَّةٍ على تصرُّفات المالك في أموال الروبوت المُميِّز، على أن يتمَّ أخذ الأمور التالية بعين الاعتبار:
- مدى وجود تعارض مصالح بين الروبوت ومالكه،
- تقدير الكيفيَّة التي قد تؤدِّي إلى نشوء تعارض مصالح بين أعمال الروبوت المستقلَّة وأعمال مالكه،
- مدى تطوُّر الروبوت وقدرته على المطالبة القضائيَّة؛ فيمكن الترخيص له حينئذٍ بالتقاضي الالكتروني عبر آليَّة آمنةٍ وواضحةٍ لكشف الهويَّة،
- تحديد الآليَّات المُمكِنَة لمنع حدوث أيِّ تعارضٍ بين أعمال الروبوت مع مالكه مستقبلاً.
وفي الحقيقة، تحتاج الكوادر القضائيَّة إلى تأهيلٍ جذريٍّ بخصوص الأعمال التقنيَّة للروبوتات، حيث يجب أن يكون القاضي مستوعِباً بشكلٍ كاملٍ للآليَّة التي يقوم بها الروبوت بالترخيص لأعماله الخاصَّة على الإنترنت أو في الواقع.
ثم يجب أن يكون إطار العمل التجاري للروبوت ظاهراً للقاضي من حيث الترخيص بالنشاط وحدوده الجغرافيَّة، كما يجب أن يكون التأكُّد من مدى التزام الروبوت بحدود هذا الترخيص مُمكناً.
وبعد توافر كل هذه الإمكانيَّات والعناصر يُصبح تقدير مدى تعارض مصلحة المالك مع الروبوت قائماً على أسسٍ منطقيَّةٍ وواقعيَّةٍ في حال نشب النزاع في هذا الخصوص.
المطلب الثاني
الشخصيَّة الافتراضيَّة للروبوت في المرتبة الإنسانيَّة
قال الأستاذ ROBINETT عام 1991 أنَّ:
“القدرة على إبداع وتصميم الخبرات بشكلٍ اصطناعيٍّ يفتح الإمكانيَّات والقدرات التي كانت مستحيلةً سابقاً”[77].
إنَّ مثل هذه الرؤية لفقهاء الثمانينيَّات والتسعينيَّات كانت توحي بشكلٍ واضحٍ أنَّه لم يعدْ هناك أيَّة صورةٍ مستحيلةٍ عن الذكاء الاصطناعي منذ ذلك الوقت؛ وهو الأمر الذي يجعل من الحديث عن الروبوت الراشد أمراً واقعياً في زمننا هذا.
وانطلاقاً من هذا المنطق، سنُعالِج من خلال هذا المطلب الرؤية بعيدة المدى للشخصيَّة الافتراضيَّة، تلك التي تخصُّ الأجيال فائقة الذكاء الاصطناعي، وهو ما قد كان يُعدُّ خيالاً علمياً قبل عقودٍ مضت، إلاَّ أنَّ جانب من الفقهاء باتوا يدرسون مثل هذه الأفكار ضمن ما يُسمَّى: “الاستراتيجيَّات المستقبليَّة للذكاء الاصطناعي” “Future Strategies of AI – Stratégies Futures de L’IA”[78].
وستنحصر معالجتنا بخصوص اكتمال الشخصيَّة الافتراضيَّة في مجال الروبوت الراشد الذي يتعرَّض للمساءلة المدنيَّة أو الذي يُطالِب بها.
أولاً: المسؤوليَّة المدنيَّة ضدَّ الروبوت “الراشد”
سنرى مفهوم الروبوت الراشد أولاً، ثم إمكانيَّة بيعه بعد إقامة المسؤوليَّة المدنيَّة ضدَّه ثانياً.
1- مفهوم الروبوت “الراشد”
في حال وصلت ملكات الروبوت إلى درجة أهليَّة الأداء الكاملة للبشر؛ أي إن شاهدنا الروبوتات وهي تعيش حياةً شبهَ كاملةٍ كالتي نعيشها بمجرَّد تشغيلها، فتنطلق في الواقع، وتَتعلَّم منه، وتُراكِم الخبرات، وتَبنِي المجتمعات، فما هو موقف القانون حينئذٍ؟.
بغضِّ النظر عن هذه الإشكاليَّة الأخلاقيَّة، فإنَّ التساؤل الأكثر جدليَّة هو:
هل يمكن للقانون الحالي تقبُّل فكرة الشخص الالكتروني الراشد في ظلِّ الدساتير والقواعد العامَّة الحاليَّة؟
الإجابة ستكون بالتأكيد لا، فالاعتراف بالشخص الالكتروني الراشد يحتاج إلى تعديلٍ جذريٍّ في البنية القانونيَّة ابتداءً من الدستور وانتهاءً بالقوانين؛ بغاية الاعتراف بالحقوق الكاملة للمواطنين الالكترونيِّين.
فحينها لن يكون الروبوت بحاجةٍ إلى نائبٍ إنسانيٍّ، بل سيكون كامل الأهليَّة وقادراً على مُمارسة التصرُّفات القانونيَّة بكلِّ حكمةٍ بعد تَعلُّمِه من تجاربه الواقعيَّة؛ الأمر الذي سيؤدِّي إلى تحمُّله وحده -كشخصٍ الكترونيٍّ- المسؤوليَّة عن تصرُّفاته.
وهذا يعني أنَّ عدم التزام الروبوت بالتزاماته التعاقديَّة قد يؤدِّي إلى الحجز على أملاكه وبيعها، أو حتى حبسه تهديديَّاً، تماماً مثلما يجري عليه الأمر مع الأشخاص الطبيعيِّين.
ولكن هل ستنطبق أحكام مرحلة الشخصيَّة الطبيعيَّة من مراحل انعدام التمييز إلى التمييز ثم الرشد على الروبوت بعد تشغيله الأول؟
في هذه الحالة، سيكون “الواقع التقني” هو الفيصل، فإن كان الروبوت بمجرَّد تشغيله مُتَمَتِّعَاً بإمكانيَّات ذهنيَّة مُتطوِّرة تجعل منه قادراً على إدارة أمواله والتعلُّم من تجاربه التجاريَّة، فيمكن منحه شخصيَّة التمييز فوراً.
وبالتالي فإنَّ مرور الشخصيَّة الافتراضيَّة بمراحل الشخصيَّة ليس كمثل مرور الشخصيَّة البشريَّة الوجوبي في مراحلها، وبالمقابل قد يتمُّ إنتاج روبوتاتٍ يقفُ تطوُّرها عند حدود التمييز البشري فلا يكون من الواجب وصولها إلى درجة الرشد.
وتقدير مثل هذه الأمور في غاية الحساسيَّة على اقتصاد الدولة الرقمي؛ لأنَّ منع استقلال الروبوتات في الأعمال التجاريَّة أو إتاحته سيلعب دوراً مفصليَّاً في تدفُّق رؤوس الأموال.
الأمر الذي يوجب مراعاة طبيعة الملكات الالكترونيَّة ليس عبر مقارنتها دائماً بالبشريَّة؛ فالملكات الالكترونيَّة قد تكون ذات طبيعةٍ سريعةِ التعلُّم، أو تنشأ ومعها خبراتٍ كبيرةٍ بفعل تطور تكنولوجيا تعلُّم الآلة.
وهذا يعني أنَّ الروبوت قد لا يحتاج إلى مُبَرمِج حتى يكتسب الخبرات التي تُخوِّله الوصول إلى مرحلة الرشد بل قد يقوم باستكشاف العالم وتكوين خبراته الاجتماعيَّة الخاصَّة بسرعةٍ فائقةٍ، ما سينقله نحو مرحلة الرشد بسرعةٍ هائلةٍ؛ وهو الأمر الذي سيؤثِّر بكلِّ تأكيدٍ في منحه الشخصيَّة الافتراضيَّة[79].
إنَّ مثل هذه التصوُّرات المستقبليَّة للروبوت تجعلنا نرى عدم وجود أيِّ شخصٍ مسؤولٍ عنه في تحمُّل المسؤوليَّة المدنيَّة، بل ستكون ذمَّة الروبوت هي محل التنفيذ تبعاً لقيام مسؤوليَّة الروبوت المدنيَّة، أي أنَّ النائب الإنساني سينتهي من ثقافة المجتمع حينئذٍ.
ولن يكون مالكه أو مُشغِّله مسؤولاً عن أفعال الروبوت الراشد إلاَّ كما يُسأل إنسان راشد عن آخر راشد تأسيساً على علاقة النيابة أو التبعيَّة لصاحب العمل، فيما سيُمكن الرجوع على مُصنِّع الروبوت عن أخطائه في التصنيع والبرمجة.
وسيكون هذا الروبوت بشخصه مسؤولاً في حدود ملاءة ذمَّته الماليَّة الافتراضيَّة من جهة، وفي حدود قيمة هذا الروبوت من جهة أخرى، ذلك إن أجاز القانون في وقتها بيع الروبوت الراشد كما سنرى.
2- إمكانيَّة بيع الروبوت “الراشد” بعد إقامة المسؤوليَّة المدنيَّة ضدَّه
نتساءل هنا:
هل سيُمكن بيع الروبوت في حال امتنع أو كان معسراً بعد إثبات المسؤوليَّة المدنيَّة ضدَّه؟
الحقيقة أنَّ المجتمع البشري سيكون في وضعٍ حرجٍ إن تحقَّقت مثل هذه الرؤية، لأنَّ خضوع الروبوتات لسيطرة البشر سيكون محلَّ جدلٍ، وليس فقط كيفيَّة معاملتها من الناحية القانونيَّة.
ولكنَّ التأصيل المنطقي لوضعيَّة الروبوت كشخصٍ راشدٍ لا تعني مُطلقاً مساواته بالبشر؛ فالقانون يُجِيزُ بيع الشركة التي تتمتَّع بشخصيَّة اعتباريَّة عندما تفلس لأنَّها شخصيَّة مملوكة، وهذا هو “وضعها ككيان قانوني” “Legal Entity Status – Statut D’Entité Légale” [80]، وهي بالضبط الصورة الأكثر واقعيَّة للشخص الالكتروني الراشد؛ ممَّا سيُتيح بيع هذا الروبوت إن بقي خاضعاً من حيث الغاية من وجوده لخدمة البشر.
وهو أمرٌ ما يزال طوع بنان البشر إلى حدِّ اليوم، حيث إنَّ التسابق نحو تطوير أجيال الروبوت يجب أن يَحُدُّهُ أخلاقيَّاً وصولها إلى إمكانيَّاتٍ فكريَّةٍ وعاطفيَّةٍ مُعيَّنةٍ تؤدِّي بها إلى التفكير بالخروج عن السيطرة البشريَّة وتشكيل مجتمعاتٍ مُستقلَّةٍ عن خدمة البشر.
ولكن هذا الأمر يبدو متناقضاً؛ فالذكاء الاصطناعي قد تأسَّس على مبدأ محاكاة الذكاء البشري كما أكَّد الأستاذ BOURCIER من الفقه الفرنسي منذ عام 2001[81]، وهذه المحاكاة لا يمكن تصوُّرها إلاَّ بُكليَّتها؛ أي بخيرها وشرِّها.
والدليل على ذلك أنَّ جانب من الفقه الإسباني أشار إلى تطوير أنظمة الذكاء الاصطناعي حتى من الناحية العاطفية، حيث وجد الأستاذ ISA أنَّ “العواطف التي يتمُّ الإفصاح عنها للملأ تمارس تأثيراً على حوسبة الذكاء الاصطناعي”[82]، وهذا ما قد جعل الأستاذ SZOLLOSY من الفقه الإنكليزي يقول بأنَّنا قريباً سنشهد: “الروبوت الواعي عاطفياً” “Emotionally-Aware Robots – Robots Conscients des Émotions” [83].
وفي مواجهة هذا الصخب الالكتروني بغاية تطوير الذكاء الاصطناعي إلى أقصى مدىً، يقفُ جانب من الفقهاء في مواجهة هذه الصورة، فنجد الأستاذ PAGALLO يؤكِّد على أنَّ الترتيبات الخاصَّة بمنح الروبوت الشخصيَّة الافتراضيَّة من عدمه لا يجب أن تستند إلى حسابات المصالح والأرقام، بل إلى ترتيباتٍ أخرى تتعلَّق بالأخلاق والكرامة الإنسانيَّة التي قد يُطالِب بها الروبوت كونه من “قُرَناء البشر” “Human Fellows – Boursiers Humains”، وهذا ما يعني أنَّ مجرَّد فكرة منح الشخصيَّة القانونيَّة للروبوت ستكون قاعدةً غيرَ عقلانيةٍ[84]، فالروبوت كخادمٍ يمكن أن يتمرَّد عن السيطرة البشريَّة إن دانت له شخصيَّة مستندةٌ لإدراكٍ راشدٍ كما استشرف جانب من الفقه الفرنسي[85].
وبالتالي، فإنَّ الفلسفة التشريعيَّة التي تواجه احتمالات الأعمال غير المشروعة للروبوت يجب أن تكون أكثر صرامةٍ مع الفكر التقني، فتمنع عليه تطوير ما لا يمكن ضبطه من سلوكيَّات الذكاء الاصطناعي المُحرِّك للروبوت؛ خوفاً من انقلاب الروبوت الراشد على السيادة البشريَّة.
ويجب على المشرع أن يكون في تصوُّره دائماً “معايير الضرورة لمنح الشخصيَّة الافتراضيَّة” كما أكد الأستاذان Čerka و Grigienė وغيرهم من الفقه اللِّيتواني[86].
وكذلك أشار جانب من الفقه الفرنسي إلى أنَّ النقاش الذي يحكم مسألة منح الروبوت الشخصيَّة القانونيَّة هو مدى وجود ضرورة[87]، وليس الترف الفكري أو الضغوط الصناعة والتجارة التكنولوجيَّة.
وهذا ما يعني أنَّ الروبوت يجب أن يبقى مملوكاً وقابلاً للتنفيذ عليه وبيعه حتى بعد أن يُصبح راشداً.
فهل الأمر سيكون بنفس الصورة المتناقضة والشائكة بصدد قيام المسؤوليَّة المدنيَّة لمصلحة الروبوت الراشد؟.
ثانياً: المسؤوليَّة المدنيَّة لمصلحة الروبوت “الراشد”
سنبحث في حق الروبوت “الراشد” في التقاضي أولاً، ثم في الشخصيَّة القانونيَّة بين الروبوت “الراشد” والشركات ثانياً، ثم في مشروعيَّة حقوق الروبوت الراشد أخيراً.
1- حق الروبوت “الراشد” في التقاضي
عندما نتحدث عن الروبوت الراشد، فإنَّ الصورة التقليديَّة للروبوتات التي في ذهننا تكونُ بعيدةً كلَّ البعدِ عن الصورة المقصودة؛ فالروبوت كامل الأهليَّة سيكون على صورةٍ شبيهةٍ جداً بالإنسان، ليس من حيث الشكل دائماً بل من حيث المنطق خصوصاً.
فالروبوت هو آلةٌ ذكيَّةٌ قد تكون على شكل برنامجٍ مؤتمتٍ –أو “سوفتوير” “Software / Logiciel” -، فلا يكون له أيِّ وجودٍ فيزيائيٍّ إلاَّ على شبكة الإنترنت، وقد يكون بالمقابل له صورةٌ شبيهةٌ جداً بالإنسان حتى يصعب التفريق بينهما.
وبغضِّ النظر عن الشكل، فيجب أن يتمتَّع الروبوت بعد منحه صفة الرشد على أهليَّة التقاضي والخصومة دون الرجوع لأيِّ شخصٍ طبيعيٍّ؛ حتى يأخذ الشخص الافتراضي استقلاله التام، وهذا ما: “يُسلِّط الضوء على كيفيَّة بناء الخيال القانوني”[88]، ذلك الخيال القادر على مواجهة مثل هذه الافتراضات.
ونتيجةً لذلك، سيخضع الروبوت بشكلٍ مباشرٍ لسلطة القانون دون وجود شخصٍ مسؤولٍ عنه من البشر، وهذا سيؤدِّي إلى إشكاليَّات أخلاقيَّةٍ وقانونيَّةٍ جذريَّةٍ تبدو حلولها بعيدة المنال في الوقت الحالي، خاصَّةً أن فكرة ملكيَّة الإنسان لمكاسب الروبوت ستكون محلَّ نقاشٍ؛ أي أنَّ الروبوت قد يتحوَّل إلى كائنٍ مستقلٍّ بذاته لا يُزاحِمُه في ماله أحد، وهذا ما سيوجب على القانون أن ينفتح على مكوِّنات الكترونيَّةٍ فاعلةٍ جديدةٍ في القضاء[89].
فالمحاكمات القانونيَّة يجب أن تعتمد على الوجود الافتراضي وليس على الموطن الفعلي، وستنشأ إشكاليَّة المُواطَنَة والاختصاص المكاني بأعقد صورها، كما أنَّ تنفيذ الأحكام سيعتريه الصعوبات بسبب تعقيد الدخول إلى الشبكات الالكترونيَّة العالميَّة في ظلِّ اخلاف السلطات التي تخضع لها.
وبمطلق الأحوال، فإنَّ على الدولة أن تستعدَّ لمثل هذا المصير عبر أتمتة عمل القضاء بصورته الجذريَّة وليس المستنديَّة، فاليوم نُشاهِد العديد من الدوائر القضائيَّة التي انتقلت إلى مرحلة تقديم المستندات وحفظها بشكلٍ الكترونيٍّ، وإرسال التبليغات عبر وسائل التواصل الالكترونيَّة.
إلاَّ أنَّ المطلوب من المؤسَّسة العدليَّة في عصر الروبوت الراشد هو إخضاعها لنظام الشبكات حتى يتسنَّى للروبوت تقديم طلباته وتنفيذها، وهذا الأمر في منتهى الصعوبة من ناحية الثقافة المجتمعيَّة قبل الإمكانيَّات التقنيَّة.
وبالتالي، نجد في هذه النقطة أن القضاء بحاجةٍ إلى توفير دعمٍ تقنيٍّ عالي المستوى، فتُعتبر أتمتة القضاء مسألةً محسومةً في هذا الإطار، يجب أن يتمَّ البناء عليها للوصول إلى مستوياتٍ أعلى من التمكين المعلوماتي.
فيجب أن تصل الدوائر القضائيَّة إلى مستوياتٍ من التقنيَّة بحيث تستطيع تحديد هويَّة الروبوت المُتَقَاْضِي مع حماية بيانات المحكمة من الاختراق، وهي مهمَّةٌ ستكون في غاية التعقيد والمرونة؛ فأنظمة حماية الشبكات قد يتمُّ اختراقها بعد اكتشاف ثغراتها الأمنيَّة مهما بلغت من الحرص.
وبناءً عليه، يمكن للروبوت الراشد أن يُطالِب بالتعويض المدني عن التعدِّي عليه أو على أعماله التجاريِّة بكل سلاسةٍ.
2- بين شخصيَّة الروبوت “الراشد” وشخصيَّة الشركات
لقد أقرَّت محكمة التمييز الكويتية بأنَّ: “… الشركات تثبت لها الشخصيَّة المعنويَّة منذ تكوينها –مستقلةً عن أشخاص الشركاء فيها-…”[90]، فيما أشار القضاء الأمريكي بشكلٍ واضحٍ إلى: “الشخصيَّة القانونيَّة الحقيقيَّة والمستقلَّة”[91].
ولكن التساؤل هنا:
هل يصحُّ أن تكون المعاملة القانونيَّة لروبوت الأعمال مماثلةً لمعاملة الشركة ذات الشخصيَّة الاعتباريَّة؟ وما هي الأسباب العميقة لنفي ذلك؟
تبدو الشركة المُتمتِّعة بالشخصيَّة الاعتباريَّة شبيهةً بالروبوت الراشد؛ فهي كيانٌ افتراضيٌّ لا وجوداً طبيعيَّاً لها، وبالمقابل فهي تتمتَّع بكافة الحقوق التي سيتمتَّع بها الروبوت في مرحلة الأهليَّة الكاملة.
وكما أنَّ الشركات العملاقة تُديرُ الاقتصاديَّات الدوليَّة، وتضخُّ سيولةً هائلةً في المجالات التجاريَّة، وتمثِّل عنصر الثقل الأساسي في اقتصاد الدول، فيمكن –تبعاً لذلك- أن تلعب الروبوتات التجاريَّة مثل هذه الأدوار المفصليَّة.
إلاَّ أنَّ الفرق الجوهري بين الشركات والروبوتات هو أنَّ الأولى يُديرها في النهاية أشخاصٌ طبيعيِّين يأمَنُ المشرع لهم؛ ولهذا فقد منح الشركة الشخصيَّة المعنويَّة، ولكن الروبوت الراشد سيَسيرُ بمحاكاةٍ آليَّةٍ بالمطلق؛ ممَّا قد يجعله يعمل في غير مصلحة المجتمع البشري من الأساس.
وبخصوص المقارنة مع شخصيَّة الشركة، فإنَّ الشركة تتمتَّع بشخصيَّة افتراضيَّةٍ من الناحية القانونيَّة لكنها تبقى تحت سيطرة الإدارة والمُلكيَّة البشريَّة؛ فلا يمكن مقارنة شخصيَّتها بشخصيَّة الروبوت الراشد.
كما أنَّ الشركة تخضع لـ: “مبدأ التخصيص”؛ الذي يعني أنَّ أهليَّتها مُقيَّدةٌ بالغرض من إنشائها وهي ليست أهليَّةً مطلقةً[92]؛ كالتي يمكن أن ينالُها الروبوت الراشد، إلاَّ أنَّ الشخصيَّة المعنويَّة للكيانات هذه تحظى بالمقابل بالمرونة الكافية لبقائها حتى وإن تمَّ تغيير الغرض القانوني للكيان المُتمتِّع بالشخصيَّة المستقلَّة كما أكَّدت محكمة النقض الفرنسيَّة بقرارها لعام 2018[93].
فالشركة هي مركزٌ اقتصاديٌّ أكثر منه شخصيَّة فعليَّةً كما أكَّد جانب من الفقه الفرنسي[94]، فيما شرحت الأستاذة GIRAUDET من الفقه الفرنسي أيضاً أنَّ الشخصيَّة القانونيَّة تُعتبَر إطاراً للعلاقات بين صاحب العمل وممثِّلي الموظفين[95].
وهي في الحقيقة كلُّها آراء مُحقَّة من الناحية العمليَّة المهنيَّة إن ابتعدنا قليلاً عن الخيال القانوني.
فالواقع العملي يقول أنَّ الشركة هي كيانٌ ماليٌّ مستقلٌّ وليست شخصاً مُطلق الأهليَّة كما أكَّدت محكمة التمييز الكويتية[96].
فإن جاء الخطر على المجتمع من الشركات العملاقة؛ فذلك بسبب تكتُّل رؤوس الأموال الهائلة بين مجموعة من المستثمرين الطبيعيِّين في النهاية، وبالتالي فإنَّ الخطر يبقى هنا ضمن مستوى الخطر البشري.
ولهذا فلا يوجد أيُّ أساسٍ قانونيٍّ ولا حتى منطقيٍّ أو واقعيٍّ للمقارنة بين شخصيَّة الروبوت “الراشد” وبين الشخصيَّة المعنويَّة للشركة حتى يتمَّ إسباغ المشروعيَّة على حقوق الروبوت الراش
3- مشروعيَّة حقوق الروبوت “الراشد”
إنَّ الواقع اليوم يُشير إلى سيطرة الشركات العابرة للقارَّات على اقتصاديَّات الدول، كما أنَّها تمارس ضغوطاً هائلةً على أصحاب القرار حتى تُمرِّر مشاريعها ذات الأرباح الخياليَّة وإن كانت غيرَ نافعةٍ أو حتى ضارَّةٍ للمستهلكين، وهناك أمثلةٌ كثيرةٌ في قطاع الأدوية ومكافحة التدخين والزراعة لا مجال للخوض فيها في هذا البحث.
إلاَّ أنَّ سيناريو دخول تلك الشركات العملاقة إلى نشاط تصنيع وبرمجة وتسويق المنتجات الروبوتيَّة سينعكس بأثرٍ عميقٍ على البيئة القانونيَّة، فقد تمارس هذه الشركات ضغطاً على الدول الفقيرة أو النامية حتى تستثمر فيها استناداً على قوانينٍ مرنةٍ تتجاوز المحاذير الأخلاقيَّة لتطوير الروبوتات.
مثل هذه المخاوف أشار إليها الأستاذ PETTIT من الفقه الفرنسي بكلِّ صراحةٍ إزاء الانتشار الكبير للمؤسَّساتيَّة، فقال: “الرعب الذي يجب أن نشعر به أمام سيناريو العالم المتحوِّل نحو المؤسساتيَّة بالكامل”
“la consternation que nous devrions sentir devant le scénario d’un monde entièrement privatisé” [97]
فإن كان الخوف من المؤسَّساتية التي تُدار من الإنسان يبلغ هذا المبلَغ، فكيف سيكون عليه الأمر من الروبوت الراشد؟
فمثلاً، إنَّ منح الحقوق الشخصيَّة للروبوتات الراشدة كالتي يتمتَّع بها البشر مثل الزواج سيؤدي بالنتيجة إلى إمكانيَّة نشوء منازعاتٍ شخصيَّة مع الروبوتات، خاصةً أنَّ فكرة زواج الإنسان بالروبوت ليست ببعيدةٍ عن النقاش حتى في يومنا هذا، فقد أشار جانب من الفقه الفرنسي دون مواربةٍ إلى أنَّ الروبوتات سيكونون شركائُنا الشخصيُّن القادمون[98].
والأكثر تأثيراً على مجتمع الأعمال سيكون التساؤل التالي:
ألا تُعتبَر الأخطاء البشريَّة هي السبب في حدوث العديد من حالات إفلاس الشركات، وانهيارات أسواق المال، ونشوب الأزمات الماليَّة العالمية؟
ألن يُشكِّل الأداء المثالي غير المنقطع لروبوت إدارة الأعمال عاملاً مُغرياً لأصحاب الشركات بتسليم إدارتها وحوكمتها إلى مثل هذه الروبوتات “الراشدة”؟
الإجابة ستكون بالإيجاب في معظم الأحوال؛ أي أنَّ معظم مفاصل قطاع الأعمال في الشركات العابرة للقارَّات سيكون روبوتيَّاً في المستقبل، وهذا ما سيُضاعف من احتمال اكتساب هذه الروبوتات للخبرة ثم افتتاح شركات خاصَّة بها.
وتبدو إمكانيَّة ضبط مجتمع الأعمال الروبوتي في مثل هذه الصورة صعباً؛ ففي مقارنة البطء والأخطاء البشريَّة والمحدوديَّة في الذاكرة والاختصاصات والأداء، ستكون الروبوتات أسرع بشكلٍ هائلٍ على التعلُّم والعمل والإتقان، الأمر الذي سيؤدِّي في النهاية إلى استحالة فرض القانون البشري، ذلك الواقع سيُشكِّل تهديداً فائقاً للسيطرة البشريَّة وجدوى القانون في المستقبل كما أشار جانب من الفقه العربي[99].
مثل هذه السيناريوهات المرفوضة أخلاقيَّاً تُوجِب على المشرع الكويتي إيجادَ بيئةٍ تشريعيَّةٍ تجمع بين المرونة في استقبال مُنتجات الذكاء الاصطناعي من جهة، ومنعِ المدِّ العالميِّ نحو تمكين الروبوتات إلى حدود خواص البشر الشخصيَّة من جهة أخرى.
وهذا يتطلَّب الحذر في التعامل مع شركات تصنيع وبرمجة الروبوتات، فلا يتمُّ الترخيص لها حتى يتمَّ التأكُّد من أن عملها في تطوير الذكاء الاصطناعي سيصبُّ في المصلحة الضروريَّة المُلحَّة للمجتمع الكويتي، وليس لمجرَّد إطلاق العنان للروبوت الراشد في المستقبل.
ويبدو لنا في النهاية صواب الرؤية القانونيَّة للأستاذ PAGALLO من الفقه الإيطالي الذي قال: “أيَّة نظريَّة تمنح روبوتات الذكاء الاصطناعي الشخصيَّة القانونيَّة الكاملة يجب أن تُستبعد في المستقبل المنظور”
“Any hypothesis of granting AI robots full legal personhood has to be discarded in the foreseeable future”[100].
وعدم صواب رؤية الأستاذ KYROU من الفقه الفرنسي من أنَّ: “الروبوتات هم أشخاص مثل الآخرين”
“Les robots sont des personnes comme les autres” [101].
وكل هذه المعطيات تدفعنا للتأكيد على ضرورة عدم وصول الروبوت إلى مستوى الذكاء البشري الساعي نحو الاستقلال والانفلات عن السيطرة من جهة، وعدم الاعتراف بمشروعيَّة الشخصيَّة الافتراضيَّة الراشدة كونها تمثِّل المساواة بين الإنسان والآلة من جهة أخرى[102].
الخاتمة
يَظهرُ بوضوح من معالجة الوقائع الالكترونيَّة المستقبليَّة للذكاء الاصطناعي أنَّ المشرع الكويتي أمام مهمَّةِ تغييرٍ جذريَّةٍ في الفكر التشريعي وليس مُجرَّد واجب إضافة تعديلات في القواعد العامَّة؛ فالمطلوب لمواجهة طوفان التكنولوجيا أن يتمَّ اتِّخاذ القرار التشريعي فيما إذا كانت الكويت “ستتقبَّل” فكرة وجود الروبوتات بغاية استغلالها، أم “ستَقْبَل” بوجودها كشخصٍ الكترونيٍّ يتمتَّع بالحقوق ويُثقَل بالالتزامات.
وهذا الاحترام سيعني -بلا أدنى شكٍّ- منح الروبوت الشخصيَّة القانونيَّة حتى يُصبحَ شخصاً افتراضيَّاً الكترونيَّاً معترفاً به بنظر القانون. إلاَّ أنَّ الآليَّة القانونيَّة القادرة على إنقاذ التناقض بين المبادئ الأخلاقيَّة التي تحميها السيطرة البشريَّة ومخاطر انفلات الروبوت تكمن في تحديد مراحل الشخصيَّة الافتراضيَّة وفق إمكانيَّات الروبوت، وبما يحدُّ من إمكانية الوصول للمكانة البشريَّة من جهة أخرى.
وبناءً عليه، فإنَّ نظرية الشخصيَّة الافتراضيَّة هي آليَّةٌ قانونيَّةٌ فائقةُ المرونةِ من حيث مراحلها، وفائقةُ الخطورة من حيث حساسيَّتها على مصير القانون والبشر؛ وهذا ما يعني وجوب التعامل مع الاعتراف بالروبوت كشخصٍ قانونيٍّ بالطريقة التي تُحقِّق غايات “تسخير” الروبوت وليس “احترامه”.
النتائج
- الارتقاء بكيان الروبوت لن يكون حلاَّ لإشكالية عدم عدالة قواعد المسؤوليَّة المدنيَّة بقدر ما سيكون مشكلةً أخلاقيَّةً كبيرةً إن لم يتمَّ تقييد تطوير تكنولوجيا الذكاء الاصطناعي في حدود تسخير الروبوت لخدمة الإنسان.
- سيلعب الواقع التشريعي أكثر من التقني دور البطولة في تحديد تطوُّر الشخصيَّة الافتراضيَّة؛ لأن الروبوت بحاجة إلى إقناع المشرع بملكاته الذهنيَّة وليس إلى تطويرها فقط.
- الوصول للروبوت الراشد سيؤدِّي إلى نشوء خطر انفلاته وبدء النقاش حول انتقاله من: الاستخدام، إلى المشاركة، إلى السيادة.
التوصيات
- عدم الاعتراف بشخصيَّة الروبوت الافتراضيَّة إذا لم يواكب ذلك قيود تشريعية وطنيَّة ودوليَّة تحظر تطوير هندسة الروبوتات إلى مستوى يرتقي عن مستوى الإنسان غير المُميِّز، عندها فقط يمكن منح الروبوت الشخصيَّة الافتراضيَّة غير المُميِّزة.
- عدم اعتماد نظريَّة النائب الالكتروني عن المُشغِّل في التعاقد حتى يتمَّ الاعتراف بالشخصيَّة الافتراضيَّة للروبوت.
- اعتماد قواعد النائب الإنساني للروبوت فيما يتعلَّق بالمسؤوليَّة المدنيَّة ضدَّ أفعال الروبوت غير المشروعة.
- منح المالك المُشغِّل للروبوت أو مُشغِّله المستأجر الحق في تحصيل مكاسب الروبوت من إقامة المسؤولية ضدَّ الغير لمصلحة الروبوت عن أفعال الغير غير المشروعة.
- لدى منح الشخصيَّة الافتراضيَّة غير المُميِّزة للروبوت حتى يكون شخصاً قانونياً مع ذمَّة ماليَّة مستقلَّة، فيجب عدم تحديد مسؤوليَّة النائب الإنساني عن أفعال الروبوت غير المشروعة في إطار هذه الذمَّة، بل يجب أن تمتدَّ المسؤوليَّة المدنيَّة إلى ذمَّة الإنسان، ولكن يُمكن فرض ترتيب الرجوع على ذمة الروبوت أولاً.
- يجب على القضاء أن يراعي بين درجة خطأ النائب الإنساني في حدوث فعل الروبوت “الشخص” وبين ملاءة الذمَّة الماليَّة للروبوت، ففي حال كان خطأ النائب بسيطاً وغير مقصودٍ وكان الروبوت مليئاً فتكون ذمَّة الروبوت هي المحل الجائز الوحيد للرجوع بالتعويض.
- اعتماد مقياس تطوُّر الوعي والإدراك في تقدير إمكانيَّات الروبوت قبل صياغة أي نص قانوني بخصوص المسؤولية عن تشغيله أو المسؤولية عن التعدِّي عليه.
- اعتماد مقياس درجة استقلال الروبوت عن المُشغِّل في أداء العمل بغاية تحديد مستوى ملكاته والمستوى القانوني المطلوب من الحقوق والالتزامات في شخصيته.
- فرض رقابة القضاء على إدارة المالك لذمَّة الروبوت الماليَّة المستقلَّة؛ حرصاً على التوازن المالي، والأشخاص المتعاقبين في ملكيَّة الروبوت، والأشخاص حسنَي النية.
قائمة المصادر والمراجع:
أولاً: باللغة العربية
1- المؤلَّفات العامة
– السنهوري، عبد الرزاق، الوسيط، الجزء الأول، نظريَّة الالتزام بوجه عام، مصادر الالتزام، دار إحياء التراث العربي، عام 1968.
2- الأبحاث العلمية المحكمة
– القوصي، همام، إشكالية الشخص المسؤول عن تشغيل الروبوت (تأثير نظريَّة النائب الإنساني على جدوى القانون في المستقبل) –دراسة تحليلية استشرافية في قواعد القانون المدني الأوروبي الخاص بالروبوتات، مجلة جيل الأبحاث القانونيَّة المعمقة، مركز جيل البحث العلمي، طرابلس، لبنان، العدد 25، مايو 2018.
2- الرسائل العلمية
– سلامي، ساعد، الآثار المترتبة على الشخصيَّة المعنويَّة للشركة التجارية، أطروحة لنيل درجة الماجستير في القانون الخاص، جامعة تلمسان، الجزائر، نوقشت عام 2012.
3- الوثائق العلمية
– الوثيقة: “الذكاء الاصطناعي”، موقع myreaders، ترجمة: فهد آل قاسم، أنظر:
http://computer-library.com/no_book=99 (1-8-2019).
ثانياً: باللغة الإنجليزيَّة
- Papers
– AL-MAJID, Waleed, Electronic Agents and Legal Personality: Time to Treat Them as Human Beings, Proceeding of BILETA, Annual Conference, Hertfordshire 16-17 April, 2007.
– ANDRADE, Francisco and NOVAIS, Paulo, et al.:
- Contracting Agents: Legal Personality and Representation, Artif Intell Law 15 (2007).
- ANDRADE, Francisco and NOVAIS, Paulo et al., Issues on Intelligent Electronic Agents and Legal Relations, 2004. See:
https://repositorium.sdum.uminho.pt/bitstream/1822/3169/1/Lea2004.pdf (25-7-2019).
– BROLMANN, C. and NIJMAN, J., Legal Personality as a Fundamental Concept of International Law, Amsterdam Law School Legal Studies Research Paper; No. 2016-43, 2016.
– Čerka, Paulius and Grigienė, Jurgita, et al., Is it possible to grant legal personality to artificial intelligence software systems?, Computer Law & Security Review, Vol. 33, Issue 5, October 2017.
– IZA, Mauricio, Computing emotions on discourse, “Society with AI”, Proceedings of AISB Annual Convention 2017, Bath, UK, April 18-21, 2017.
– GALLO, Giusy and STANCATI, Claudia, Persons, robots and responsibility. How an electronic personality matters, “Society with AI”, Proceedings of AISB Annual Convention 2017, Bath, UK, April 18-21, 2017.
– GINDIS, David, Legal Personhood and the Firm: Avoiding Anthropomorphism and Equivocation, Journal of Institutional Economics, Vol. 12, No. 3, September 2016. See:
https://doi.org/10.1017/S1744137415000235 (3-8-2019).
– KARANASIOU, Argyro and PINOTSIS, Dimitris, Towards a Legal Definition of Machine Intelligence: The Argument for Artificial Personhood in the Age of Deep Learning, ICAIL ’17, London, United Kingdom, June 2017.
– KAWAMURA, Kazuhiko, Cognitive approach to a human adaptive robot development, International Workshop on Robot and Human Interactive Communication, Proceedings of the Institute of Electrical and Electronics Engineers (IEEE), the U.S., 2005.
– PAGALLO, Ugo, Vital, Sophia, and Co.—The Quest for the Legal Personhood of Robots, Information Journal, Vol. 9, No. 230, 2018.
– RAULT, Raphaël and TRENTESAUX, Damien, Artificial Intelligence, Autonomous Systems and Robotics: Legal Innovations, Part of the Studies in Computational Intelligence (SCI, volume 762), 2018.
– ROBINETT, Warren, Electronic Expansion of Human Perception, Whole Earth Review Magazine, fall 1991.
– RUMBOLD, John and PIERSCIONEK, Barbara, does your electronic butler owe you a duty of confidentiality?, International Computer Law Review, Issue 2, 15 April 2017.
– SARIPAN, Hartini, Are Robots Human? A Review of the Legal Personality Model, World Applied Sciences Journal 34 (6), 2016.
– SARTOR, Giovanni, Cognitive automata and the law, European University Institute, Department of Law, working papers, No. 2006/35, 2006.
– SOLAIMAN, S. M., Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy, Artificial Intelligence and Law, Vol. 25, No. 2., 2017. See:
http://ro.uow.edu.au/lhapapers/3076 (3-8-2019).
– SZOLLOSY, Michael, Irrational Machines: Robots, humans and the monsters of reason, “Society with AI”, Proceedings of AISB Annual Convention 2017, Bath, UK, April 18-21, 2017.
– TEUBNER, Gunther, Rights of Non-Humans?, Max Weber Lecture Series 4/2007, January 17th, 2007.
– VAN KOKSWIJK, Jacob, Granting Personality to a Virtual Identity, International Journal of Humanities and Social Sciences 3, no. 8, 2008. See:
http://www.academia.edu/download/32075296/Granting_Personality_to_a_Virtual_Identity_KOKSWIJK.pdf (26-7-2019)
– WEITZENBOECK, Emily M., Electronic Agents and the Formation of Contracts, International Journal of Law and Information Technology, Vol. 9 No. 3, 2001.
– WETTING, Steffen and ZEHENDNER, Eberhard, The Electronic Agent: A Legal Personality under German Law?, Proceedings of the Law and Electronic Agents workshop (LEA’03), 2003.
– WINFIELD, Alan F. T., JIROTKA, Marina, Ethical governance is essential to building trust in robotics and artificial intelligence systems, Philosophical Transaction A, 376: 20180085, 21 August 2018.
– WU, Stephan S., Summary of Selected Robotics Liability Cases, Cooke Kobrick & Wu LLP, July 12, 2010. See: http://ftp.documation.com/references/ABA10a/PDfs/2_5.pdf (31-7-2019).
– YASTREBOV, Oleg A., The Legal Capacity of Electronic Parsons: Theatrical and Methodological Approaches, Proceeding of the Institute of State and Law of the RAS, Volume 13. No. 2, Moscow, 2018.
– ZENG, Yi, LU, Enmeng, HUANGFU, Cunqing, Linking Artificial Intelligence Principles, Proceedings of the AAAI Workshop on Artificial Intelligence Safety, Honolulu, Hawaii, Jan 27, 2019.
- Agenda
– Kuwait Voluntary National Review, the 2030 Agenda to the UN High-Level Political Forum on Sustainable Development, 2019.
ثالثاً: باللغة الفرنسيَّة
– BOURCIER, Danièle, De l’intelligence artificielle à la personne virtuelle: émergence d’une entité juridique ?, Editions juridiques associées « Droit et société », 2001/3, n°49, 2001.
– CORNU, Marie Les Enjeux Juridiques de L’Accès Aux Données de L’Inventaire, Observatoire des politiques culturelles « L’Observatoire », 2014/2, N° 45, 2014.
– GESTIN-VILION, Claudia, La protection par le droit d’auteur des creations générées par intelligence artificielle, 2017. Voir le line:
https://corpus.ulaval.ca/jspui/handle/20.500.11794/28192 (12-7-2019).
– GIRAUDET, Carole, Nécrologie juridique du comité d’entreprise: transformation et succession d’une institution juridique, I.R.E.S. « La Revue de l’Ires », 2018/1, n° 94-95, 2018.
– GRANDJEAN, Antoine, Personnalité morale et rationalité selon Kant, Archives de Philosophie, 2016/2 Tome 79, 2016.
– KYROU, Ariel, Les robots sont des personnes comme les autres Changer notre regard pour ne pas subir l’automatisation, Association Multitudes « Multitudes », 2015/1, n° 58, 2015.
– LEFEUVRE-HALFTERMEYER, Anaïs and GOVAERE, Virginie, et al., Typologie des risques pour une analyse éthique de l’impact des technologies du TAL, 1re soumission à TAL 57-02, le 01/03/2016.
– MACKENZIE, Robin, Sexbots: nos prochains partenaires, Association Multitudes « Multitudes », 2015/1, n° 58, 2015.
– PETTIT, Philip, Deux sophisms à propos des personnes morales, Presses de Sciences Po « Raisons politiques », 2014/4 N° 56, 2014.
– TCHOTOURIAN, Ivan et BERNIER, Jean-Christophe, et al., Les cinq mythes de la gouvernance d’entreprise, De Boeck Supérieur « Revue internationale de droit économique », 2017/2 t. XXXI, 2017.
رابعاً: السوابق القضائيَّة
1- الأحكام الكويتية
محكمة التمييز الكويتية، الأحكام المدنيَّة والتجاريةhttps://www.eastlaws.com :
- الطعن 21 لسنة 1998، قرار صادر بتاريخ 6-3-2000.
- الطعن 219 لسنة 2000، قرار صادر بتاريخ 24-4-2004.
- الطعن 1127 لسنة 2004، قرار صادر بتاريخ 28-9-2005.
- الطعن 1250 لسنة 2006، قرار صادر بتاريخ 27-3-2008.
- الطعن 268 لسنة 2009، قرار صادر بتاريخ 19-5-2010.
2- الأحكام الأجنبية
- France
- Cour de cassation de France:
- Chambre sociale, arrêt n° 411, du 14 mars 2018. https://www.courdecassation.fr/
- Cour de cassation de France, Chambre sociale, 16-27866, 12 avril 2018. https://juricaf.org/.
- Cour administrative d’appel de Paris, 7ème chambre, 17PA0043718, 18 mai 2018. https://juricaf.org/.
- The U.S.:
- Skil Corp. v. Millers Falls Co., 541 F. 2d 554, United States Court of Appeals, Sixth Circuit, August 26, 1976.
- Traynum v. Scavens, 786 SE 2d 115, Supreme Court of South Carolina, June 17, 2016.
- Schwalm v. TCF NAT. BANK, 226 F. Supp. 3d 937, United States District Court, D. South Dakota, Southern Division, December 28, 2016.
- Underwood v. BANK OF AMERICA CORPORATION, United States District Court, D. Colorado, December 19, 2018.
- Newsom v. BRANCH BANKING AND TRUST COMPANY, United States District Court, E.D. North Carolina, Eastern Division, January 9, 2019.
[1] Section AD, Introduction, The European Parliament, Civil Law Rules on Robotics of 2017.
The European Parliament, plenary sitting, the report of 27-1-2017, page 7.
[2] Section 59 (f), General principles, The European Parliament, Civil Law Rules on Robotics of 2017.
[3] Kuwait Voluntary National Review, the 2030 Agenda to the UN High-Level Political Forum on Sustainable Development, 2019, page 58.
[4] القوصي، همام، إشكاليَّة الشخص المسؤول عن تشغيل الروبوت (تأثير نظرية النائب الإنساني على جدوى القانون في المستقبل) –دراسة تحليليَّة استشرافيَّة في قواعد القانون المدني الأوروبي الخاص بالروبوتات، مجلة جيل الأبحاث القانونية المُعمَّقة، مركز جيل البحث العلمي، طرابلس، لبنان، العدد 25، مايو 2018، الصفحة 81.
[5] يُطلَق على الروبوت العامِل بالذكاء الاصطناعي اختصاراً (PAI). أنظر:
“A robot as a possessor of artificial intelligence (PAI)”. See: SOLAIMAN, S. M., Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy, Artificial Intelligence and Law, Vol. 25, No. 2., 2017, page 29. See:
http://ro.uow.edu.au/lhapapers/3076 (3-8-2019).
[6] وهو الأمر الذي نبَّه إليه جانب من الفقه الأمريكي منذ 29 عام من الآن، حيث أكَّد الأستاذ ROBINETT على أنَّه:
“في التطبيقات التكنولوجيَّة الخاصَّة بالواقع الافتراضي التي ظهرت عام 1991، يمكن للواقع الافتراضي أن يظهر في لعبة فيديو ثلاثية الأبعاد 3D، تلك التي يمكن للشخص أن يدخلها عبر وضع أداة على الوجه بحيث تخدع هذه الأداة أحاسيس الشخص، ذلك إلى درجة إدراك بيئة معيَّنة تُحيط بالشخص من كل الجوانب”.
“In its 1991 technological implementation, Virtual Reality is a 3D video game you can enter by strapping something onto your face that fools your senses into perceiving an environment that surrounds you on all sides”. See: ROBINETT, Warren, Electronic Expansion of Human Perception, Whole Earth Review Magazine, fall 1991, page 1.
حيث إنَّ تكنولوجيا الصورة ثلاثيَّة الأبعاد قد يتمُّ استخدامها للترفيه أو للخداع وفقاً لمستوى إدراك الشخص والظروف المحيطة باستخدام هذه التكنولوجيا.
[7] ANDRADE, Francisco and NOVAIS, Paulo et al., Contracting Agents: Legal Personality and Representation, Artif Intell Law 15 (2007), page 357.
[8] “…tandis que les animaux nonhumains et les choses ne pouvaient et ne peuvent toujours pas obtenir une personnalité juridique”. Voir: MACKENZIE, Robin, Sexbots: nos prochains partenaires, Association Multitudes « Multitudes », 2015/1, n° 58, 2015, page 197.
[9] المادة 227، الفقرة 1، القانون المدني الكويتي.
[10] محكمة التمييز الكويتيَّة، الأحكام المدنيَّة والتجاريَّة، الطعن 1127 لسنة 2004، قرار صادر بتاريخ 28-9-2005. أنظر:
https://www.eastlaws.com/ (28-7-2019).
[11] المادة 243، الفقرة 1، القانون المدني الكويتي.
[12] BOURCIER, Danièle, De l’intelligence artificielle à la personne virtuelle : émergence d’une entité juridique ?, Editions juridiques associées « Droit et société », 2001/3, n°49, 2001, page 859.
[13] المادة 243، الفقرة 1، القانون المدني الكويتي.
[14] KARANASIOU, Argyro and PINOTSIS, Dimitris, Towards a Legal Definition of Machine Intelligence: The Argument for Artificial Personhood in the Age of Deep Learning, ICAIL ’17, London, United Kingdom, June 2017, page 119.
[15] Section 52, The EU Civil Law Rules on Robotics of 2017.
[16] Section AD, Introduction, The EU Civil Law Rules on Robotics of 2017.
[17] WETTING, Steffen and ZEHENDNER, Eberhard, The Electronic Agent: A Legal Personality under German Law?, Proceedings of the Law and Electronic Agents workshop (LEA’03), 2003, page 1.
[18] وللمزيد عن القواعد التي تحكم منح الشخصيَّة القانونيَّة حول العالم، راجع في الفقه الهولندي لدى:
BROLMANN, C. and NIJMAN, J., Legal Personality as a Fundamental Concept of International Law, Amsterdam Law School Legal Studies Research Paper; No. 2016-43, 2016.
[19] القوصي، همام، مرجع سابق، الصفحة 102.
[20] “Such a code should consider humans, not robots, as the responsible agents”. See: Annex to the Resolution: Recommendations as to the Content of the Proposal Requested, in: The EU Civil Law Rules on Robotics, P8_TA(2017)0051, 16 February 2017, page 20.
[21] “… a specific human agent such as the manufacturer, the operator, the owner or the user…”. See: Section AD, The EU Civil Law Rules on Robotics of 2017.
[22] Section 54, the EU Civil Law Rules on Robotics of 2017.
[23] GALLO, Giusy and STANCATI, Claudia, op. cit., page 35.
[24] Section 59 (f), General principles, The European Parliament, Civil Law Rules on Robotics of 2017.
[25] Newsom v. BRANCH BANKING AND TRUST COMPANY, United States District Court, E.D. North Carolina, Eastern Division, January 9, 2019.
Read also:
“Progressive’s website acted as the company’s electronic agent”. See: Traynum v. Scavens, 786 SE 2d 115, Supreme Court of South Carolina, June 17, 2016.
[26] “In his business plan for My24HourNews.com, Mr. Underwood stated that E.R.I.C.A. (a robot) ((will talk, speak, and have a personality; and the user can customize the news that she reports))”. See: Underwood v. BANK OF AMERICA CORPORATION, United States District Court, D. Colorado, December 19, 2018.
[27] “… l’introduction du programme informatique Watson va aider les chargés de clientèle à traiter les abondants courriels qu’ils reçoivent…”. Voir: Cour de cassation de France, Chambre sociale, 16-27866, 12 avril 2018. https://juricaf.org/ (2-8-2019).
[28] “La diffusion de ces données dans l’espace numérique est évidemment un enjeu important pour les services de l’Inventaire général et on peut soutenir qu’elle intègre pleinement la mission de service public”. Voir: CORNU, Marie Les Enjeux Juridiques de L’Accès Aux Données de L’Inventaire, Observatoire des politiques culturelles « L’Observatoire », 2014/2, N° 45, 2014, page 61.
[29] SOLAIMAN, S. M., op. cit., page 12.
[30] “المفروض أن المالك هو حارس الشيء، وعليه هو، إذا رفعت ضده دعوى المسؤولية، أن يُثبت أنَّ الحراسة خرجت من يده وقت وقوع الحادث”. أنظر: السنهوري، عبد الرزاق، الوسيط، الجزء الأول، نظريَّة الالتزام بوجه عام، مصادر الالتزام، دار إحياء التراث العربي، عام 1968.
[31] Section 54, the EU Civil Law Rules on Robotics of 2017.
[32] “that agent could have foreseen and avoided the robot’s harmful behavior”. Section AD, The EU Civil Law Rules on Robotics of 2017.
[33] SOLAIMAN, S. M., op. cit., page 1.
[34] BOURCIER, Danièle, op. cit., page 847.
[35] “A robot’s ability to perform a wide range of tasks while assuming human level intelligence is evident”. See: SARIPAN, Hartini, Are Robots Human? A Review of the Legal Personality Model, World Applied Sciences Journal 34 (6), 2016, page 5.
[36] AL-MAJID, Waleed, Electronic Agents and Legal Personality: Time to Treat Them as Human
Beings, Proceeding of BILETA, Annual Conference, Hertfordshire 16-17 April, 2007, page 1.
[37] “An electronic person who has legal duties and subjective rights is, in fact, a set of duties and rights, and the content of legal rights and obligations are the actions of artificial intelligence”. See: YASTREBOV, Oleg A., The Legal Capacity of Electronic Parsons: Theatrical and Methodological Approaches, Proceeding of the Institute of State and Law of the RAS, Volume 13. No. 2, Moscow, 2018, page 10.
[38]نصَّت المادة 86 من القانون المدني الكويتي على أنَّه: “- أهلية الصغير غير المُميِّز لأداء التصرفات معدومة. وتقع كل تصرفاته باطلة”.
[39] المادة 13، قانون تنظيم الالتزامات الناشئة عن العمل غير المشروع، رقم 6، لعام 1961.
[40] المادة 227، القانون المدني الكويتي.
[41] TCHOTOURIAN, Ivan et BERNIER, Jean-Christophe, et al., Les cinq mythes de la gouvernance d’entreprise, De Boeck Supérieur « Revue internationale de droit économique », 2017/2 t. XXXI, 2017, page 12.
[42] WEITZENBOECK, Emily M., Electronic Agents and the Formation of Contracts, International Journal of Law and Information Technology, Vol. 9 No. 3, 2001, page 3.
[43] ANDRADE, Francisco and NOVAIS, Paulo et al., Contracting Agents: Legal Personality and Representation, op. cit., page 357.
[44] WETTING, Steffen and ZEHENDNER, Eberhard, op. cit., page 6.
[45] WU, Stephan S., Summary of Selected Robotics Liability Cases, Cooke Kobrick & Wu LLP, July 12, 2010, page 9. See: http://ftp.documation.com/references/ABA10a/PDfs/2_5.pdf (31-7-2019).
[46] WINFIELD, Alan F. T., JIROTKA, Marina, Ethical governance is essential to building trust in robotics and artificial intelligence systems, Philosophical Transaction A, 376: 20180085, 21 August 2018, page 2.
[47] هنا على المشرع دائماً أن يتساءل عن خصائص الوجود الإنساني التي سيَتَمتَّع بها الوجود الاصطناعي. أنظر في الفقه الإيطالي:
GALLO, Giusy and STANCATI, Claudia, op. cit., page 32.
[48] المادة 84، القانون المدني الكويتي.
[49] المادة 86، الفقرة 1، القانون المدني الكويتي.
[50] “Robots materialized as a reprogrammable machine operating in a semi- or fully autonomous way, so as to perform manufacturing operations, more than fifty years ago”. See: PAGALLO, Ugo, Vital, Sophia, and Co.—The Quest for the Legal Personhood of Robots, Information Journal, Vol. 9, No. 230, 2018, page 2.
[51] وهو مبدأٌ شبيهٌ بما تمَّت مناقشته في جانب من الفقه الفرنسي حول أنَّ الشركة بشخصيَّتها المعنويَّة هي نائبةٌ أيضاً. أنظر:
“Les personnes morales peuvent être décrites comme des agents”. Voir: PETTIT, Philip, Deux sophisms à propos des personnes morales, Presses de Sciences Po « Raisons politiques », 2014/4 N° 56, 2014, page 8.
[52] ANDRADE, Francisco and NOVAIS, Paulo et al., Contracting Agents: Legal Personality and Representation, op. cit., page 358.
[53] Ibid, page 367.
[54] VAN KOKSWIJK, Jacob, Granting Personality to a Virtual Identity, International Journal of Humanities and Social Sciences 3, no. 8, 2008, page 6. See:
http://www.academia.edu/download/32075296/Granting_Personality_to_a_Virtual_Identity_KOKSWIJK.pdf (26-7-2019)
وللمزيد من التفاصيل حول هذا الموضوع، راجع المعالجة القانونيَّة له من جانب من الفقه النرويجي مع بداية الألفيَّة الجديدة لدى:
WEITZENBOECK, Emily M., op. cit., page 1.
[55] SARTOR, Giovanni, Cognitive automata and the law, European University Institute, Department of Law, working papers, No. 2006/35, 2006, page 23.
[56] والصورة الماثلة اليوم عن النائب الالكتروني في التعاقد هو شركات التكنلوجيا التي تنوب عن عملائها في التعاقد كما أقرَّ قضاء محكمة جنوب داكوتا في الولايات المتحدة. أنظر:
“stating that a contract can be formed when a person initiates an electronic agent to take an action that the person knows or should know will form a contract”. Schwalm v. TCF NAT. BANK, 226 F. Supp. 3d 937, United States District Court, D. South Dakota, Southern Division, December 28, 2016.
[57] GRANDJEAN, Antoine, Personnalité morale et rationalité selon Kant, Archives de Philosophie, 2016/2 Tome 79, 2016, page 387.
[58] “A robotic-aid system could be more effective if the system were intelligent enough to understand human needs and adapt its behaviors accordingly”. See: KAWAMURA, Kazuhiko, Cognitive approach to a human adaptive robot development, International Workshop on Robot and Human Interactive Communication, Proceedings of the Institute of Electrical and Electronics Engineers (IEEE), the U.S., 2005, page 1.
[59] Ibid.
[60] “… able to think logically, manage its actions and correct its decisions in the event of a change in external conditions”. See: YASTREBOV, Oleg A., op. cit., page 10.
[61] SARTOR, Giovanni, op. cit., page 1.
[62] PAGALLO, Ugo, op. cit., page 7.
[63] “E-Expert LLC, ses activités de travaux de recherche et de développement dans le domaine de l’intelligence artificielle étant éligibles au statut de jeune entreprise innovante… le service a induit ces derniers en erreur…”. Voir: Cour administrative d’appel de Paris, 7ème chambre, 17PA0043718, mai 2018. https://juricaf.org/ (2-8-2019).
[64] WETTING, Steffen and ZEHENDNER, Eberhard, op. cit., page 6.
[65] WU, Stephan S., op. cit., page 9.
[66] المادة 87، القانون المدني الكويتي.
[67] BOURCIER, Danièle, op. cit., page 871.
[68] المادة 87، القانون المدني الكويتي.
[69] TEUBNER, Gunther, Rights of Non-Humans?, Max Weber Lecture Series 4/2007, January 17th, 2007, page 2.
[70] AL-MAJID, Waleed, op. cit., page 5.
[71] ANDRADE, Francisco and NOVAIS, Paulo et al., Issues on Intelligent Electronic Agents and Legal Relations, 2004, page 1. See:
https://repositorium.sdum.uminho.pt/bitstream/1822/3169/1/Lea2004.pdf (25-7-2019).
[72] محكمة التمييز الكويتيَّة، الأحكام المدنيَّة والتجاريَّة، الطعن 21 لسنة 1998، قرار صادر بتاريخ 6-3-2000. أنظر:
https://www.eastlaws.com/ (28-7-2019).
[73] المادة 92، قانون المرافعات المدنيَّة والتجاريَّة رقم 38، لعام 1980.
[74] محكمة التمييز الكويتيَّة، الأحكام المدنيَّة والتجاريَّة، الطعن 268 لسنة 2009، قرار صادر بتاريخ 19-5-2010. أنظر:
https://www.eastlaws.com/ (28-7-2019).
[75] SOLAIMAN, S. M., op. cit., page 29.
[76] ZENG, Yi, LU, Enmeng, HUANGFU, Cunqing, Linking Artificial Intelligence Principles, Proceedings of the AAAI Workshop on Artificial Intelligence Safety, Honolulu, Hawaii, Jan 27, 2019, page 2. See also:
WINFIELD, Alan F. T., JIROTKA, Marina, op. cit., page 7.
And also:
SARTOR, Giovanni, op. cit., page 29.
[77] “The ability to artificially create and design experience enables possibilities and powers that were formerly impossible”. See: ROBINETT, Warren, op. cit., page 1.
[78] ZENG, Yi, LU, Enmeng, HUANGFU, Cunqing, op. cit., page 4.
[79] “Identities in virtual worlds … are created by a computer programme and seem to act like a legal person”. VAN KOKSWIJK, Jacob, op. cit., page 6.
[80] GINDIS, David, Legal Personhood and the Firm: Avoiding Anthropomorphism and Equivocation, Journal of Institutional Economics, Vol. 12, No. 3, September 2016, page 2. See:
https://doi.org/10.1017/S1744137415000235 (3-8-2019).
[81] “Un système expert est un système informatique qui a pour finalité de simuler l’activité d’un expert humain et de traiter de problèmes qui mettent en jeu une rationalité limitée”. Voir: BOURCIER, Danièle, op. cit., page 853.
“تحاول هذه المنهجیَّة توضیح ومحاكاة السلوك الذكي، بشكل مشابه للعملیَّات الاحتسابیَّة، فهي تأخذ في الاعتبار مسألة أتمتة الذكاء”. أنظر: موقع myreaders، ترجمة: فهد آل قاسم، الوثيقة: “الذكاء الاصطناعي”، الصفحة 8، أنظر الموقع:
http://computer-library.com/no_book=99 (1-8-2019).
[82] “… emotion plays on discourse have transformed Artificial Intelligence computations”. See: IZA, Mauricio, Computing emotions on discourse, “Society with AI”, Proceedings of AISB Annual Convention 2017, Bath, UK, April 18-21, 2017, page 268.
[83] SZOLLOSY, Michael, Irrational Machines: Robots, humans and the monsters of reason, “Society with AI”, Proceedings of AISB Annual Convention 2017, Bath, UK, April 18-21, 2017, page 277.
[84] PAGALLO, Ugo, op. cit., page 10.
[85] “Mais un esclave, surtout s’il est doté d’une personnalité, peut se rebeller”. Voir: KYROU, Ariel, Les robots sont des personnes comme les autres Changer notre regard pour ne pas subir l’automatisation, Association Multitudes « Multitudes », 2015/1, n° 58, 2015, page 102.
[86] Čerka, Paulius and Grigienė, Jurgita, et al., Is it possible to grant legal personality to artificial intelligence software systems?, Computer Law & Security Review, Vol. 33, Issue 5, October 2017, page 685.
[87] LEFEUVRE-HALFTERMEYER, Anaïs and GOVAERE, Virginie, et al., Typologie des risques pour une analyse éthique de l’impact des technologies du TAL, 1re soumission à TAL 57-02, le 01/03/2016, page 13.
[88] BOURCIER, Danièle, op. cit., page 864.
[89] TEUBNER, Gunther, op. cit., page 20.
[90] محكمة التمييز الكويتيَّة، الأحكام المدنيَّة والتجاريَّة، الطعن 219 لسنة 2000، قرار صادر بتاريخ 24-4-2004. أنظر:
https://www.eastlaws.com/ (28-7-2019).
[91] “real and independent legal personality”. See: Skil Corp. v. Millers Falls Co., 541 F. 2d 554, United States Court of Appeals, Sixth Circuit, August 26, 1976.
[92] سلامي، ساعد، الآثار المُترتِّبة على الشخصيَّة المعنويَّة للشركة التجاريَّة، أطروحة لنيل درجة الماجستير في القانون الخاص، جامعة تلمسان، الجزائر، نوقشت عام 2012، الصفحة 9.
[93] Cour de cassation de France, Chambre sociale, arrêt n° 411, du 14 mars 2018. Voir: https://www.courdecassation.fr/ (28-7-2019).
[94] “La firme n’est qu’une « boîte noire », un centre technique combiné à un centre de décision économique, sans personnalité ni épaisseur dont les décisions se confondent”. Voir: TCHOTOURIAN, Ivan et BERNIER, Jean-Christophe, et al., op. cit., page 9.
[95] “… doté de la personnalité juridique, est le cadre de relations entre l’employeur et les représentants des salaries…”. Voir: GIRAUDET, Carole, Nécrologie juridique du comité d’entreprise: transformation et succession d’une institution juridique, I.R.E.S. « La Revue de l’Ires », 2018/1, n° 94-95, 2018, page 32.
[96] “… للشركة الطاعنة وهي شخصيَّة اعتباريَّة مستقلَّة عن شخصيَّة المستغل السابق، ولكلٍّ منهما كيانه القانوني المختلف عن الآخر…”. راجع: محكمة التمييز الكويتيَّة، الأحكام المدنيَّة والتجاريَّة، الطعن 1250 لسنة 2006، قرار صادر بتاريخ 27-3-2008. أنظر:
https://www.eastlaws.com/ (28-7-2019).
[97] PETTIT, Philip, op. cit., page 23.
[98] MACKENZIE, Robin, op. cit, page 192.
[99] القوصي، همام، مرجع سابق، الصفحة 103.
[100] PAGALLO, Ugo, op. cit., page 1.
[101] KYROU, Ariel, op. cit., page 94.
[102] وهذا ما يتطلَّب رفع الوعي بين مهندسي الروبوتات والباحثين القانونيِّين في هذه المرحلة التكنولوجيَّة الانتقاليَّة. أنظر لدى:
RAULT, Raphaël and TRENTESAUX, Damien, Artificial Intelligence, Autonomous Systems and Robotics: Legal Innovations, Part of the Studies in Computational Intelligence (SCI, volume 762), 2018.