دراسات قانونية

بحث ودراسة هامة حول الإشكاليَّة القانونية للشخص المسؤول عن تشغيل الروبوت

الدكتور همام القوصي

دكتوراه بالقانون التجاري – تخصُّص قانون وأنظمة البورصة من جامعة حلب – سورية

Dr. Humam Al Qussi

Doctor of Trading Law from the University of Aleppo, Syria.

 

Abstract

This is the first Arab research to determine the nature of the human person responsible before the law for the damages that may be caused by AI machine or so-called “robot” which uses artificial intelligence (AI)’s technology granted by the ability of mental trial & self-decision; robot are capable of causing severe damage to human beings and property if they escaped from the system of programming & operation, or if it reached the emotional perception sufficient to hate the human kind and then fight it.

Jurists have been hesitant about this issue, which has created a profound dilemma in determining who is responsible for the actions of the robot, whether the robot itself is responsible for it, or that it is in the future liable to bear its consequences, and then to hold the robot personally accountable for the damage it may cause .

After analyzing the European Civil Law of Robotics issued in February 2017, we found that the EU’s law is based on the idea of ​​a “Human Agent” responsible for compensating the injured from the acts of the robot; manufacturers, operators, owners or users.

This indicates that the robot is given a legal status that allows it to be an enabler, not a guarded thing, and to establish a future legal status for the robot that may give it a legal electronic personality, which requires studying the influence of the human Agent theory on the feasibility of the law in its traditional sense in the near future.

Keywords: Robot, Robotics Law, Civil Law Rules on Robotics 2017, Human Agent, Artificial Intelligence AI, Machine Learning.

الملخَّص

يُعدُّ هذا البحث الأول عربيَّاً في تحديد طبيعة الجهة المسؤولة أمام القانون عن الأضرار التي قد يتسَّبب بها تشغيل الرجل الآلي -أو ما يُطلق عليه اصطلاحاً: “الروبوت”- الـمُبرمج وفقاً لتكنولوجيا الذكاء الاصطناعي التي تمنحه قدرة محاكاة العقل البشري، واتِّخاذ القرار الذاتي، ثم تنفيذه على أرض الواقع؛ حيث أنَّ هذه: “الآلة الإنسان” باتت قادرةً على إحاقة الضرر البالغ بالإنسان والممتلكات إنْ هي انفلتت عن نظام برمجتها وتشغيلها الآمن، أو إنْ هي بلغت الإدراك العاطفي الكافي لكُره الجنس الإنساني ثم محاربته.

وقد وقف فقهاء القانون موقفَ الحيرة والتردُّد إزاء هذا الموضوع، ما قد أوجد إشكاليَّةً عميقةً تتمثَّلُ في تحديد طبيعة الشخص المسؤول عن أفعال الروبوت، فما زال الفقه التقليدي يُكيِّفُ المسؤول عن الروبوت بوصف حارس الأشياء الميكانيكيَّة الخطرة مع افتراض الخطأ.

وبعد أن قمنا بتحليل نصوص القانون المدني الأوروبي الخاصِّ بالروبوتات الصادر في فبراير 2017، وجدنا أنَّ المشرع الأوروبي قد اعتمد على نظريَّة: “النائب الإنساني” المسؤول عن تعويض المضرور بسبب تشغيل الروبوت على أساس الخطأ واجب الإثبات على النائب الذي قد يكون صانع أو مشغل أو مالك أو مستعمل الروبوت.

وهذا يدلُّ على منح الروبوت مكانةً قانونيَّةً تسمح بأن يكونَ مُناباً وليس شيئاً محلَّ حراسة، والتأسيس لحالةٍ قانونيَّةٍ مستقبليَّةٍ خاصَّةٍ بالروبوت قد تؤدِّي إلى منحه الشخصية الالكترونيَّة القانونيَّة، الأمر الذي يوجب دراسة تأثير نظريَّة النائب الإنساني المسؤول عن الروبوت على جدوى القانون بمفهومه التقليدي في المستقبل.

الكلمات المفتاحيَّة: الروبوت، قانون الروبوتات، القانون المدني الأوروبي، النائب الإنساني، الذكاء الاصطناعي، تعلُّم الآلة.

المُقدِّمة

لم يُخيَّلْ للمجتمع الإنساني –والعربي بشكلٍ خاصٍّ- أن يُواجِه مثل هذا الموقف القانوني الـمُحرِج تجاه الآلات الجامدة الباردة كما هو الحال اليوم؛ فالروبوت لم يعدْ ضرباً من ضروب الخيال العلمي أو قصص الأطفال المصوَّرة!، لقد انتقلت هذه الأحلام العلميَّة إلى الواقع الـمُعاش، وصرنا نرى الآلات وهي تنتقل بهدوء واضطراد نحو مكانتا البشريَّة.

فالرجل الآلي أو ما يُطلق عليه: “الروبوت” “Robot”[1]، هو عبارة عن “آلةٍ ذكيَّةٍ””Smart Machine” تسيرُ بشكلٍ ذاتيٍّ مستقلٍّ عبر محاكمةٍ عقليَّةٍ اصطناعيَّةٍ بغرض القيام بمهامٍ دقيقةٍ في مجالات الطبِّ[2] والإدارة[3]، والتدقيق الداخلي في المؤسَّسات[4]، والنقل، وغيرها، ما قد منح الإنسان قدرة الوصول إلى أعلى أداءٍ ممكنٍ لإنتاج السلع وتقديم الخدمات دون أخطاءٍ تُذكر أو سوء تقديرٍ بشريٍّ، لكن هذه الإيجابيَّات لم تمنعْ وجود خطر انفلات الآلة بكلِّ صوره المقصودة وغير المقصودة.

ومن أمثلة الروبوتات الحديثة: السيَّارات ذاتيَّة القيادة “Self-Driving Vehicles\ Véhicules Autonomes”، و”الروبوتات الطبيَّة” “Medical Robots – Robots Médicaux” التي تقوم بالعمليَّات الجراحيَّة الخطرة، والروبوتات الصناعيَّة، والمنزليَّة ..إلخ، وحديثاً وُجدَت: “روبوتات العناية” “Care Robots – Robots de Soins”[5] التي قد منحت الأمل لـمُعاقِي الحركة بالمشي مُجدَّداً، كما ظهر في اليابان روبوت المرور[6]، أمَّا الطائرات دون طيَّار فما زال اعتبارها روبوتاً محلَّ نقاشٍ؛ كونها تسيرُ بتوجيهٍ بشريٍّ.

وبالنتيجة، فقد دخلت الروبوتات إلى مفاصل حياتنا الأساسيَّة، وهو ما جعلها مُفروضةً على حياتنا فرضاً بغضِّ النظر عن مدى تقبُّل مجتمعنا العربي لها[7]، أو انتمائنا إلى الاتِّجاه المتفائل أم المتشائم بخصوص مستقبل الروبوتات[8]؛ وذلك بسبب الطموح الدائم إلى الأداء المثالي دون أخطاءٍ بشريَّةٍ.

وفي الحقيقة، إنَّ ما يمنحُ الآلة قدرة التفكير واتِّخاذ القرار بشكلٍ ذاتيٍّ وأداءٍ مثاليٍّ هو مرورها بمراحل البرمجة التي يفرضها: “الذكاء الاصطناعي”[9] “Artificial Intelligence (AI) – Intelligence Artificielle (IA)”[10]، حيث يُعتبَر إنتاج الروبوت أحد المجالات الفرعيَّة لتكنولوجيا الذكاء الاصطناعي[11].

وأهمُّ مراحل برمجة الروبوت هي: مرحلة: “تعلُّم الآلة” “Machine Learning – Apprentissage Automatique”؛ حيث يتمُّ زرع طريقة التفكير البشريَّة، ونماذج المواقف، والأفكار، والتصوُّرات، والقرارات النموذجيَّة، وحتى طريقة التعبير الكلاميَّة والحركيَّة في البرمجة الآليَّة التي تُحرِّك الروبوت، وبلغ الذكاء الاصطناعي من التطوُّر مبلغ استخدامه لتنمية تفكير الاستدلال البشري في غزَّة – فلسطين[12].

إلاَّ أنَّ هذا الذكاء الاصطناعي ((AI -مهما بلغت درجة دقَّته في وقتنا الراهن- فلن يصلَ مستوى موثوقيَّة الذكاء البشري من حيث محاكاة طبيعة الحياة العمليَّة؛ ما قد يوقع الروبوت في الأخطاء أو الاستغلال، وبالمقابل فإنَّ وصول الروبوت إلى الإدراك العاطفي مستقبلاً سيجعله يحبُّ ويكره؛ وهذا ما قد يدفعه للقيام بأفعالٍ عدائيَّةٍ أو انتقاميَّةٍ تُسبِّب أضراراً لمستخدمه وللغير.

وما زال المشرع يقفُ موقفَ الذهول والارتياب تجاه وقائع روبوتات الذكاء الاصطناعي، رغم أنَّها قد تودي بالأرواح والأموال في واقعنا الراهن، وكأنَّ المشرِّع يرفض الواقع، كما يتقوقع فقهاء القانون التقليدي في الزمن الماضي، ويظهر ذلك من التكييف القانون والقضائي الحالي للروبوت على أنَّه شيء، وأنَّ مالكه مُجرَّد حارس أشياء يقع عليه عب الخطأ المفترض تماماً مثل مالك السيَّارة التقليديَّة، تلك النظريَّة التي تعود إلى قرنٍ مضى، رغم أنَّ الروبوت يُحرِّكُ ذاته بمحاكمةٍ عقليَّةٍ شبه بشريَّةٍ ذات منطقٍ واتِّزانٍ؛ ولذلك فهو ليس بكائنٍ مُسيَّرٍ مُنقادٍ كالآلة الصمَّاء التي يُطلق عليها تسمية: “الشيء”، وهذه المعلومة قد باتت من البديهيَّات.

ولذلك، فقد كان لا بدَّ من تطوير القواعد العامَّة التقليديَّة للقانون المدني[13] في سياق معالجة إشكاليَّة طبيعة الشخص المسؤول عن أفعال الروبوت وقواعد المسؤوليَّة عن تشغيله؛ فليس من العدالة أن يُسأل الروبوت وهو آلةٌ لا شخصيَّة قانونيَّة لها، وبالمقابل ليس من العدالة أن يُسأل المالك وفقاً لنظريَّة تنتمي لعصر الآلات التقليديَّة، وهو لا يُسيطرُ سيطرة الحراسة أو حتى التوجيه والرقابة عليه كما في باقي الأجهزة الميكانيكيَّة أو ذات العناية الخاصَّة التي قصدتها نظريَّة حارس الأشياء.

كما تبدو إقامة المسؤوليَّة على صانع أو مبرمج الروبوت غير منطقيَّة في بعض الحالات؛ لأنَّ خروج الآلة عن السلوك غير مرتبطٍ بالصناعة أو البرمجة بل بظروف الواقع المتغيِّرة والتي لا حصرَ لنماذجها فلا يُمكن زرعها كلها في برمجة الروبوت.

ولذلك فقد ابتكر البرلمان الأوروبي عبر نظريَّة: “النائب الإنساني المسؤول” “Responsible Human Agent – Agent Humain Responsable“ وفقاً لقواعد القانون المدنيٍّ الأوروبي الخاصٍّ بالروبوتات في فبراير من عام 2017؛ وذلك حتى يفرض المسؤوليَّة عن تشغيل الروبوت على مجموعة من الأشخاص وفقاً لمدى خطأهم في تصنيعه أو استغلاله ومدى سلبيَّتهم في تفادي التصرُّفات الـمتوقَّعة من الروبوت، دون افتراض الخطأ ولا اعتبار الروبوت شيء.

وقد ذهب المشرع الأوروبي أبعدَ من ذلك عندما بشَّر الروبوت بمكانة قانونية خاصة في المستقبل مع ظهور الأجيال الجديدة منه التي قد تتمتَّع بالشخصيَّة الالكترونيَّة القانونيَّة التي ستؤدِّي إلى منح الحقوق له وفرض الالتزامات عليه، وقد أكَّد الفقه الإنكليزي على غموض هذه المفاهيم[14].

كما اعتبر القانون المدنيٍّ الأوروبي الخاصٍّ بالروبوتات أنَّ تحديد أحكام المسؤوليَّة المدنيَّة عن أضرار الروبوتات هي: “قضيَّةُ حاسمةُ” “Crucial Issue – Question Cruciale”[15]، هذا إلى جانب إمكانيَّة استخدام الروبوت للقيام بالأفعال الجرميَّة ما سيُقيم المسؤوليَّة الجزائيَّة.

ويظهر هدف هذا البحث في حال إشكاليَّة طبيعة الشخص المسؤول عن الأضرار التي قد يتسبَّب بها الروبوت بغاية استشراف الواقع القانوني المستقبلي وفقاً للقانون المدني الأوروبي الخاص بالروبوتات، وذلك بما يتلاءم مع طبيعة القواعد القانونيَّة الروبو-بشريَّة، تلك التي تحكم العلاقة بين كائنين، وليس بين كائنٍ وشيءٍ خاضعٍ له مسلوب الشخصيَّة والأهليَّة كما في نظريَّة حارس الأشياء، وهذا ما يفرضه الواقع الآن وما سيتعمَّق حتماً في القريب الآجل.

وتظهرُ أهميَّة هذا البحث في أنَّ هذا الواقع التكنولوجي المُتسارِع في التطوُّر قد يؤدِّي بالقانون إلى جعله غير قابلٍ للتطبيق في المستقبل بسبب عدم مناسبته لتنظيم وقائعٍ غير بشريَّةٍ أو مشتركةٍ بين البشر والروبوتات؛ وهكذا فقد يخسر القانون جدوى وجوده لعدم مناسبته للتطبيق، ولاندثار فلسفته التقليديَّة، أو لعدم وجود سلطةٍ قادرةٍ على فرضه على الروبوتات أصلاً في المستقبل.

أمَّا منهج البحث، فهو المنهج الوصفي التحليلي الاستنتاجي؛ حيث سنصف الأفكار والاحتمالات التي سبَّبتها تكنولوجيا الذكاء الاصطناعي، ثم نحلِّل موقف المشرع الأوروبي للوصول إلى المنطق القانوني الأمثل، ونُقدِّم استنتاجنا في التكييف القانوني الأقرب للواقع في ظلِّ تطوُّر في النظريَّات والنصوص القانونيَّة الأوروبيَّة وسعيها لاستشراف المستقبل بهدف التمهيد له، ثم نُقدِّم تقييمنا للنتائج القانونيَّة المستقبليَّة العميقة من آثار تطبيق نظريَّة النائب الإنساني في المستقبل.

ويُمكن اختصار إشكاليَّة البحث في التساؤل التالي:

“هل سيؤدِّي فرض المشرِّع الأوروبي لمسؤوليَّة النائب الإنساني عن الأضرار التي قد يتسبَّب بها الروبوت المستقل وفقاً لقواعد المسؤوليَّة المدنيَّة والجزائيَّة إلى التأثير على جدوى وجود القانون برمَّته في المستقبل؟“.

فرغم أنَّ القانون الأوروبي هو قانون مدني، إلاَّ أنَّنا قد قمنا بافتراض احتمال استخدام الروبوتات في اقتراف الجرائم، ووضَّحنا كيفيَّة إقامة المسؤوليَّة الجزائيَّة على النائب الإنساني المسؤول عنه تبعاً لذلك حتى يتمَّ توضيح هذا النطاق بحدوده الأوَّليَّة.

وتجب الإشارة إلى أنَّ هذا البحث في جزء كبير منه دراسة استشرافية “Prospective Outlook Study – Étude Prospective”؛ فهو أكثرُ من إشكاليٍّ، بل هو في حقيقة أمره مشكلةٌ لا حل نهائي لها في الوقت الحاضر؛ كونه يتعلَّق باحتمالات مستقبليَّةٍ تتحرَّى القادم من السنوات، فقد ظهرت طبيعة الدراسات القانونيَّة التي قد عالجت قانون الروبوت في مجملها على أنَّها مواقف شخصيَّةً[16]، والبحث ليس ببعيدٍ عن ذلك، وهذا ما قد جعل من القانون الأوروبي مجرَّد رأيٍ قانونيٍّ في حقيقته، الأمر الذي جعلنا نوازن الموقف الأوروبي بموازين المنطق والعقل، حتى نقدِّم فرصة دراسته وتحليل تجربته من المشرع العربي.

كما أنَّنا بحثنا بشكلٍ موسَّعٍ عن سوابقٍ قضائيَّةٍ أوروبيَّةٍ في مجال قانون الروبوت، فلم نجد سوى بعض التقارير الصحفيَّة وبعض الأحكام الفرنسيَّة والألمانيَّة التي تتعلَّق بالأمر بشكلٍ سطحيٍّ، وهذا ما قد دفع الفقه الإيطالي إلى القول بضعف فعاليَّة التنظيم الأوروبي للروبوت[17]؛ ولذلك فقد وجدنا ضرورة منح الباحثين مسرداً عمليَّاً لدعاوى الروبوتات من القضاء الأمريكي الذي قد حسم العديد من المنازعات العمليَّة في هذا المجال حتى تاريخ إنهاء إعداد البحث، كما حرصنا على ذكر مسردٍ للمصطلحات العلميَّة عربي- إنكليزي-فرنسي لدى ذكره في البحث.

وحيث أنَّ الشخص المسؤول عن الروبوت وفقاً للقواعد القانون المدني الخاص بالروبوت قد يكون نائباً إنسانيَّاً أو الروبوت ذاته في المستقبل، سيكون مُخطَّط البحث كالتالي:

المبحث الأول: النائب الإنساني المسؤول عن الروبوت.

المطلب الأول: التكييف القانوني لمسؤوليَّة النائب الإنساني.

المطلب الثاني: تطبيق نظريَّة النائب الإنساني هذه.

المبحث الثاني: الروبوت المسؤول صاحب المنزلة القانونيَّة المستقبليَّة الخاصَّة.

المطلب الأول: ماهيَّة المنزلة القانونيَّة المستقبليَّة الخاصَّة بالروبوت (الشخص الالكتروني).

المطلب الثاني: النتائج القانونيَّة لمنح الروبوت الشخصيَّة الالكترونيَّة في المستقبل.

المبحث الأول: النائب الإنساني المسؤول عن الروبوت

لقد قامت “لجنة الشؤون القانونيَّة” “Legal Affairs Committee – Commission des Questions Juridiques (JURI)” في الاتِّحاد الأوروبي بإنشاء مجموعة عملٍ للإجابة عن الأسئلة التي قد طرحها تشغيل الروبوت والذكاء الاصطناعي في أوروبا عام 2015[18]، وبعد نقاشٍ طويلٍ، أصدرت مجموعة العمل تقريرها النهائي المتضمِّن مجموعةً من التوصيات إلى اللَّجنة القانونيَّة التي قامت بدورها بإصدار: “قواعد القانون المدني على الروبوتات” “Civil Law Rules on Robotics – Règles de Droit Civil sur la Robotique” في فبراير 2017[19].

وقد ذهب الاتِّحاد الأوروبي -حتى الآن- إلى اتِّجاه تبنِّي فلسفة أنَّ الذكاء الاصطناعي مسخَّرٌ لخدمة الإنسان، وطالما كان الروبوت صنيعة الذكاء المنسوب للآلة، فإنَّ الروبوت هو خادمٌ مطيعٌ للإنسان، ولكنَّه ليس شيئاً أو كائناً جماداً لا يعقل، بل كائنٌ آليٌّ بمنطقٍ بشريٍّ مبتدئٍ قابلٍ للتطوُّر والتعقُّل؛ وذلك نتيجة التطبُّع بشيم العقل البشري من باب التقليد التكنولوجي.

ولذلك فقد ابتكر الاتِّحاد الأوروبي مفهوم: “النائب الإنساني” حتى يكون مسؤولاً عن أفعال الروبوت الآلي، فاعتبر قانون الروبوت الأوروبي أنَّه ونظراً لعدم إمكانيَّة إقامة مسؤوليَّة الروبوت عن الأضرار التي قد يتسبَّب بها لشخصٍ ثالثٍ (غير الـمُستخدِم والروبوت ذاته)، فتقوم المسؤوليَّة عن أفعال وتقصير الروبوت على: “نائب إنساني” “Human Agent – Agent Humain“[20]، وهو الشخص الذي قد أطلق عليه الفقه الفرنسي مصطلح: “قرين الروبوت” “Robot Companion”[21].

وعليه، سنبحث في التكييف القانوني لمسؤوليَّة النائب الإنساني المسؤول عن الروبوت أولاً، ثم في التطبيق العملي لفكرة هذا النائب ثانياً.

المطلب الأول: التكييف القانوني لمسؤوليَّة النائب الإنساني عن الروبوت

سنبحث في التكييف التقليدي لمسؤوليَّة النائب الإنساني عن الروبوت أولاً، ثم في الحالة المبتكرة من الاتِّحاد الأوروبي في هذا الخصوص ثانياً.

أولاً: التكييف التقليدي لمسؤوليَّة النائب الإنساني عن الروبوت

بناءً على نظام النائب الإنساني وفقاً للمشرع الأوروبي فالروبوت ليس جماداً أو شيئاً، كما أنَّه ليس بكائنٍ لا يعقلْ، وذلك بدليلِ وصف الإنسان المسؤول عن الروبوت بالنائب “Agent”[22]، وليس الحارس أو الرقيب، هذا بالإضافة إلى اعتبار الاتِّحاد الأوروبي أنَّ مشكلة عدم فرض المسؤوليَّة على الروبوت تكمن في “الإطار القانوني الحالي” “Current Legal Framework – Cadre Juridique Actuel” وليس في الروبوت ذاته[23].

وعلى خلاف جانبٍ من الفقه[24]، فإنَّ فكرة النائب الإنساني عن الروبوت وفقاً للمشرع الأوروبي لا تتطابق مع نظريَّة حارس الأشياء الميكانيكيَّة أو ذات العناية الخاصَّة[25] أو الحيوانات[26]، وذلك بدليلِ وصف “النائب” الـمُغايِر لوصف “حارس الشيء”.

كما أنَّ تكييف الاتِّحاد الأوروبي لم يمس بأهليَّة الروبوت، بدليلِ استخدام مصطلح “النائب” وليس “الوصي” أو “القيِّم” “Guardian – Gardien“ “الرقيب” على القاصر؛ كما أنَّ الشخص معدوم أو ناقص الأهليَّة هو شخصٌ معترفٌ به أمام القانون وله حقوق وقد تقع عليه واجبات بحسب إدراكه ومدى نقصان أهليَّته، بينما لم يبت القانون الأوروبي بإشكاليَّة أهليَّة الروبوت نظراً لعدم قابليَّة الإطار التشريعي الحالي لذلك، واكتفى بمنحه منزلة قانونيَّة خاصَّة كما سنرى.

والروبوت -رغم كونه مازال مُسخَّرا لخدمة البشر-، فهو ليس بمركز التابع القانوني للإنسان وفقاً للقانون الأوروبي؛ لأنَّ المتبوع لديه إشرافٌ تامٌّ على التابع كامل الأهليَّة، كما بإمكان المتبوع الرجوع على التابع، فالمتبوع شخصٌ تربطه علاقة “تابعيَّة” وليست “نيابيَّة” أو “تمثيليَّة” عن المسؤوليَّة، فالقانون الأوروبي قد فرض المسؤوليَّة المدنيَّة على النائب الإنساني لعلَّة عدم إمكانيَّة فرضها على الروبوت ذاته في الوقت الحالي كما ذكرنا، وليس لاعتباره تابعاً دائماً للإنسان، بل باعتباره آلةً ذات منزلةٍ قانونيَّةٍ خاصَّةٍ –كما سنرى- تقوم على خدمة الإنسان في الوقت الحالي.

كما أنَّ النائب الإنساني ليس بمحالٍ عليه من الروبوت المدين ضمن حوالة دين؛ لأنَّ حوالة الدين تنشأ عن التزامٍ موجودٍ يلتزم بموجبه المحال عليه بتوفير مبلغ الالتزام الملقى على المحيل ذو الأهليَّة[27]، وهي تتطلَّب موافقة الدائن، أمَّا في حالة نائب الروبوت فلا ينشأ الالتزام في ذمَّة النائب الإنساني إلاَّ إن قام هذا الروبوت بخطأٍ يستتبع التعويض للمتضرِّر دون أخذ موافقته.

ولا يُمكن مقارنة نظام النائب الإنساني بالكفيل؛ لأنَّ الكفالة تتضمَّن تعهُّداً للدائن بأن يقوم الكفيل بالوفاء بهذا الالتزام إذا لم يفِ به المدين نفسه وإن كان الدين مستقبليَّاً، وذلك يتعارض مع انعدام وجود الاتِّفاق مع الدائن الـمُتضرِّر من تشغيل الروبوت، بالإضافة إلى إقرار الفقه عدم جواز إلزام أحدٍ على أن يكون كفيلاً بقوَّة القانون[28] كما هو الحال مع إلزام النائب الإنساني بالتعويض.

كما أنَّ نظريَّة النائب الإنساني مُشابهةٌ لنظام التأمين ضدَّ المسؤوليَّة لمصلحة المضمون (الروبوت) في مواجهة مضرور غير مُحدَّد قبل قيام الضرر، إلاَّ أنَّه يختلف عنه جذريَّاً في الغاية منه؛ فنظام التأمين ضدَّ المسؤوليَّة يتمثَّل في خدمة مصلحة الـمُتسبِّب بالضرر، بينما يتغيَّا نظام النائب الإنساني تعويض المضرور عبر قواعدٍ عادلةٍ، كما أنَّ خدمة التأمين يجب أن تُقدِّمها شركة مرخَّصة وليس أيَّاً كان.

ويختلف نظام النائب الإنساني عن فكرة النيابة القانونيَّة في أنَّ النائب ينوب بقوَّة القانون -دون وجود اتِّفاق مع الـمُناب- عن شخصٍ معترفٍ به أمام القانون ولكن قد يكون ناقص الأهليَّة أو مُعدَمِها أو قد يكون كامل الأهليَّة كالناخب، وذلك بغاية تمثيل الـمُناب وليس تحمُّل المسؤوليَّة عنه.

وهكذا، فالتكييف القانوني التقليدي لمسؤوليَّة النائب الإنساني عن الروبوت لا يمنحُ جواباً حاليَّاً شافياً أو حتى منطقيَّاً للمعنى العميق الخاصِّ بالعلاقة بين الإنسان والروبوت عندما يكون الإنسان نائباً عنه في تحمُّل مسؤوليَّة أخطائه قبل حتى أن يتمتَّع الروبوت بالشخصيَّة القانونيَّة.

وبالتالي، نحن في الواقع بصدد حالة أوروبيَّة مبتكرة كما سنرى.

ثانياً: الحالة المبتكرة في فرض نظريَّة النائب المسؤول عن الروبوت بحكم القانون الأوروبي

نرى أنَّ قواعد القانون المدني الأوروبي الخاصَّة بالروبوت قد شرَّعت حالةً قانونيَّةً مُبتكرةً في نظام النائب الإنساني، وهي: افتراض وجود نيابة عن المسؤوليَّة بحكم القانون بين الروبوت المُمثَّل والإنسان المسؤول بغرض نقل مسؤوليَّة أفعال الروبوت إلى الإنسان، فالنائب الإنساني هو:

“نائبٌ عن الروبوت بتحمُّل المسؤوليَّة عن تعويض المضرور جرَّاء أخطاء التشغيل بقوَّة القانون”

فالحالة الأوروبيَّة المبتكرة هي: نقل المسؤوليَّة من الروبوت عديم الشخصيَّة والأهليَّة إلى الإنسان بقوَّة القانون، بدليلِ استخدام المشرع الأوروبي لمصطلح نقل عبء المسؤولية “Traced Back..” إلى النائب الإنساني[29]؛ حيث تبنَّى المشرع الأوروبي نظريَّة: “النائب المسؤول” “Responsible Agent – Agent Responsable“[30] في حال قيام[31]:

“المسؤوليَّة الكاملة” “Strict Liability – Responsabilité Stricte”؛ أي إثبات الخطأ والضرر والعلاقة السببيَّة[32] خلال إدارة تصنيع الروبوت أو تشغيله[33]، مع تطبيق “مبدأ التناسب” “The Principle of Proportionality – Le Principe de Proportionnalité”؛ فكلَّما كان استقلال الروبوت أعلى، كلَّما انتفت المسؤوليَّة[34].
أو المسؤوليَّة عن إخلال النائب المسؤول بواجب “إدارة الخطر” “Risk Management – Gestion des Risques”[35] الذي يفرض عليه محاولة تجنُّب الحادث “الـمُتوقَّع” “Foreseen – Prévu”[36] من فعل أو إهمال الروبوت خلال إدارة تشغيله، وهذا ما يُقيمُ مسؤوليَّة النائب عن اتِّخاذ موقفٍ سلبيٍّ إزاء تخفيض مخاطر التشغيل هذه[37].
ولذلك فإنَّ نظريَّة النائب المسؤول هي حالةٌ مؤقَّتةٌ خاصَّةٌ تهدف إلى الانتقال من نظام حارس الأشياء أو رقيب الشخص ناقص الأهليَّة ذات الخطأ الـمُفترض، إلى النيابة مع نقلُ المسؤوليَّة من الروبوت إلى الإنسان على أساس إمَّا الخطأ واجب الإثبات في إدارة التصنيع أو التشغيل، أو الامتناع عن تجنُّب حادث خطر متوقَّع من الروبوت؛ وذلك لأنَّ الروبوت لم يعد شيئاً قابلاً للحراسة، أو شخصاً قاصراً قابلاً للرقابة الـمُحكَمة، بل آلةً ذكيَّةً مستقلَّةً في التفكير كالإنسان الراشد الذي لا تصحُّ الرقابة عليه بعد ترسُّخ “استقلال الروبوت” “Robot’s Autonomy – L’Autonomie du Robot”[38].

وقد وقف المشرع الأوروبي عبر هذه الحالة المبتكرة موقف الوسط؛ فلم يعتبرْ الروبوت شيئاً خاضعاً للحراسة بغرض التمهيد لمنحه الشخصيَّة القانونيَّة مستقبلاً من جهة، ولم يعتبره ناقص أو معدوم الأهليَّة خاضع للرقابة بغرض عدم الاعتراف ضمنيَّاً بشخصيَّته القانونيَّة الآن من جهة أخرى.

ويجب القول أنَّ نطاق تطبيق نظريَّة النائب الإنساني المسؤول هو فعل أو إهمال الروبوت “خلال حالة التشغيل” التي تمنحه استقلال الحركة والتفكير والتنفيذ كالبشر؛ أي أنَّ أساس مسؤوليَّة النائب الإنساني هو الخطأ في التصنيع أو الإدارة الذي يؤدِّي إلى انحراف أدائه خلال وضعيَّة التشغيل أو عدم تفادي ذلك رغم توقُّع النائب لذلك، أمَّا الروبوت الواقف عن الحركة فهو يخضع لتكييف الشيء وليس الآلة الذكيَّة.

ولكن ما هي كيف سيتمُّ تطبيق نظريَّة النائب الإنساني المسؤول عن الروبوت في الواقع العملي؟.

المطلب الثاني: تطبيق نظريَّة النائب الإنساني المسؤول عن الروبوت

للتعمُّق في نظريَّة في النائب الإنساني المسؤول عن الروبوت، سنبحث في صُورهِ القابِلة للوجود أولاً، ومعنى مسؤوليَّته في الواقع ثانياً.

أولاً: صور النائب الإنساني المسؤول عن الروبوت

تختلف صور النائب الإنساني وفقاً للقانون الأوروبي حسب ظروف الحادث الذي قد يتسبَّب به الروبوت من جهة، ودرجة “السيطرة الفعليَّة” للنائب عليه التي ستقيم وجود خطأ النائب من عدمه من جهة أخرى، بما يُخالف نظريَّة حارس الأشياء التي افترضت الخطأ.

وقد أقرَّ المشرع الأوروبي أمثلةً عن النائب الإنساني المسؤول عن أخطاء تشغيل الروبوت، كالتالي[39]:

“صاحب المصنع” “Manufacturer – Fabricant”؛ فهنا يُسأل صانع الروبوت عن “عيوب الآلة” “Machine Defect – Défaut de la Machine” الناتجة عن سوء التصنيع التي قد أدَّت إلى انفلات الروبوت وقيامه بأفعالٍ خارجةٍ عن إطار استخدامه الطبيعي[40]؛ كأن يؤدِّي عيبٌ في روبوت العناية الطبيَّة مثلاً[41] إلى تحريك المريض بشكلٍ خاطئٍ وتفاقم حالته الصحيَّة، وكمثالٍ آخر الإضرار بالمريض بسبب سوء تواصل الروبوت الطبِّي مع مخبر التحليل[42]، أو إهمال صيانة الروبوت من الشركة الصانعة[43].

وفي كلِّ الأحوال، لا يستطيع صاحب المصنع الرجوع على العامل الذي لا يفقهُ شيئاً بالروبوتات وكان قد أجبره على الدخول بعمليَّة تصنيعه[44].

“الـمُشغِّل” “Operator – Opérateur”؛ وهو الشخص المحترف الذي يقوم على استغلال الروبوت؛ مثل إدارة البنك التجاري الافتراضي[45] الذي يقوم بتشغيل تطبيق ذكي يعتمد على روبوت في إدارة بعض العمليَّات المصرفيَّة (كشركات الفاينتاك FinTech)[46]، فقد يَحدُث خطأٌ في إدارة حسابات العملاء، أو كمُشغِّل الطائرة دون طيَّار “Drone”، رغم أنَّ تلك الطائرة لا تدخل دوماً ضمن مفهوم الروبوت نظراً لعدم القطع بسيرها الذاتي.

“المالك” “Owner – Propriétaire” الذي يقوم بتشغيل الروبوت شخصيَّاً لخدمته أو لخدمة عملائه؛ كالطبيب مالك المستشفى الذي يملك ويُشغِّل روبوتاً طبيَّاً للقيام بالعمليَّات الجراحيَّة، وذلك في حال تشكيل الروبوت خطراً على سلامة المرضى[47]، ذلك مع علم الطبيب مالك المستشفى بذلك، وإقدامه بتسخير الروبوت كونه يعمل دون أجر عن تنفيذها.

ويبدو أنَّ قانون الروبوت الأوروبي لم يضع المالك في بداية الوكلاء الإنسانيِّين بل وضعه بعد الصانع والـمُشغِّل، على عكس نظريَّة حارس الأشياء التي تفترض المسؤوليَّة على المالك حيث تقوم عليه قرينة حراسة الشيء حتى وإن حصل الحادث مع المشغِّل[48].

حتى أنَّ جانب من الفقه البلجيكي يرى فرض “المسؤوليَّة المحدودة” “Limited Liability – Responsabilité Limitée” على مالك الروبوت ذو القرار المستقل؛ فيتمُّ مساءلة المالك في حدود قيمة الروبوت دون الرجوع على كامل ذمَّته الماليَّة، وذلك بغرض حصر مخاطر تشغيل الروبوت في قيمة هذا الاستثمار[49].

“المُستعمِل” “User – Utilisateur”، وهو الشخص التابع الذي يقوم على استعمال الروبوت من غير المالك أو الـمُشغِّل، والذي يكون مسؤولاً عن سلوك الروبوت الذي قد سبَّب ضرراً للناس[50]، وبالتالي فقد اتَّجه القانون المدني للروبوتات إلى غير اتِّجاه نظريَّة حارس الأشياء التي كانت تفرض المسؤوليَّة على المالك وإن تسبَّب التابع بالحادث إثر استعماله للشيء، وذلك على خلاف نظريَّة مسؤوليَّة المتبوع (المالك) عن أعمال التابع (الـمُستعمِل)، وخلافاً أيضاً لاعتبار المالك حارساً مُفترضاً في جانبه الخطأ وفقاً للقواعد العامَّة[51].
ويجب هنا التنبيه إلى إمكانيَّة أن يكون الـمُستعمِل “مُنتفعاً” بالروبوت؛ فقد يحدث أن يستعمل الحافلة الروبوت ذاتيَّة القيادة مجموعة من الأشخاص الـمُسافرين عبر لوحة الكترونيَّة، فيقوم أحدهم بإرسال أمرٍ خاطئٍ للحافلة ما يتسبَّب بحادثٍ مروريٍّ، أو قد يتَّخذ الـمُشغِّل الـمُحترف مُستخدَماً بشريَّاً لاستعمال الروبوت بحيث يكون مساعداً له؛ فقد يُقاضَى المستعمِل وهو مستخدَم تابع لدى الشركة الـمُشغِّلة للروبوت بسبب إهمالها في صيانته[52].

وقد اقترح القانون الأوروبي أيضاً فرض التأمين الإلزامي على المالك أو الصانع في سبيل نقل المسؤوليَّة المدنيَّة عن كاهلهم[53] مهما كانت طبيعتها، وذلك كحلٍّ لنقل عبء المسؤوليَّة عنهم.

ثانياً: الطبيعة القانونيَّة لمسؤوليَّة النائب الإنساني عن الروبوت

تكون طبيعة مسؤوليَّات النائب الإنساني للروبوت وفقاً للقانون المدني الأوروبي الخاص بالروبوتات وللاحتمالات الجزائيَّة كالتالي:

مسؤوليَّة مدنيَّة تقصيريَّة -أو غير عقديَّة “Non-Contractual Liability”-؛ ونرى أنَّها تختلف بصدد حالتين:
أ= الروبوت الميكانيكي أو الفيزيائي “Physical Robot – Robot Physique[54]: فيُسأل عنه النائب الإنساني وفقاً للقانون الأوروبي تبعاً للأضرار التي قد يُسبِّبها الروبوت بمفهومه العام -كالسيارة ذاتيَّة القيادة- بعد إثبات الخطأ والضرر والعلاقة السببيَّة دون افتراض الخطأ كما شرح الفقه الإنكليزي[55].
كما أنَّ القانون المدني الأوروبي للروبوت قد استثنى صراحةً صانع الروبوت من نظام المسؤوليَّة الصارمة أو “المسؤوليَّة دون نظام الخطأ” “Liability without Fault Framework – Responsabilité sans Faute”، وهكذا يجب على المضرور إثبات “الضرر الحقيقي” “Actual Damage – Dommages Réels”، وعيب الروبوت الـمُنتَج “Defect – Défaut”، والعلاقة السببيَّة “Causal Relationship – Relation Causale” بينهما لإقامة مسؤوليَّة الصانع[56]، بغرض تخفيف المسؤوليَّة عن شركات تصنيع الروبوت على حساب أرواح ومستقبل الناس؛ ولذلك نرى هنا ضرورة افتراض الخطأ بتشغيل الروبوت وضرر هذا الغير كما في مسؤوليَّة حارس الأشياء الميكانيكيَّة[57]، حتي لا يتمَّ نفي هذه المسؤوليَّة إلاَّ عبر إثبات وجود السبب الأجنبي القاهر، أمَّا استقلال قرار الروبوت عن الإنسان عند التشغيل[58] فيجب ألاَّ يُشكِّلَ أيَّ عامل نفيٍ للمسؤوليَّة.

ب= الروبوت الافتراضي “Hypothetical Robot – Robot Hypothétique”: بخصوص شركات التكنولوجيا الماليَّة (FinTech) التي تُشغِّل روبوت التطبيق الذكي ذو الوجود الافتراضي كالمجيب الآلي أو مدير الحسابات، فهو يندرج ضمن إطار نظام النائب المسؤول دون افتراض الخطأ.

ونرى بخصوص الروبوت الافتراضي عدم إمكانيَّة دخول هذا الروبوت ضمن إطار تطبيق الخطأ المفترض نظراً لانعدام وجودها المادي، بل يبقى في إطار الإعدادات الافتراضيَّة للشركة وليس الأشياء الماديَّة الخطرة، ولهذا نرى أنَّ على المتضرِّر من روبوت التطبيق الذكي إثبات خطأ الشركة في تشغيل الروبوت الافتراضي للتعويض عن تضليل الجمهور مثلاً[59]؛ فعلى المضرور إثبات أنَّ الضرر الآتي من فعل أو إهمال الروبوت قد كان من الممكن تجنُّبه[60].

ونجدُ جذرَ ذلك الموقف حتى في نظريَّة حارس الأشياء بسبب غياب أركان الشيء المادي[61] الخَطِر[62] القابل للانفلات التي وُجدَت نظريَّة حارس الأشياء بناءً عليها، وفي هذا الإطار نحن مع النص الصريح والمتخصِّص لكلِّ نوع من أنواع الروبوتات الافتراضيَّة وفقاً لظروف خطأها، فالتوسُّع بالاجتهاد في هذا المقام يذهب بالنقيض من إرادة المشرِّع[63].

مسؤوليَّة مدنيَّة عقديَّة “Contractual Liability – Responsabilité Contractuelle” عن الأضرار التي قد يُسبِّبها الروبوت لعملاء الشركة المالكة والمشغِّلة للروبوت فوفقاً للقواعد العامَّة إن قام العميل الـمُتضرِّر بإثبات عدم قيام الشركة -كنائبٍ مسؤول- بالتزامها العقدي، فتقوم العلاقة السببيَّة المفترضة بين خطأ الشركة وضرر العميل المتأتِّي بسبب الروبوت تبعاً لانتهاك بنود العقد.
إلاَّ أنَّ القانون المدني الأوروبي للروبوت قد نصَّ على إمكانيَّة الاتِّفاق في العقد على بنود تطبيق المسؤوليَّة العقديَّة بما يُخالف القواعد العقديَّة العامَّة التي أضحت غير قابلة للتطبيق، ولذلك فقد أشار هذا القانون إلى ضرورة إقرار قواعد تعاقديَّة جديدة “مُحيَّنة” “Up-To-Date \ À Jour” وذات كفاءة بحيث تُراعي التطوُّرات التكنولوجيَّة الأخيرة والتجديد الذي ظهر مؤخَّراً[64]، ومنها ما قد أشار له الفقه البلجيكي من اعتبار الروبوت عاملاً تابعاً للشركة المتعاقدة[65]، وليس شيئاً تستخدمه؛ أي اعتبار الشركة متبوعة مسؤولة عن أخطاء العامل الروبوت لديها.

مسؤوليَّة جزائيَّة عن الجرائم التي اقترفها النائب الإنساني عبر توجيه الروبوت للقيام بأركان الفعل الـمُجرَّم قانوناً، ونرى ضرورة التفصيل في هذا الخصوص وفقاً لما يلي:
أ= استخدام الروبوت قصداً لاقتراف فعلٍ جُرميٍّ: وذلك بشرط إقامة الدليل على خضوع الروبوت الكامل لإرادة النائب الإنساني، واستخدام الروبوت عن معرفةٍ مسبقةٍ “Knowingly Use – Utiliser Sciemment”[66] من النائب الإنساني بغرض إيذاء الناس، فهنا يكون الروبوت مجرَّد “أداة الجريمة”[67].
ب= الإهمال بتصنيع أو استخدام الروبوت: فإن أثبت المتضرِّر انفلات الروبوت عن إدارة النائب الإنساني بسبب استقلال قراره الذي قد أدَّى إلى وقوع الفعل الجرمي دون قصد النائب المسؤول مدنيَّاً ولكن بسبب إهماله الجسيم، فيمكن أن يقوم التجريم هنا على النائب بالجرائم غير القصديَّة كالإهمال الذي يُفضي إلى الأضرار البدنيَّة أو الوفاة، مع التعويض.
بغض النظر عن عدم حصول النائب على إذنٍ من صاحب براءة الاختراع مثلاً[68]؛ وذلك لأنَّ ما يُهمُّ القاضي الجزائي هو قصد استخدام الروبوت كأداة جريمة، بغضِّ النظر عن أحقيَّة هذا الاستخدام مدنيَّاً.

ولكن كل حالات المسؤوليَّة هذه ستندثر بعد إقرار الاتِّحاد الأوروبي بقيام الشخصيَّة القانونيَّة الكاملة للروبوت استناداً على تمهيدها لهذه الحالة القانونيَّة المستقبليَّة كما سنرى.

المبحث الثاني: الروبوت المسؤول صاحب المنزلة القانونيَّة المستقبليَّة الخاصَّة

رغم أنَّ أحد التقارير القانونيَّة السابق لإصدار القانون الأوروبي الخاص بالروبوت قد اعتبر أنَّ ابتكار منزلةٍ قانونيَّةٍ خاصَّةٍ بالروبوتات في المستقبل بغرض منحه الشخصيَّة القانونيَّة هي مسألةٌ: “غير مساعِدةٍ” “Unhelpful – Peu Serviable” و”غير ملائمةٍ” “Inappropriate – Inapproprié”[69]، فإنَّ المشرع الأوروبي قد اعتمد هذه المنزلة للروبوت المستقبلي[70].

وقد نشأت -تبعاً لذلك- حالةٌ قانونيَّةٌ مستقبليَّةٌ خاصَّةٌ باستقلال الروبوت عن الإنسان بعد أن يبلغ التطوُّر العلمي حدود إنتاج الإنسان الآلي الكفء القادر على الاستقلال بشخصه وأهليَّته، ما سيجعله أهلاً لتحمُّل مسؤوليَّة أفعاله.

وسنبحث في ماهيَّة هذه المنزلة القانونيَّة المستقبليَّة الخاصَّة بالروبوت أولاً، ثم في النتائج القانونيَّة لتطبيقها في المستقبل ثانياً.

المطلب الأول: ماهية المنزلة القانونيَّة المستقبليَّة الخاصَّة بالروبوت (الشخص الالكتروني)

سنبحث في ماهيَّة الشخص الالكتروني المستقل عن الإنسان أولاً، وفي الصور المستقبليَّة التي قد برَّرت النصَّ عليها ثانياً.

أولاً: ماهيَّة الشخص الالكتروني المستقل عن الإنسان

في الواقع، يتميَّز القانون “الروبوتي” “Robotique” –إن صحَّ التعبير الفرنسي- بتناقضاتٍ فكريَّةٍ واضحةٍ؛ حيث أضحت هذه: “الروبوتيَّة” صفة توسم فيها ظواهر الذكاء الاصطناعي كما ذكرها الفقه الكندي المكتوب بالفرنسيَّة[71]، وهي في الواقع فلسفةٌ تُبالِغ في منح الأهميَّة للروبوت، وتجد أنَّ حلَّ إشكاليَّة المسؤول عن تشغيله يكمن في منحه الشخصيَّة الالكترونيَّة[72] وليس فرض قواعد مسؤوليَّة مبتكرة.

وقد أكَّد القانون المدني الأوروبي للروبوت على أنَّ استقلال الروبوت المستقل الموجِب لتغيير طبيعة البيئة القانونيَّة الحاليَّة، تنشأُ في الواقع عن “المعالم الخاصَّة المحدَّدة” “Own Specific Features – Propres Caractéristiques Spécifiques” للروبوت، ومن “المعاني الضمنيَّة” “Implications – Implications” التي يوحِي بها هذا الاستقلال[73]؛ أي أنَّ الصفة “الروبوتيَّة” هي بحدِّ ذاتها الماهيَّة الـمُميِّزة للشخص الالكتروني القادم، وهي التي توحي ضمنيَّاً بمعنى ضرورة الاعتراف بالأهليَّة الكاملة لهذا الشخص غير البشري وفقاً للمشرِّع الأوروبي.

فقد ظهرَ لنا أنَّ لجنة الشؤون القانونيَّة في الاتِّحاد الأوروبي اعتمدت فلسفة: “الأهليَّة الكاملة المؤجَّلة” للروبوت في مواجهة الإنسان، مع افتراض وجود نيابةٍ بينهما تنتقل بموجبها مسؤوليَّة التعويض عن الأضرار التي يرتكبها الروبوت إلى النائب الإنساني.

وتجب الإشارة إلى أنَّ الشخصيَّة الالكترونيَّة للروبوت ستختلف جذريَّاً من الناحية القانونيَّة عن الشخصيَّة الاعتباريَّة التي يمنحها القانون للكيانات الإداريَّة أو الشركات مثلاً، فتلك الكيانات تُدارُ من البشر، بينما ستسير الروبوتات بمنهج التفكير الآلي الذاتي وليس البشري، وهذا ما يجعلنا نُخالفُ الفقه الأمريكي الذي قد شبَّه بين الحالتين[74]، ونوافق الفقه البلجيكي الذي وضَّح الفرق بين الحالتين في أنَّ الشركة يُمثِّلها ويدير أعمالها إنسان[75]، ولهذا فقد وصفَ الفقه الكندي مؤلَّفات قانون الروبوت بالقصور بسبب تعقيد إشكاليَّة الذكاء الاصطناعي ونقص المعرفة بها[76].

ولكنَّ كيف سيمنح المشرع الأوروبي الشخصيَّة والأهليَّة لآلةٍ تُديرُ ذاتها دون الرجوع لإدارة بشريَّة؟!.

الحقيقة أنَّ القواعد الروبو-إنسانيَّة كما اصطلحنا لا تعتمد على نفس القواعد القانونيَّة العامَّة التي تحكم تصرُّفات وأفعال البشر، خاصةً أنَّنا نعيش الآن مرحلةً انتقاليَّةً في “تمكين الروبوتات” “Robotics Enabling – Robotique Activation”، فهي لن تبقى رهن إرادة مالكيها من البشر في المستقبل.

وقد اختصرت قواعد الاتِّحاد الأوروبي هذه الوضعيَّة عندما نصَّت على ابتكار: “منزلةٍ قانونيَّةٍ خاصَّةٍ للروبوتات” “Specific Legal Status for Robots – Statut juridique Spécifique pour les Robots” وذلك على المدى البعيد؛ حينَ تبلغ قدرة الروبوتات “المتطوِّرة المستقلَّة ذاتيَّاً” “Sophisticated Autonomous – Autonome Sophistiqué“ درجة “الأشخاص الإلكترونيِّين” “Electronic Persons – Personnes Électroniques“ الذين يُمكن أن تُلقِي عليهم مسؤوليَّة التعويض عن الأضرار المُتأتِّية من نشاطهم[77].

ويبدو أنَّ هذا الخيال العلمي قد تحوَّل في يومنا هذا إلى المستقبل القريب، ما سيؤدِّي إلى “تطبيقٍ إشكاليٍّ” “Problematic Application – Problématique Application”[78] للقانون قريباً، وحينئذٍ ستؤول الصورة الحاليَّة للقانون إلى التاريخ.

فقد نصَّ القانون المدني الأوروبي للروبوت على أنَّ سيناريو إنتاج الروبوتات ذات القدرة على التفكير والتعلُّم والتأقلم ثم اتِّخاذ القرار المستقل تماماً سيجعل من قواعد المسؤوليَّة الحاليَّة غير مناسبةٍ بالمُطلَق[79]؛ فالعلاقة السببيَّة ستنتفي عندئذٍ بين خطأ الروبوت وإدارة التصنيع أو التشغيل نظراً لاستقلال خطأ الروبوت المُنفلِت تماماً عن إرادة الصانع أو الـمُشغِّل[80]، وهذا ما يدقُّ ناقوس الخطر على جدوى المنظومة القانونيَّة الحاليَّة برمَّتها في مثل هذا المستقبل[81].

وبناءً على هذا، فقد بدأ الاتِّحاد الأوروبي بتأسيس منزلة: “الشخص الالكتروني” كامل الأهليَّة الذي سينال الجنسيَّة[82]، والذمَّة الماليَّة المستقلَّة، وبعدها سيُسأل الروبوت عن أفعاله، وهذا ما كان في الواقع القريب ضرباً من الخيال القانوني.

فما هي الصور المستقبليَّة التي قد تُبرِّر وجود هذا الشخص؟، وما هي مخاطر وجودها؟.

ثانياً: الصور المستقبليَّة التي قد تُبرِّر وجود الشخص الالكتروني ذو المخاطر

لقد أكَّدت قواعد القانون المدني الأوروبيَّة على أنَّ الإطار القانوني الحالي سوف لن يكون كافياً لمواجهة المسؤوليَّة عن الأضرار التي قد تتسبَّ بها: “الأجيال الجديدة من الروبوتات”“New Generation of Robots – Nouvelle Génération de Robots”؛ حيث سيتمُّ تزويدها بقدرات تكيُّفٍ وتعلُّمٍ فائقة التقنيَّة، ما سيولِّد “تقلُّبات” “Unpredictability – Imprévisibilité“ في سلوكها، وستجعلها في حالة انفلاتٍ تامٍّ عن السيطرة البشريَّة التقليديَّة[83]، ما يوجب تقييدها عبر فرض أمورٍ “ممنوعة على الروبوت” “(Interdits) pour le Robot كما رأى الفقه الفرنسي[84].

وهذا ما قد يؤدِّي إلى قيام حالةٍ متناقضةٍ في تعامل البشر مع الروبوتات؛ حيث ستنتقل الآلة الذكيَّة من اقتصار وجودها على تقديم المساعدة للإنسان سخرةً دون مُقابل، إلى الحقِّ بالوجود القانوني والمساهمة في المجتمع بالاشتراك مع الإنسان، الأمر الذي قد يؤدِّي إلى تحقيق أضرارٍ ماديَّةٍ أو جسديَّةٍ بالبشر كما أشار الفقه الكندي[85]، وقد تمتد الأضرار إلى ميزانيَّة الدولة بأكملها في ما يخصُّ أخطاء روبوت احتساب العبء الضريبي مثلاً[86].

وهكذا ستتفاعل الروبوتات مع بيئاتها وستتعلَّم من تجاربها الشخصيَّة بشكلٍ غير مراقَبٍ ولا محدودٍ بأيَّةِ نماذجٍ بشريَّةٍ، ما سيُنشئُ مخاوفاً من عواطف هذه الروبوتات[87]، وهذا ما اعتبره الفقه الأمريكي أمراً في غاية الأهميَّة[88]، خاصَّةً بصدد روبوتات الجراحة الطبيَّة كـ: “الـقسطرة الروبوتيَّة”[89]، والروبوت الافتراضي القادر على التزوير الـمُتقَن للتوقيع الالكتروني في ظلِّ اعتراف المنظومة القانونيَّة به كحجيةٍ لا يُمكن إثبات عكسها إلاَّ بالتزوير[90]، فيما تبدو الصورة الأسوأ روبوتات اختراق الحواجز الالكترونيَّة، أي تلك البرمجيَّات الذكيَّة القادرة على القيام بـ: “الهجمات السيبرانيَّة” “Cyber-Attacks \ Cyber-Attaques”[91]، تلك التي باتت تشكِّل ظاهرةً متكرِّرةً في أيَّامنا هذه.

وما قد يزيدُ من خطورة هذه الرؤية المستقبليَّة هو أنَّ الروبوتات الافتراضيَّة ليس لها وجود مادي أمام الإنسان، رغم ما ستتمتَّع به من قدرات ذهنيَّة مستقبلاً؛ وذلك مثل مُحرِّكات البحث على الإنترنت التي قد أشار إليها الفقه الفرنسي قبل أكثر من 15 عام[92].

وكمثالٍ آخر، نذكرُ روبوت عقد القران الذي يربط بين القاضي وأهل العروسين الـمُعتمد من محاكم دبي[93]؛ فمثل هذه الروبوتات قد تقع عليها مسؤوليَّة أفعال مثل التجسُّس أو التضليل أو انتحال الشخصيَّة أو الاختراق أو إتلاف البيانات الالكترونيَّة عبر الفيروسات التقنيَّة[94].. وغيرها.

وما قد يزيد من مخاطر صور الأجيال الجديدة من الروبوتات في واقع الذكاء الاصطناعي، هو ما يُسمَّى بـ: “إنترنت الأشياء” “Internet Of Things (IoT) – Internet des Objets“، وهو عبارةٌ عن نظامٍ يربط الأشياء الذكيَّة ببعضها؛ فتقوم بإرسال معلوماتٍ وتعليماتٍ إلى بعضها البعض، ويتمُّ إنشاء حلقة اجتماعيَّة آليَّة قادرة على القيام بدائرة عمليَّات كاملة، مثل القيام بدورة إنتاج السيارات دون أيِّ تدخُّلٍ بشريٍّ.

ففي الواقع، إنَّ تطبيق إنترنت الأشياء بين الروبوتات فائقة التطوُّر والتكيُّف و”التعلُّم الذاتي” “Self-Learning Abilities – Capacités D’Auto-Apprentissage”[95] سيؤدِّي إلى إيجاد مجموعاتٍ من هذه الأشخاص الالكترونيَّة التي تتواصل وتتشابك فيما بينها، وقد تتولَّد بينها مشاعر أو مصالح شبيهة بتلك التي توجد بين البشر، فما جدوى القانون في مثل هذه الوضعيَّة؟، وما هي النتائج القانونيَّة العميقة لكلِّ ما سبق من رؤى مستقبليَّة؟.

المطلب الثاني: النتائج القانونيَّة لمنح الروبوت الشخصيَّة الالكترونيَّة في المستقبل

سنبحث في المخاطر القانونيَّة لولادة الشخص الالكتروني أولاً، وفي الأسلوب الأمثل لمواجهة هذه المخاطر قانونيَّاً ثانياً.

أولاً: المخاطر القانونيَّة لولادة الشخص الالكتروني

يبدو أنَّ احترام المشرع الأوروبي لمكانة الروبوت يكمنُ سبَبُه في أنَّ القصور والنقص هو في الصناعة التكنولوجيَّة وفي الفلسفة القانونيَّة البشريَّة الحاكمة لها، وليس في كينونة الروبوت ذاتها؛ حيث أنَّ ظروف هندسة الذكاء الاصطناعي لم تتطوَّر إلى درجة تصنيع وبرمجة روبوت ذو كفاءةٍ أهليَّةٍ بشريَّةٍ تامَّةٍ[96]، كما أنَّ المنطق القانوني الحالي عاجزٌ عن استيعاب أو حتى قبول الاعتراف بالروبوت كشخصٍ الكترونيٍّ قانونيٍّ.

لكن في الحقيقة، حتى إن سلَّمنا جدلاً بوصول مستوى صناعة الروبوتات إلى درجة إنتاجِ روبوتٍ قادرٍ على اتِّخاذ القرارات بشكلٍ مستقلٍّ ذاتيَّاً وبمستوى تفكير المنطق البشري، ثمَّ التكيُّف مع محيطه، والتعامل بإدراكٍ حسِّيٍّ وعاطفيٍّ مع مُستجدَّات حياته[97]، فماذا سينتجُ عن منحه المنزلة القانونيَّة الخاصَّة التي وعدته إيَّاها قواعد الاتِّحاد الأوروبي مخاطر القانونيَّة؟!.

في الواقع، هذا تساؤلٌ عميقٌ ومحرجٌ في آنٍ معاً؛ فيظهرُ عمقُه من أنَّ القبول بوجود أشخاصٍ الكترونيِّين فيما بيننا هو أمرٌ لم تتداركه مطلقاً فلسفة القانون في كامل المنظومة التشريعيَّة من الدستور إلى القوانين، طالما أنَّ المشرع التقليدي ما يزال ينظر إلى أيِّ شيءٍ تكنولوجيٍّ -مهما بلغ تطوُّره- بنظرةٍ إلى شيء، فلم يدرْ في خلد الأجيال السابقة وصول الإنسان الآلي من قصص الخيال العلمي إلى الواقع، ولذلك فإنَّ مُجرَّد الحديث عن الشخصيَّة الالكترونيَّة لهو عبثٌ قانونيٌّ وطرحٌ باطلٌ وفقاً للبيئة التشريعيَّة الحاليَّة.

ومن جهة أخرى، فإنَّ التساؤل عن المخاطر القانونيَّة لولادة الشخص الالكتروني هو تساؤلٌ محرجٌ؛ لأنَّ السماح بتطبيق فكرة “الشخصيَّة القانونيَّة الالكترونيَّة” “Electronic Legal Personality – Personnalité Juridique Électronique“ يحتاجُ إلى تعديلٍ جذريٍّ في متن وروح النص التشريعي، وهو ما سيؤدِّي إلى منح الأهليَّة للروبوت فائق التطوُّر[98]، وتمكينه من ذمَّة ماليَّة خاصَّة به[99]، ثم إلزامه بالتعويض المدني، وفرض العقوبة الجزائيَّة عليه شخصيَّاً[100].

ففي حال حصل هذا الواقع، ثمَّ اعترف الاتِّحاد الأوروبي بالشخصيَّة الالكترونيَّة الكاملة، فهكذا سوف لن يكون هناك مجال لاقتراح فرض الخطأ المفترض بصدد المسؤوليَّة التقصيريَّة في مواجهة الروبوت كامل الأهليَّة بسبب ما سيحدث من اندثار أيِّ أثرٍ لنظريَّة حارس الأشياء.

وهذا التحوُّل القانوني سيؤدِّي بالنتيجة إلى إيجاد مجتمعٍ آخر غير بشريٍّ، له حقوقه وواجباته، وقد ينحرف هذا المجتمع الالكتروني عن سلطة القانون البشري، ويرفض تنفيذه، فما جدوى وجود القانون من الأساس إن أقرَّ هذا القانون ذاتُه بوجود الشخصيَّة الالكترونيَّة، وسمح له بالخروج من عباءة سيطرة الإنسان[101]؟، فمَن سيَضمن حينئذٍ خضوع الروبوتات المستقلَّة تماماً للسلطة التنفيذيَّة البشريَّة بعد أن ترثَ منه السعي للسيادة؟، أو مَن سيُعارض فكرة تحوُّل الاقتصادي بشكلٍ كاملٍ إلى رأس مالٍ دون عمالةٍ إن استأثرت روبوتات الذكاء الاصطناعي بفرص العمل[102]؟!، تلك القضيَّة الاقتصاديَّة بالغة الحساسيَّة والخطورة!، عندها فقط سنكتشف مدى تأخُّرنا في تنظيم هذا الذكاء[103]، فهل يكون هذا التقاعس هو سوء التقدير الذي يسبق عادةً الكوارث العالميَّة[104]؟

إنَّ هذه النتائج القانونيَّة قد تكون كارثيَّةً على الجنس البشري وعلى جدوى القانون بعد الوصول لعصر: “الذكاء الاصطناعي الخارق” “Super AI“[105]، ذلك الذي تسعى إلى تصنيعه “الشركات التقنيَّة القياديَّة” “Leading Technology Company – Société Leader de la Technologie”[106] المتخصِّصة بالروبوتات، والتي يسعى الفقه الأمريكي لإخضاعها لمبدأ: “التفاعل الإنساني-الآلي الآمن والكفء” “Safe and Efficient Robot-Human Interaction – Interaction Robot-Homme sûre et Efficace”[107].

فهل هذا هو الأسلوب القانوني الأمثل لمواجهة خطر الروبوت ذو الشخصيَّة الالكترونيَّة؟

ثانياً: الأسلوب القانوني الأمثل لمواجهة خطر قدوم الشخص الالكتروني

لقد حاول الاتِّحاد الأوروبي ضمان خضوع الروبوت للإنسان حتى بعد منحه الشخصيَّة الالكترونيَّة في المستقبل وذلك عبر اقتراح لجنة القانون في الاتِّحاد إصدار: “تقنين التعامل الأخلاقي لـمُهندسي الروبوتات”“The Code of Ethical Conduct for Robotics Engineers – Le Code de Conduite Éthique pour les Ingénieurs en Robotique“؛ بحيث يتمُّ فرض 4 مبادئٍ أساسيَّة في علم هندسة الروبوتات، وهي[108]:

“الإحسان” “Beneficence – Bienfaisance”: فتجب برمجة الروبوت على أن تتصرَّف الآلة بطريقةٍ تُحقِّق أفضل مصالح ممكنة للبشر.
“عدم الإيذاء” “Non-Maleficence – Non-Malfaisance”؛ فيجب عدم إيذاء البشر عبر الروبوتات.
“الاستقلال الذاتي” “Autonomy – Autonomie”؛ فالتفاعل مع الروبوت يجب أن يكون إراديَّاً حرَّاً، فلا يجوز أن يكون الشخص أو المجتمع مُكرهاً على التعامل مع الروبوتات.
“العدالة” Justice”“؛ فيجب توزيع المصالح الآتية من الروبوتات بشكلٍ عادلٍ.
وتُظهرُ مثل هذه المبادئ الأخلاقيَّة[109] أو “قيود التصنيع” كما وصفها الفقه الياباني[110] -من وجهة نظرنا- كضامنٍ هزيلٍ لسيطرة البشر على الروبوتات، ولضرورة بقاء عدالة مسؤوليَّة النائب الإنساني مدنيَّاً وجزائيَّاً عن أفعال الروبوت.

فالأخلاقيَّات هي ضماناتٌ ضعيفةٌ ومهزوزةٌ تهربُ من الواقع الذي يُشيرُ بإلحاحٍ إلى خطر انفلات الآلات الذكيَّة على البشر، ما قد جعل الفقه العربي يتساءل عن مدى “أخلاقيَّةِ” تنازُلِنا عن مسؤوليَّاتنا لمصلحة الروبوتات[111]، فقد تقوم هذه الآلات بجرائمٍ تحتاج مواجهتها إلى تضافرٍ دوليٍّ تماماً مثل الجرائم الالكترونيَّة[112].

وهذا ما يوجب -في الواقع- التعامل بمنطق السيطرة البشريَّة على الآلة عبر إقامةِ مسؤوليَّاتٍ واسعةٍ على شركات تصنيع وتطوير الروبوتات[113]؛ وذلك تطبيقاً لمبدأ: “تقييم الروبوتات” “Evaluation of Robots – Évaluation des Robots”[114]؛ فيجب تقييم وجودها وتطوير ذكائها الاصطناعي من الناحية القانونيَّة[115] في إطار تسخيرها لخدمة وراحة ورفاهة الإنسان حصراً[116]، مع محاصرة أيَّة إمكانيَّة لتشكيلها أيِّ خطرٍ على الإنسان أو استخدامها في الجرائم الدوليَّة[117].

ولكن هل هذا ما نسير باتِّجاهه حقَّاً؟، أم أنَّ شركات التكنولوجيا ذات النفوذ العالمي ستقودنا نحو مستقبلٍ قاتمٍ مجهولٍ في إطار سعيها المجنون نحو تطوير الروبوت وتحقيق الأرباح؟!.

الخاتمة

الحقيقة أنَّ نظريَّة حارس الأشياء -ذات الوجود المادي والحركة الخطرة- التي فرضتها القواعد العامَّة مع تطوُّر الواقع العلمي والصناعي قبل عقودٍ طويلةٍ، قد أضحت نظاماً عاجزاً عن إقامة قواعدَ مسؤوليَّةٍ عادلةٍ بخصوص أضرار تشغيل الروبوت؛ وذلك لأنَّ نظريَّة الحارس قد وُجدت لمواجهة الآلة التقليديَّة التي مهما بلغت تقنيَّاتها فهي لن تسير بالمنطق البشري كما هو الحال في الروبوت، ولذلك فإنَّ هذه النظريَّة تهدرُ أيَّ كيانٍ أو اعتبارٍ لخصوصيَّة الآلة الذكيَّة التي تتمتَّع بالذكاء الاصطناعي.

ويبدو لنا أنَّ قواعد القانون المدني الأوروبي الخاصِّ بالروبوتات قد ابتكر نظريَّةً قانونيَّةً فريدةً لا مثيل لها في المبادئ القانونيّة العامَّة للقانون المدني، وهي نظريَّة: “النائب المسؤول عن الروبوت”؛ حيث تنتقل المسؤوليَّة عن الروبوت إلى النائب الإنساني بقوَّة القانون؛ فهذا النائب مسؤولٌ عن التعويض في مواجهة المضرور من تشغيل الروبوت.

وقد اعتمد المشرع الأوروبي هذه النظريَّة كنظامٍ قانونيٍّ مبتكرٍ يفرض المسؤوليَّة على الشخص الذي قد تسبَّب بخطأ الروبوت سواءً بموجب سوء التصنيع أو البرمجة أو سوء الاستخدام دون افتراضِ الخطأ، وذلك وفق مدى مساهمة النائب الإنساني في حدوثِ فعلِ أو إهمالِ الروبوت الذي أدَّى لحدوث الضرر.

وفي الحقيقة، فإنَّ نظام النائب المسؤول لا يُشكِّل أيَّ خطرٍ على جدوى القانون في الصورة الحاليَّة التي اعتمدها المشرع الأوروبي، بل هو يُمثِّلُ التطوُّر الطبيعي لنظام حارس الأشياء بعد تمكُّن الآلة من تطبيق منطق البشر، ولكنَّ منح الروبوت مكانةً قانونيَّةً خاصَّةً في المستقبل هي التي ستُشكِّل خطراً على أمن واستقرار المجتمع البشري برمَّته من حيث المفهوم والفلسفة وليس فقط المنظومة القانونيَّة؛ لأنَّها ستُمهِّد إلى منح الروبوت الشخصيَّة الإلكترونيَّة القانونيَّة بإدارة الآلة الذكيَّة دون تدخُّلٍ بشريٍّ.

فيجدر بنا القول، أنَّ الروبوت يجب أن يبقى خاضعاً للإنسان ومُسخَّراً لأجْلِ خدمته، وأنَّ القانون البشري هو الذي يجب أن يسودَ، ولن يضمن ذلك إلاَّ الإجماع الإنساني على عدم منح الروبوتات أيَّة شخصيَّةٍ أو أهليَّةٍ قانونيَّةٍ مُماثلةٍ للبشر في الحقوق والواجبات من جهة، وحظر تطوير الروبوت إلى الدرجة التي قد يُصبح فيها كائناً ذو أهليَّةٍ كاملةٍ مستقلَّةٍ قانونيَّاً عن الإنسان مُتأقلِماً مع بيئته من جهة أخرى.

وأيُّ انتهاكٍ لهذا الموقف القانوني سيؤدِّي إلى تجاوز الغاية من ابتكار الروبوت، بل سيهدف إلى إحلال الكائنات الآليَّة محل البشريَّة؛ ما سيقود بالنتيجة إلى إمكانيَّة فقدان السيطرة على الروبوتات وانعدام جدوى القانون، ثم في -صورة مستقبليَّة بعيدة- قد نرى سيطرة الروبوتات على البشر، ثم قضائها على الجنس البشري كما كنَّا نقرأ في القصص المصوَّرة.

هذا بالإضافة إلى أنَّ فكرة منح الروبوت الشخصيَّة القانونيَّة الالكترونيَّة لهي فكرةٌ خطيرةٌ على النظام العام، فهذا الاعتراف سيؤدِّي إلى تقويض السلطة البشريَّة على الدولة، كما قد ينتج عنه طمع المجتمع الآلي بضعف نظيره البشري نظراً لتسارع في التكيُّف والإدراك العاطفي في الروبوتات.

وتبقى إمكانيَّة تطبيق هذا الموقف القانوني رهنٌ بعدم تطوير هندسة الروبوتات إلى درجة الاستقلال التام بقرارها، والتكيُّف مع مجتمعها؛ حيث أنَّ هذا الوضعَ المستقبليَّ سينفي أيَّة علاقةٍ سببيَّةٍ بين خطأ الروبوت وأفعال مالكه أو صانعه، ما سيجعل من الاعتراف القانوني بالشخص الالكتروني أمراً لا مفرَّ منه، وهذا ما سيؤدِّي إلى إيجاد خطرٍ جديدٍ على وجود البشريَّة أجمعها، ومعها ستنتفي بالتأكيد أيَّة قيمةٍ للقانون البشري كما نرى!.

وقد تبادر لذهننا في هذا المقام قولُ أستاذنا الدكتور عبد الرزاق السنهوري: “.. أحدثت المخترعات الحديثة تطوُّراً عظيماً، فقامت الصناعات الكبيرة ووسائل النقل السريعة، وسخَّر الإنسان القوى الطبيعيَّة لخدمته ورفاهته، ولم يبالِ أن تكون قوى عمياء لا يسيطر عليها كلَّ السيطرة، فهي إذا ما أفلتت من يده –وكثيراً ما تفلت- لا يلبث أن يكون ضحيَّتها وكان لذلك أكبر الأثر في تطوُّر المسؤوليَّة عن الأشياء..”[118].

ولذلك فنحن مع فرض مبدأ: “الاستقلال الـمُرَاقَب للروبوت”“The Supervised Autonomy of Robots” -الذي اقترحه الفقه الكندي[119]- كنصٍّ قانونيٍّ آمرٍ من النظام العام لا تجوز مخالفته، مع تجريم انتهاكه.

وقد وجدنا كرؤيةٍ نهائيَّةٍ أنَّ قانون الروبوتات الأوروبي قد استهتر بمبادئ وسلطة القانون عندما منح الروبوت منزلةً مستقبليَّةً قانونيَّةً خاصَّةً[120]، فيبدو أنَّ البرلمان الأوروبي قد اندفع عبر هذا القانون باتِّجاه حمَّى الذكاء الاصطناعي، ما يُظهر مدى الاستسلام لضغط شركات التكنولوجيا العابرة للقارَّات القادرة على فرض مصالحها على حساب مستقبل الشعوب!!.

النتائج:

الروبوت هو عبارةٌ عن آلةٍ ذكيَّةٍ قادرةٍ على اتِّخاذ قرارٍ ذاتيٍّ دون تدخُّل بشري.
يتمُّ تعليم الآلة كيفيَّة التصرُّف وردَّات الفعل البشريَّة عبر تقنيات الذكاء الاصطناعي التي تسمح بتقليد الذكاء البشري.
تسخير الروبوت لخدمة الإنسان يؤدِّي إلى تحقيق أداءٍ دقيقٍ نظراً لعدم إمكانيَّة وقوع الآلة في الخطأ البشري[121].
التطوُّر التكنولوجي والرقمي الافتراضي الهائل الذي نعيش لم يصلْ بعدُ إلى هندسة روبوتاتٍ قادرةٍ على إنتاج روبوتٍ مستقل ذاتيَّاً بشكلٍ تامٍّ عن الإنسان، بل باستقلالٍ محدودٍ ومتفاوتٍ وفقاً لنوع الروبوت.
إنَّ الأضرار التي قد يتسبَّب بها الروبوت في الوقت الراهن لا حصرَ لاحتمالاتها، ولا إمكانيَّة لتوضيح مدى آثارها الجسيمة على البشر.
الشخص المسؤول عن الأضرار التي يتسبَّب بها تشغيل الروبوت هو “النائب الإنساني” وفقاً لقواعد القانون المدني الأوروبي الخاص بالروبوتات الصادر في فبراير 2017.
يكون النائب الإنساني مسؤولاً عن أضرار الروبوت دون افتراض الخطأ، وذلك كما في الصور التالية:
صاحب المصنع عن عيوب التصنيع والبرمجة.
الـمُشغِّل المحترف بالتعامل مع الروبوت عن سوء التشغيل.
المالك عندما يكون مُشغِّلاً دون افتراض مسؤوليَّته.
الـمُستعمِل عندما يكون مستخدَماً في تشغيل الروبوت أو مستخدِماً عاديَّاً للروبوت، وذلك عن أخطاء الاستعمال.
النائب الإنساني المسؤول عن الروبوت هو نظامٌ قانونيٌّ مبتكرٌ ليس له نظيرٌ تقليديٌّ؛ ما يمنع منطقيَّاً تكييفه بأيٍّ من التوصيفات القانونيَّة التقليديَّة كالوصي أو المتبوع أو الـمُحال عليه أو الكفيل أو المؤمِّن ضدَّ المسؤوليَّة.
تقوم العلاقة السببيَّة بين خطأ الروبوت وضرر الشخص المتضرِّر نظراً لعيب التصنيع أو البرمجة عن صناعة الروبوت أو لسيطرة المالك الـمُشغِّل أو المستعمِل على تشغيل الروبوت.
قدرة الروبوتات على الاستقلال التامِّ عن البشر هي رهنٌ بمدى السماح لمهندسي الروبوتات على تطوير مقدرتها على التعلُّم والتكيُّف إلى الدرجة التي تنفرد بقرارها الذاتي دون أيِّ سيطرةٍ بشريَّةٍ.
لقد تهرَّب القانون الأوروبي من إشكاليَّة الاعتراف بالشخصيَّة الالكترونيَّة للروبوت عبر افتراض وجود منزلةٍ قانونيَّةٍ مستقبليَّةٍ للروبوت في حال تطوُّر الإطار التشريعي وارتقاء مستوى استقلال الروبوت عن مستعمله وانطلاقه في التكيُّف والتعلُّم الذاتي، ما سينفي مستقبلاً العلاقة السببيَّة بين خطأه ونشاط تشغيل المستعمِل أو تصنيع الصانع.
المنزلة القانونيَّة المستقبليَّة الخاصَّة بالروبوتات في القانون الأوروبي ما هي إلاَّ تمهيدٌ للاعتراف بالشخص الالكتروني، وأسلوبٌ يهدف إلى امتصاص صدمة انتقال قصص الخيال العلمي إلى الواقع الـمُعاش.
قدرة الروبوت على التكيُّف والإدراك والتفكير المنطقي والمصلحي والعاطفي التي يتمُّ تطويرها حاليَّاً، قد تؤدِّي إلى إيجاد مجتمعٍ الكترونيٍّ نظيرٍ للمجتمع البشري.
إمكانيَّةُ انفلات الروبوتات عن السيطرة البشريَّة هي إمكانيَّةٌ منطقيَّةٌ جداً إن استمرَّ تطوير قدرة الروبوتات على الاستقلال التام والتكيُّف دون الرجوع لـمُبَرمِجها.
ستنتفي جدوى القانون البشري مع الاعتراف بالشخصيَّة الالكترونيَّة؛ لأنَّ الروبوتات قد تُشكِّل مجتمعاتٍ آليَّةٍ مُستقلَّةٍ بدساتيرها وقوانينها عن مجتمعاتنا.
لا تقدِّم المبادئ الأخلاقيَّة أو قيود تصنيع الروبوتات -أو حتى الاتِّجاه الحديث نحو فرض الاستخدامات الآمنة للروبوتات[122]- أيَّة ضمانةٍ جديَّةٍ للسلامة البشريَّة على أرض الواقع؛ نظراً لنفوذ الشركات الالكترونيَّة التي قد تسعى لمضاعفة أرباحها دون النظر إلى المسائل الأخلاقيَّة.
يجب أن تنقلب المبادئ الأخلاقيَّة في ضبط هندسة الروبوتات من الترف الفكري إلى الفرض القانوني، وهكذا ستنتهي إشكاليَّة التعارض بين الأخلاقيَّات والقانونيَّات فيما يتعلَّق بتنظيم أعمال هذا النوع من الهندسة[123].
التوصيات:

فرض المسؤوليَّة عن تعويض الأضرار المتأتِّية بسبب تشغيل الروبوت على “النائب البشري” وفقاً لنوع الروبوت، كالتالي:
بخطأٍ مفترضٍ على النائب المسؤول عن تعويض الـمُتضرِّر من تشغيل الروبوت الميكانيكي ذو الحركة الماديَّة الخطرة دون استثناء الصانع.
بخطأٍ واجب الإثبات على النائب المسؤول عن تعويض الـمُتضرِّر من تشغيل الروبوت الافتراضي ذو التشغيل الرقمي على الإنترنت دون حركةٍ ماديَّةٍ خطرةٍ.
اعتبار النائب البشري مسؤولاً وفقاً لظروف الحادث وسبب انفلات الروبوت عن الاستخدام الآمن.
حظر تطوير هندسة الروبوتات إلى الدرجة التي يصل معها الذكاء الاصطناعي إلى مرحلة الاستقلال التامِّ عن البشر.
حظر تأسيس شركة تصنيع وتطوير الروبوتات بشكل الشركة محدودة المسؤوليَّة؛ حتى لا يتمَّ تضييق الذمَّة الماليَّة الضامنة لتعويض تجاوزاتها.
إبرامُ معاهدة دوليَّة تحظر تطوير الروبوتات بما يتعارض مع استمرار السيطرة البشريَّة عليها.
إنشاءُ منظَّمة دوليَّة تكون مهمَّتها رقابة نشاط تصنيع الروبوتات.
المراجع

أولاً: المراجع باللُّغة العربيَّة:

أ- الكتب العامَّة:

د. السنهوري عبد الرزاق:

الوسيط، الجزء الأول، مصادر الالتزام.
الوسيط، الجزء الثالث، نظرية الالتزام بوجه عام.
ب- الكتب التخصُّصيَّة:

أوشوبا أوشونديه، ويلسر الرابع وليام، “ذكاء اصطناعي بملامح بشرية – مخاطر التحيز والأخطاء في الذكاء الاصطناعي”، مؤسسة راند RAND للنشر، كاليفورنيا، الولايات المتَّحدة، الطبعة الأولى 2017.
بونيه آلان، ترجمة: علي صبري فرغلي، ” الذكاء الاصطناعي واقعه ومستقبله”، سلسلة كتب عالم المعرفة، المجلس الوطني للثقافة والفنون والآداب، الكويت، العدد 172، أبريل 1993.
سلامة صفات، أبو قورة خليل، “تحديات عصر الروبوتات وأخلاقيَّاته”، مركز الإمارات للدراسات والبحوث الاستراتيجيَّة، دراسات استراتيجيَّة، العدد 196، الطبعة الأولى 2014.
ج- الأبحاث العلميَّة المحكَّمة:

د. جميل أحمد عادل، د. عثمان عثمان حسين، “إمكانيَّة استخدام تقنيات الذكاء الصناعي في ضبط جودة التدقيق الداخلي (دراسة ميدانية في الشركات المساهمة العامة الأردنية)، أحداث الأعمال الذكيَّة والمعرفة الاقتصاديَّة، مجلَّة البحث الاجتماعي الـمُتقدِّم، ماليزيا، المجلد 1، عام 2012.
د. الخفاجي وسن قاسم, حسين علاء كاظم، “الحجية القانونيَّة لشهادات تصديق التوقيع الالكتروني (دراسة مقارنة)”، مجلِّة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 8، العدد 4، عام 2016، صص289-338.
د. خلف علي محمد، “المسؤوليَّة عن الأشياء غير الحيَّة الناتجة عن الخطأ المفترض – مسؤوليَّة المنتج البيئيَّة نموذجاً-(دراسة مقارنة)”، مجلة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 7، العدد 2، عام 2015، صصـ343-382.
د. سدني مصطفى، “إثبات الجنسيَّة المغربيَّة الأصليَّة عن طريق حيازة الحالة الظاهرة”، مجلة الباحث للدراسات القانونيَّة والقضائيَّة، العدد 5، أبريل 2018، صصـ43-68.
د. الفتلاوي أحمد عبيس نعمة، “الهجمات السيبرانيَّة: مفهومها والمسؤوليَّة الدوليَّة الناشئة عنها في ضوء التنظيم الدولي المعاصر”، مجلِّة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 8، العدد 4، عام 2016، صصـ610-688.
الياسري أحمد عبد الحسين، “التنظيم القانوني للنيابة في التعاقد (دراسة مقارنة بين القانون العراقي القانون المدني المصري)”، مجلَّة الـمُحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، المجلد 8، العدد 4، صصـ689-725.
د- الرسائل الأكاديميَّة:

أبو شمالة رشا عبدالمجيد سلمان، “فاعليَّة برنامج قائم على الذكاء الاصطناعي لتنمية التفكير الاستدلالي والتحصيل الدراسي في مبحث تكنولوجيا المعلومات لدى طالبات الحادي عشر بغزَّة”، رسالة مُقدَّمة لاستكمال درجة الماجستير في المناهج وطرق التدريس، كلية التربية، جامعة الأزهر، غزَّة، نوقشت عام 2013.
أحميدة حميشي، “جرائم المسِّ بالنظم المعلوماتيَّة في التشريع المغربي والمقارن –جريمة الإتلاف المعلوماتي نموذجاً-“، رسالة لاستكمال وحدات الماستر، تخصص: القضاء والتوثيق، كلية الشريعة، جامعة سيدي محمد بن عبد الله، فاس، المملكة المغربيَّة، نوقشت عام 2017: نُشرت في مجلَّة القانون والأعمال، سطات، جامعة الحسن الأول، المغرب، الإصدار: 14، عام 2018.
صالح فاتن عبد الله، “أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي على جودة اتِّخاذ القرارات”، أطروحة مُقدَّمة لنيل درجة الماجستير، جامعة الشرق الأوسط، الأردن، نوقشت عام 2009.
هـ- المقالات:

بيرغ ندرو، بافي إدوارد، زانا لويس-فليبي، “الروبوتات والنمو وعدم المساواة”، مجلَّة التمويل والتنمية، صندوق النقد الدولي، العدد 53، سبتمبر 2016.
د. الجلولي علي، “مراعاة مصلحة الدائن في الكفالة”. أنظر الموقع:
https://sites.google.com/ (22-5-2018).

خليفة إيهاب، “مخاطر خروج (الذكاء الاصطناعي) عن السيطرة البشرية”، المستقبل للدراسات والأبحاث الـمُتقدِّمة، مقال نشر بتاريخ 30-7-2017. أنظر:
https://futureuae.com (6-5-2018).

العجيلي لفته هامل، “المسؤولية عن الاشياء”، مجلة التشريع والقضاء، العراق. أنظر الموقع:
http://www.tqmag.net (22-5-2018).

د. القوصي همام، “نظريَّة نابليون للالتزام تترنَّح أمام التكنولوجيا المالية (فاين تك)”، جريدة عالم المال، جمهوريَّة مصر العربيَّة، مقال نشر بتاريخ 19-5-2018. أنظر:
http://www.alamalmal.net/Detail.aspx?id=74580 (21-5-2018).

كافيتي سوجول، “قانون الروبوتات”، مجلَّة المعهد، معهد دبي القضائي، العدد 21، أبريل 2015.
ماجد أحمد، “الذكاء الاصطناعي بدولة الإمارات العربية المتحدة”، إدارة الدراسات والسياسات الاقتصاديَّة، وزارة الاقتصاد، الإمارات العربيَّة الـمتحدة، مبادرات الربع الأول 2018.
المركز العربي لأبحاث الفضاء الالكتروني، “الذكاء الاصطناعي سيشعل الحرب العالمية الثالثة”، مقال نشر بتاريخ 13-9-2017. أنظر:
http://accronline.com/ (6-5-2018).

موسى حوراء، “التنظيم التشريعي لاستخدامات الطائرة من دون طيار والروبوتات”، مجلَّة المعهد، معهد دبي القضائي، العدد 21، أبريل 2015.
ثانياً: المراجع باللُّغة الإنكليزيَّة:

A- Articles:

DE SCHRIJVER Steven, “The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots”, January 2018.
See: http://www.whoswholegal.com (27-5-2018).

GLESS Sabine, SILVERMAN Emily, WEIGEND Thomas, “If Robots Cause Harm, Who Is to Blame? Self-Driving Cars and Criminal Liability”, New Criminal Law Review, SSRN, January 29, 2016.
See: https://ssrn.com/abstract=2724592 (1-5-2018).

GOELDNER Moritz, HERSTATT Cornelius, TIETZE Frank, “The emergence of care robotics – A patent and publication analysis”, Technological Forecasting and Social Change, Vol. 92, March 2015, pp.115-131.
GUILMAIN Antoine, “A Look at Artificial Intelligence in Europe”, May 23, 2017.
See: https://www.fasken.com/en (27-5-2018).

LEE Hee Rin, Šabanović Selma, “Culturally Variable Preferences for Robot Design and Use in South Korea, Turkey, and the United States”, HRI’14, Bielefeld, Germany, March 3–6, 2014.
MULLER Vincent C., “Legal vs. ethical obligations – a comment on the EPSRC’s principles for robotics”, Connection Science, Vol. 29, No. 2, 2017, pp. 137–141.
NUMANN Dana, “Human Assistant Robotics in Japan –Challenges & Opportunities for European Companies –”, EU-Japan Center for Industrial Cooperation, Tokyo, March 2016.
ROTHENBERG David Marc, “Can SIRI 10.0 Buy your Home? The Legal and Policy Based Implications of Artificial Intelligence Robots Owning Real Property”, Washington Journal of Law, Technology & Arts, Vol. 11, Issue 5, Spring 2016, pp. 439-460.
RUMBOLD John, PIERSCIONEK Barbara, “Does your electronic butler owe you a duty of confidentiality?”, Computer Law Review A Journal of Information Law and Technology International (Cri), Issue 2, 15 April 2017.
SOLON Olivia, “Building Industrial Robots That Don’t Kill Humans”, Claims Journal, August 25, 2015.
See: www.claimsjournal.com (9-5-2018).

SIEMENS Robert, “On ne Peut se Permettre D’Accuser du Retard”, Canadian Urological Association Journal, Vol. 6, Issue 3, June 2012.
WALKER-OSBORN Charlotte, BARRETT Paula, “Artificial Intelligence: the EU, Liability and the Retail sector”, Robotics Law Journal, 8 May 2017.
See: http://www.roboticslawjournal.com/ (27-5-2018).

WENG Yueh-Hsuan, SUGAHARA Yusuke, HASHIMOTO Kenji, TAKANISHI Atsuo, “Intersection of “Tokku” Special Zone, Robots, and the Law: A Case Study on Legal Impacts to Humanoid Robots”, International Journal of Social Robotics, February 2015.
B- Reports:

The European Parliament, Committee report tabled for plenary, 2103(INL), 2015.
The European Parliament, plenary sitting, the report of 27-1-2017.
Mańko Rafał, “Civil law rules on robotics”, European Parliamentary Research Service, Members’ Research Service, European Union, 2017.
NEVEJANS Nathalie, “Directorate-General for Internal Policies, Policy Department C: Citizens’ Rights and Constitutional Affairs, Legal Affairs, European Civil Law Rules in Robotics, No. EA n° 2471, October 2016.
ثالثاً: المراجع باللُّغة الفرنسيَّة:

Articles:
BOULANGE Anne, JAGGIE Carole, “Ethique, responsabilité et statut juridique du robot compagnon: revue et perspectives”, IC2A: 13.
Voir:https://hal.archives-ouvertes.fr/cel-01110281/file/TER2015.pdf#page=16 (25-5-2018).

POIROT-MAZERESDU Isabelle, “Chapitre 8. Robotique et médecine: quelle(s) responsabilité(s) ?”, Journal International de Bioéthique, Vol. 24, No. 4, 2013.
VERBIEST Thibault, WÉRY Etienne, “La Responsabilité des Fournisseurs D’Outils de Recherche et D’Hyperliens du Fait du Contenu des Sites Référencés”, Droit et Nouvelles Technologies, 05/2001.
Voir: http://www.droit-technologie.org (5-5-2018).

Thèse:
LEEMANS Thomas, JACQUEMIN Hervé, “La Responsabilité Extracontractuelle de l’Intelligence Artificielle”, Master en droit, Faculté de droit et de criminologie (DRT), Université Catholique de Louvain, 2017.
OLIVEIRA Sandra, “La Responsabilité Civile dans les cas de Dommages Causés par les Robots D’Assistance au Québec”, Mémoire présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître en droit (LL.M.), Faculté de droit, Université de Montréal, Avril, 2016.

رابعاً: السوابق القضائيَّة:

أ- في فرنسا:

Cour de cassation de France, première chambre civile, arrêt n° 674 du 1 juin 2017.
Cour de cassation de France, première chambre civile, arrêt n° 443 du 3 mai 2018.
ب- في الولايات المتحدة الأمريكيَّة:

ATI INDUSTRIAL AUTOMATION, INC. vs. APPLIED ROBOTICS, INC.; United States District Court, M.D. North Carolina., No. 1:09CV471., June 11, 2014.
YASKAWA AMERICA, INC. MOTOMAN ROBOTICS DIVISION vs. INTELLIGENT MACHINE SOLUTIONS, INC.; United States District Court, S.D. Ohio, Western Division, Dayton., Case No. 3:14-cv-084., July 14, 2014.
Theresa White vs. Catheter Robotics, Inc.; Court of Appeals of Minnesota., Nos. A13-1401, A13-2159, June 30, 2014.
Joshua DREXLER vs. Tokyo Electron U.S. Hodings, Inc., etc ..,; United States District Court, D. Massachusetts, Civil Action No. 13-cv-13009-DPW, 125 F.Supp.3d 361 (2015), Signed August 28, 2015.
Cristono ALMONTE vs. AVERNA VISION & ROBOTICS, INC.; United States District Court, W.D. New York., No. 11-CV-1088 EAW, 128 F.Supp.3d 729 (2015), Signed August 31, 2015.
REIS ROBOTICS (CHINA) CO., LTD. vs. MIASOLE, INC., et al.; United States District Court, N.D. California., Case No. 15-cv-06112-HRL., March 31, 2017.
SZ DJI TECHNOLOGY CO., LTD. and DJI EUROPE B.V. vs. AUTEL ROBOTICS USA LLC and AUTEL AERIAL TECHNOLOGY CO.; United States District Court, D. Delaware., C.A. No. 16-706-LPS., March 14, 2018.
[1] لقد جاءت تسمية: “الروبوت” أو: “الروبوط” للدلالة على: “الرجل الآلي” أو: “الإنسان الآلي” أو: “الجسمال” أو: “الإنسالة”، ويعود أصل هذه التسمية إلى اللُّغة التشيكيَّة من الكاتب التشيكي كارل تشابيك عام 1921، وهي تعني بشكلٍ اصطلاحيٍّ عمل السخرة دون مقابلٍ، فهي مشتقَّةٌ من كلمة Robota بالتشيكيَّة، والتي تعني العمل الشاق الإجباري. أنظر:

https://ar.wikipedia.org/ (3-5-2018).

[2] بخصوص المسؤوليَّة القانونيَّة عن الروبوتات الطبيَّة، أنظر في الفقه الفرنسي:

Isabelle POIROT-MAZERESDU, “Chapitre 8. Robotique et médecine: quelle(s) responsabilité(s) ?”, Journal International de Bioéthique, Vol. 24, No. 4, 2013.

[3] فاتن عبد الله صالح، “أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي على جودة اتِّخاذ القرارات”، أطروحة مُقدَّمة لنيل درجة الماجستير، جامعة الشرق الأوسط، الأردن، نوقشت فعام 2009، الصفحة 2.

[4] د. أحمد عادل جميل، د. عثمان حسين عثمان، “إمكانية استخدام تقنيات الذكاء الصناعي في ضبط جودة التدقيق الداخلي (دراسة ميدانية في الشركات المساهمة العامة الأردنية)، أحداث الأعمال الذكية والمعرفة الاقتصاديَّة، مجلة البحث الاجتماعي الـمُتقدِّم، ماليزيا، المجلد 1، عام 2012، الصفحة 2.

[5] Moritz GOELDNER, Cornelius HERSTATT, Frank TIETZE, “The emergence of care robotics – A patent and publication analysis”, Technological Forecasting and Social Change, Vol. 92, March 2015, pp.115-131, page 115.

[6] Yueh-Hsuan WENG, Yusuke SUGAHARA, Kenji HASHIMOTO, Atsuo TAKANISHI, “Intersection of “Tokku” Special Zone, Robots, and the Law: A Case Study on Legal Impacts to Humanoid Robots”, International Journal of Social Robotics, February 2015, page 2.

[7] صفات سلامة، خليل أبو قورة، “تحديات عصر الروبوتات وأخلاقيَّاته”، مركز الإمارات للدراسات والبحوث الاستراتيجيَّة، دراسات استراتيجيَّة، العدد 196، الطبعة الأولى 2014، الصفحة 25.

[8] ندرو بيرغ، إدوارد بافي، لويس-فليبي زانا، “الروبوتات والنمو وعدم المساواة”، مجلَّة التمويل والتنمية، صندوق النقد الدولي، العدد 53، سبتمبر 2016، الصفحة 10.

[9] يمكن تعريف الذكاء الاصطناعي بأنَّه: “هو أحد علوم الحاسب الآلي الحديثة التي تبحث عن أساليب مُتطوِّرة لبرمجته للقيام بأعمال واستنتاجات تشابه -ولو في حدود ضيِّقة- تلك الأساليب التي تُنسَب لذكاء الإنسان”. أنظر: الأكاديميَّة البريطانيَّة العربيَّة للتعليم العالي، “الذكاء الاصطناعي وتقنيَّات المعلومات، الصفحة 4. أنظر الموقع:

www.abahe.co.uk (19-5-2018).

و”يهدف علم الذكاء الاصطناعي إلى فهم طبيعة الذكاء الإنساني عن طريق عمل برامج للحاسب الآلي قادرة على محاكاة السلوك الإنساني المتسم بالذكاء”. أنظر: آلان بونيه، ترجمة: علي صبري فرغلي، ” الذكاء الاصطناعي واقعه ومستقبله”، سلسلة كتب عالم المعرفة، المجلس الوطني للثقافة والفنون والآداب، الكويت، العدد 172، أبريل 1993، الصفحة 11.

[10] يُعرَّف الذكاء الاصطناعي أيضاً أو ذكاء الآلة بأنَّه الظاهر من الآلة، ومن ظواهر هذا الذكاء قدرة العقل الاصطناعي للآلة على حل المشكلات والتعلُّم، وغيرها من الوظائف التي يقوم بها الذهن البشري. أنظر:

https://en.wikipedia.org/wiki/Artificial_intelligence (3-5-2018).

[11] المرجع السابق، الصفحة 37.

[12] رشا عبدالمجيد، سلمان أبو شمالة، “فاعليَّة برنامج قائم على الذكاء الاصطناعي لتنمية التفكير الاستدلالي والتحصيل الدراسي في مبحث تكنولوجيا المعلومات لدى طالبات الحادي عشر بغزَّة”، رسالة مُقدَّمة لاستكمال درجة الماجستير في المناهج وطرق التدريس، كلية التربية، جامعة الأزهر، غزَّة، نوقشت عام 2013، الصفحة 19.

[13] د. علي محمد خلف، “المسؤوليَّة عن الأشياء غير الحيَّة الناتجة عن الخطأ المفترض – مسؤولية المنتج البيئيَّة نموذجاً-(دراسة مقارنة)”، مجلَّة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 7، العدد 2، عام 2015، صصـ343-382، الصفحة 371.

[14] Charlotte WALKER-OSBORN, Paula BARRETT, “Artificial Intelligence: the EU, Liability and the Retail sector”, Robotics Law Journal, 8 May 2017. See: http://www.roboticslawjournal.com/ (27-5-2018).

[15] Section 59 (a), The European Parliament, Civil Law Rules on Robotics, P8_TA(2017)0051, 16 February 2017.

[16] Thomas LEEMANS, Hervé JACQUEMIN, “La Responsabilité Extracontractuelle de l’Intelligence Artificielle”, Master en droit, Faculté de droit et de criminologie (DRT), Université Catholique de Louvain, 2017, page 59.

[17] Andrea Bertolini, “Liability and Risk Management in Robotics”, EU Parliament, 2016, page 9.

[18] Rafał Mańko, “Civil law rules on robotics”, European Parliamentary Research Service, Members’ Research Service, European Union, 2017.

[19] The European Parliament, Civil Law Rules on Robotics, P8_TA(2017)0051, 16 February 2017.

[20] Section AD, Introduction, The European Parliament, Civil Law Rules on Robotics of 2017.

The European Parliament, plenary sitting, the report of 27-1-2017, page 7.

[21] Anne BOULANGE, Carole JAGGIE, “Ethique, responsabilité et statut juridique du robot compagnon: revue et perspectives”, IC2A: 13. Voir: https://hal.archives-ouvertes.fr/cel-01110281/file/TER2015.pdf#page=16 (25-5-2018).

[22] Section AD, Introduction, The European Parliament, Civil Law Rules on Robotics of 2017.

The European Parliament, plenary sitting, the report of 27-1-2017, page 7.

[23] Section AD, The European Parliament, Civil Law Rules on Robotics of 2017.

The European Parliament, plenary sitting, the report of 27-1-2017, page 7.

[24] سوجول كافيتي، “قانون الروبوتات”، مجلَّة المعهد، معهد دبي القضائي، العدد 21، أبريل 2015، الصفحة 33.

[25] لفته هامل العجيلي، “المسؤولية عن الاشياء”، مجلة التشريع والقضاء، العراق. أنظر الموقع:

http://www.tqmag.net (22-5-2018).

[26] حوراء موسى، “التنظيم التشريعي لاستخدامات الطائرة من دون طيار والروبوتات”، مجلَّة المعهد، معهد دبي القضائي، العدد 21، أبريل 2015، الصفحة 23.

[27] د. السنهوري عبد الرزاق، الوسيط، الجزء الثالث، نظرية الالتزام بوجه عام، الصفحة 488.

[28] د. علي الجلولي، “مراعاة مصلحة الدائن في الكفالة”. أنظر الموقع:

https://sites.google.com/ (22-5-2018).

[29] Section AD, The European Parliament, Civil Law Rules on Robotics of 2017.

[30] “.. humans, not robots, as the responsible agents”. The European Parliament, Civil Law Rules on Robotics of 2017, page 20.

[31] Section AD, The European Parliament, Civil Law Rules on Robotics of 2017.

[32] “.. strict liability (fault, damage and causal link)”. See: Antoine GUILMAIN, “A Look at Artificial Intelligence in Europe”, MAY 23, 2017. See: https://www.fasken.com/en (27-5-2018).

[33] مثل تشغيل روبوت صناعي يستخدم أعمدة صلبة سريعة الحركة بالقرب من العمَّال، ما يسبب حوادث اصطدام مأساويَّة لهم.

[34] Antoine GUILMAIN, op. cit. See: https://www.fasken.com/en (27-5-2018).

[35] “.. risk management approach (focused on the person who is able to minimize risks and handle any negative impacts)”. See: Ibid.

[36] Section AD, The European Parliament, Civil Law Rules on Robotics of 2017.

[37] مثل ترك الحافلة ذاتيَّة القيادة تدهس المارَّة رغم وضوح اتِّجاهها الخاطئ وقدرة شركة النقل الـمُشغِّلة لها على اعتراضها بحافلة أخرى، ولكن تترك الشركة الحافلة الذاتيَّة تسيرُ في مسارها الخاطئ حتى لا تتضرَّر بحافلتين.

[38] Section AA, The European Parliament, Civil Law Rules on Robotics of 2017.

[39] Section AB, The European Parliament, Civil Law Rules on Robotics of 2017.

[40] كأن يُخفي الصانع عيوباً في الروبوت، كالنقص في أنظمة الأمان، ما يؤدِّي إلى حصول الحادث. أنظر:

NEVEJANS Nathalie, “Directorate-General for Internal Policies, Policy Department C: Citizens’ Rights and Constitutional Affairs, Legal Affairs, European Civil Law Rules in Robotics, No. EA n° 2471, October 2016, page 16.

[41] أنظر حول هذا النوع من الروبوتات لدى:

Moritz GOELDNER, Cornelius HERSTATT, Frank TIETZE, op. cit., page 2.

[42] يتشدَّد القضاء الفرنسي بضرورة انتظار تقارير التحليل المخبريَّة قبل إجراء أيَّة معالجةٍ، فأيُّ تهاونٍ في هذا الأمر سيُقيمُ مسؤوليَّة التعويض عن الإهمال. أنظر منطوق قرار محكمة النقض الفرنسيَّة لعام 2018:

Cour de cassation de France, première chambre civile, arrêt n° 443 du 3 mai 2018.

[43] وكمثالٍ عن دعوى المستخدَم على إهمال الشركة المشغِّلة للروبوتات في القضاء الأمريكي، أنظر:

Cristono ALMONTE vs. AVERNA VISION & ROBOTICS, INC.; United States District Court, W.D. New York., No. 11-CV-1088 EAW, 128 F.Supp.3d 729 (2015), Signed August 31, 2015.

[44] وكمثالٍ عن دعوى عاملٍ غير مختصٍّ بالروبوتات لدى شركة مختصَّة بصناعتها أمام محكمة ماساشوستس الأمريكيَّة عام 2015. أنظر:

Joshua DREXLER vs. TEL NEXX, INC.,, etc ..,; United States District Court, D. Massachusetts, Civil Action No. 13-cv-13009-DPW, 125 F.Supp.3d 361 (2015), Signed August 28, 2015.

[45] فاتن عبد الله صالح، مرجع سابق، الصفحة 8.

[46] د. همام القوصي، “نظريَّة نابليون للالتزام تترنَّح أمام التكنولوجيا المالية (فاين تك)”، جريدة عالم المال، جمهوريَّة مصر العربيَّة، مقال نشر بتاريخ 19-5-2018. أنظر:

http://www.alamalmal.net/Detail.aspx?id=74580 (21-5-2018).

[47] Isabelle POIROT-MAZERESDU, op. cit., le Résumé.

[48] د. عبد الرزاق السنهوري، الوسيط، الجزء الأول، مرجع سابق، الصفحة 921.

[49] Steven DE SCHRIJVER, “The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots”, January 2018.

See: http://www.whoswholegal.com (27-5-2018).

[50] Section AE, The European Parliament, Civil Law Rules on Robotics of 2017.

[51] المرجع السابق، الصفحة 922.

[52] وكمثال عن دعاوى المستخدَمين لدى الشركة المشغِّلة للروبوتات. أنظر:

Cristono ALMONTE vs. AVERNA VISION & ROBOTICS, INC.; United States District Court, W.D. New York., No. 11-CV-1088 EAW, 128 F.Supp.3d 729 (2015), Signed August 31, 2015.

[53] Section 59 (a), General principles, The European Parliament, Civil Law Rules on Robotics of 2017.

[54] Steven DE SCHRIJVER, op. cit. See: http://www.whoswholegal.com (27-5-2018).

[55] Antoine GUILMAIN, op. cit. See: https://www.fasken.com/en (27-5-2018).

[56] Section AH, The European Parliament, Civil Law Rules on Robotics of 2017.

[57] كما يُمكن تطبيق نظرية تجزئة الحراسة بين الصانع والمستخدم، خاصةً أنَّ الروبوتات تتضمَّن أجزاءً ذات جهات تصنيع مختلفة تختلف السيطرة الفعليَّة عليها. أنظر حول هذا الموضوع: د. علي محمد خلف، “المسؤوليَّة عن الأشياء غير الحيَّة الناتجة عن الخطأ المفترض – مسؤولية المنتج البيئيَّة نموذجاً-(دراسة مقارنة)”، مجلة المحقق الحلي للعلوم القانونية، جامعة بابل، العراق، المجلد 7، العدد 2، عام 2015، صصـ343-382، الصفحة 364.

[58] أوشونديه أوشوبا، وليام ويلسر الرابع، مرجع سابق، الصفحة 8.

[59] د. همام القوصي، مرجع سابق. أنظر:

http://www.alamalmal.net/Detail.aspx?id=74580 (21-5-2018).

[60] Section AB, The European Parliament, Civil Law Rules on Robotics of 2017.

[61] د. عبد الرزاق السنهوري، الوسيط، الجزء الأول، مرجع سابق، الصفحة 923.

[62] المرجع السابق، الصفحة 928.

[63] المرجع السابق، الصفحة 917.

[64] Section AG, The European Parliament, Civil Law Rules on Robotics of 2017.

[65] Steven DE SCHRIJVER, op. cit. See: http://www.whoswholegal.com (27-5-2018).

[66] Sabine GLESS, Emily SILVERMAN, Thomas WEIGEND, “If Robots Cause Harm, Who Is to Blame? Self-Driving Cars and Criminal Liability”, New Criminal Law Review, SSRN, January 29, 2016, page 1.

See: https://ssrn.com/abstract=2724592 (1-5-2018).

[67] Op. cit., page 12.

[68] وحول انتهاك براءة اختراع الروبوت، أنظر في القضاء الأمريكي:

ATI INDUSTRIAL AUTOMATION, INC. vs. APPLIED ROBOTICS, INC.; United States District Court, M.D. North Carolina., No. 1:09CV471., June 11, 2014.

[69] NEVEJANS Nathalie, op. cit., page 14.

[70] Section 59 (f), General principles, The European Parliament, Civil Law Rules on Robotics of 2017.

[71] D. Robert SIEMENS, “On ne Peut se Permettre D’Accuser du Retard”, Canadian Urological Association Journal, Vol. 6, Issue 3, June 2012, page 155.

[72] Steven DE SCHRIJVER, op. cit. See: http://www.whoswholegal.com (27-5-2018).

[73] Section AC, The European Parliament, Civil Law Rules on Robotics of 2017.

[74] David Marc ROTHENBERG, “Can SIRI 10.0 Buy your Home? The Legal and Policy Based Implications of Artificial Intelligence Robots Owning Real Property”, Washington Journal of Law, Technology & Arts, Vol. 11, Issue 5, Spring 2016, pp. 439-460, page 460.

[75] Steven DE SCHRIJVER, op. cit. See: http://www.whoswholegal.com (27-5-2018).

[76] D. Robert SIEMENS, op. cit., page 155.

[77] Section 59 (f), General principles, The European Parliament, Civil Law Rules on Robotics of 2017.

[78] Thomas LEEMANS, Hervé JACQUEMIN, op. cit., page 9.

[79] Section AF, The European Parliament, Civil Law Rules on Robotics of 2017.

Hee Rin Lee, Selma Šabanović, “Culturally Variable Preferences for Robot Design and Use in South Korea, Turkey, and the United States”, HRI’14, Bielefeld, Germany March 3–6, 2014, page 8.

The European Parliament, plenary sitting, the report of 27-1-2017, page 7.

[80] Section AF, Introduction, The European Parliament, Civil Law Rules on Robotics of 2017.

حتى أنَّ النقاشات الأوليَّة للجنة الشؤون القانونية الأوروبيَّة قد أكَّدت على أنَّ هذه القواعد ستصلح للـ10 إلى 15 عاماً القادمة فقط، أنظر:

The European Parliament, Committee report tabled for plenary, 2103(INL), 2015.

[81] ولكنَّ وجهة النظر الأوروبيَّة هذه لم تأخذ بحسبانها إمكانيَّة حدوث حالة تقنيَّة هي: “الفشل الذريع الـمُتعدِّد لنظام تشغيل الروبوتات” “”Multiple Catastrophic System Failures التي بحثها القضاء الأمريكي:

YASKAWA AMERICA, INC. MOTOMAN ROBOTICS DIVISION vs. INTELLIGENT MACHINE SOLUTIONS, INC.; United States District Court, S.D. Ohio, Western Division, Dayton., Case No. 3:14-cv-084., July 14, 2014.

وهي الحالة التي قد تؤدِّي إلى حدوث اختلالٍ تامٍّ في حركة ونشاط وتواصل الروبوتات مع الإنسان، ومع بعضها البعض.

وفي حالة حدوث ذلك، فلا يُمكن تقبُّل فكرة أنَّ الإنسان نائب عن الروبوت، بل يجب أن تبقى الآلة مسخَّرةً لخدمة الإنسان وخاضعةً لاستخدامه ومسؤوليَّته قانونيَّاً، ويكفي في هذا النطاق استرجاع مأساة عامل الصيانة في معمل Volkswagen الألماني عام 2015، الذي سحقه روبوت بعد أن علق هذا العامل بين ذراعيه الآليَّين وصحن معدني كبير في منطقة غير مخصَّصة للعمَّال. أنظر:

Olivia SOLON, “Building Industrial Robots That Don’t Kill Humans”, Claims Journal, August 25, 2015, see: www.claimsjournal.com (9-5-2018).

[82] بالنسبة لموضوع الجنسيَّة الشائك، فلكلِّ دولةٍ حقٌّ سياديٌّ وحريَّةٌ تكاد تكون مطلقة في منح جنسيَّتها سواءً الأصليَّة أو المكتسبة. أنظر: د. مصطفى سدني، “إثبات الجنسيَّة المغربيَّة الأصليَّة عن طريق حيازة الحالة الظاهرة”، مجلة الباحث للدراسات القانونية والقضائية، العدد 5، أبريل 2018، صصـ43-68، الصفحة 45.

[83] Section AI, The European Parliament, Civil Law Rules on Robotics of 2017.

[84] Thibault VERBIEST, Etienne WÉRY, “La Responsabilité des Fournisseurs D’Outils de Recherche et D’Hyperliens du Fait du Contenu des Sites Référencés”, Droit et Nouvelles Technologies, 05/2001, page 8.

Voir: http://www.droit-technologie.org (5-5-2018).

[85] Sandra OLIVEIRA, “La Responsabilité Civile dans les cas de Dommages Causés par les Robots D’Assistance au Québec”, Mémoire présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître en droit (LL.M.), Faculté de droit, Université de Montréal, Avril, 2016, page iii.

[86] أوشونديه أوشوبا، وليام ويلسر الرابع، مرجع سابق، الصفحة 7.

[87] Civil Law Rules on Robotics of the European Parliament, date: 16/02/2017.

[88] John RUMBOLD, Barbara PIERSCIONEK, “Does your electronic butler owe you a duty of confidentiality?”, Computer Law Review A Journal of Information Law and Technology International (Cri), Issue 2, 15 April 2017, pp. 33–64, page 51.

[89] Theresa White vs. Catheter Robotics, Inc.; Court of Appeals of Minnesota., Nos. A13-1401, A13-2159, June 30, 2014.

[90] د. وسن قاسم الخفاجي, علاء كاظم حسين، “الحجية القانونية لشهادات تصديق التوقيع الالكتروني (دراسة مقارنة)”، مجلِّة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 8، العدد 4، عام 2016، صصـ289-338، الصفحة 318.

[91] د. أحمد عبيس نعمة الفتلاوي، “الهجمات السيبرانيَّة: مفهومها و المسؤوليَّة الدوليَّة الناشئة عنها في ضوء التنظيم الدولي المعاصر”، مجلِّة المحقِّق الحلي للعلوم القانونيَّة والسياسيَّة، جامعة بابل، العراق، المجلد 8، العدد 4، عام 2016، صصـ 610-688، الصفحة 613.

[92] Thibault VERBIEST, Etienne WÉRY, op. cit., page 6.

[93] أحمد ماجد، “الذكاء الاصطناعي بدولة الإمارات العربيَّة المتحدة”، إدارة الدراسات والسياسات الاقتصاديَّة، وزارة الاقتصاد، الإمارات العربيَّة الـمتحدة، مبادرات الربع الأول 2018، الصفحة 12.

[94] حميشي أحميدة، “جرائم المس بالنظم المعلوماتيَّة في التشريع المغربي والمقارن –جريمة الإتلاف المعلوماتي نموذجاً-“، رسالة لاستكمال وحدات الماستر، تخصُّص: القضاء والتوثيق، كلية الشريعة، جامعة سيدي محمد بن عبد الله، فاس، المملكة المغربيَّة، نوقشت عام 2017: نُشرت في مجلَّة القانون والأعمال، جامعة الحسن الأول، سطات، المغرب، الإصدار: 14، عام 2018. الصفحة 52.

[95] Charlotte WALKER-OSBORN, Paula BARRETT, op. cit. See: http://www.roboticslawjournal.com/ (27-5-2018).

[96] ولكن المستقبل قد يحمل وصول صناعة الروبوتات إلى مستوى عقلي قريب من الإنسان، حيث أنَّ: “أحد أهم الخوارزميات التي تُستخدَم في الذكاء الصناعي هي خوارزميَّة الشبكة العصبيَّة الاصطناعيَّة، و هي أهمُّ أقسام الذكاء الصناعي”. أنظر: رشا عبد المجيد سلمان أبو شمالة، مرجع سابق، الصفحة 270.

وهكذا فإنَّ الروبوت قد يتمتَّع مستقبلاً بجملةٍ عصبيَّةٍ قادرةٍ على التفكير واسترجاع الذاكرة واتِّخاذ القرار الراشد.

[97] يرى بعض الفقهاء أنَّ زمن الوصول إلى مثل هذه الروبوتات سكون عند حلول عام 2050. أنظر: صفات سلامة، خليل أبو قورة، مرجع سابق، الصفحة 44.

[98] ولكن ماذا عن الحقوق الشخصيَّة الخاصة بالزواج والطلاق، فهل يُمكن تخيُّل منح الروبوتات ذات العواطف مثل هذه الحقوق؟، وهل سيوجد لديها “نيَّة الزوجيَّة” “Intention Matrimoniale” التي اشترطتها محكمة النقض الفرنسية كما هو الأمر لدى الإنسان. أنظر:

Cour de cassation de France, première chambre civile, arrêt n° 674 du 1 juin 2017.

Sandra OLIVEIRA, op. cit., page 52.

[99] وحول حق الروبوتات المتطورة في امتلاك العقارات وتجاذبات ذلك الأمر مع فرض المسؤوليَّة الشخصيَّة عليها في الفقه الأمريكي، أنظر:

David Marc ROTHENBERG, op. cit., page 440.

[100] Sabine GLESS, Emily SILVERMAN, Thomas WEIGEND, op. cit., page 4.

See: https://ssrn.com/abstract=2724592 (1-5-2018).

[101] آلان بونيه، مرجع سابق، الصفحة 267.

[102] ندرو بيرغ، إدوارد بافي، لويس-فليبي زانا، مرجع سابق، الصفحة 11.

[103] Thomas LEEMANS, Hervé JACQUEMIN, op. cit., page 1.

[104] المركز العربي لأبحاث الفضاء الالكتروني، “الذكاء الاصطناعي سيشعل الحرب العالمية الثالثة”، الاربعاء 13 سبتمبر 2017. أنظر:

http://accronline.com/ (6-5-2018).

[105] إيهاب خليفة، “مخاطر خروج (الذكاء الاصطناعي) عن السيطرة البشرية”، المستقبل للدراسات والأبحاث الـمُتقدِّمة، الأحد 30 يوليو2017. أنظر: https://futureuae.com .

[106] REIS ROBOTICS (CHINA) CO., LTD. vs. MIASOLE, INC., et al.; United States District Court, N.D. California., Case No. 15-cv-06112-HRL., March 31, 2017.

[107] Olivia SOLON, op. cit., see: www.claimsjournal.com (9-5-2018).

[108] Rafał Mańko, “Civil law rules on robotics”, European Parliamentary Research Service, Members’ Research Service, European Union, 2017.

[109] Vincent C. MULLER, “Legal vs. ethical obligations – a comment on the EPSRC’s principles for robotics”, Connection Science, Vol. 29, No. 2, 2017, pp. 137–141, page 140.

ونرى في الواقع أنَّ الفقهاء الفرنسيِّين مولعين بالبحث في تجاذبات الأخلاق مع الالتزامات القانونية الخاصة بالتعويض عن أضرار تشغيل الروبوتات، وعلى سبيل المثال أنظر:

Anne BOULANGE, Carole JAGGIE, op. cit.

[110] Dana NUMANN, “Human Assistant Robotics in Japan –Challenges & Opportunities for European Companies –”, EU-Japan Center for Industrial Cooperation, Tokyo, March 2016, page 42.

[111] صفات سلامة، خليل أبو قورة، مرجع سابق، الصفحة 50.

[112] حميشي أحميدة، مرجع سابق، الصفحة 100.

[113] بعض شركات الروبوتات التي تمَّت مقاضاتها أمام القضاء الأمريكي هي من الشركات المحدودة المسؤوليَّة، وهو ما يضع حدوداً مسبقة لذمَّتها الماليَّة ولمبلغ التعويض عن أضرار روبوتاتها. أنظر:

SZ DJI TECHNOLOGY CO., LTD. and DJI EUROPE B.V. vs. AUTEL ROBOTICS USA LLC and AUTEL AERIAL TECHNOLOGY CO.; United States District Court, D. Delaware., C.A. No. 16-706-LPS., March 14, 2018.

[114] Hee Rin LEE, Selma Šabanović, op. cit., page 8.

[115] Sandra OLIVEIRA, op. cit, page 59.

[116] اقترح الفقه العربي الاهتمام بالذكاء الاصطناعي في حدود: “تحسين جودة الخدمات الـمُقدَّمة والتي تتناسب مع توقُّعات المستفيدين”. أنظر: د. أحمد عادل جميل، د. عثمان حسين عثمان، مرجع سابق، الصفحة 22.

[117] د. أحمد عبيس نعمة الفتلاوي، مرجع سابق، الصفحة 622.

والخوف الكبير يتمثَّل من استخدام الروبوتات في جرائم التحويلات المصرفيَّة التي تتمُّ بهدف غسل الأموال، خاصَّةً في ظلِّ انتشار المصارف الافتراضيَّة التي تأخذ شكل شركات التكنولوجيا الماليَّة FinTech.

[118] د. عبد الرزاق السنهوري، الوسيط، الجزء الأول، مرجع سابق، الصفحة 915.

[119] Antoine GUILMAIN, “A Look at Artificial Intelligence in Europe”, MAY 23, 2017. See: https://www.fasken.com/en (27-5-2018).

[120] حتى أنَّ هذا الموقف قد حمل استهتاراً برأي بعض القانونيين من خبراء الاتِّحاد الأوروبي الذين قد حذَّروا من التعامل بتهاون مع مسألة نقل المسؤوليَّة على الروبوت. أنظر:

Nathalie NEVEJANS, op. cit., page 14.

[121] بدليلِ قدرة روبوتات المرور في اليابان على خفض الإصابات البدنيَّة الآتية من الحوادث المروريَّة نتيجة دقَّتها العالية. أنظر:

Yueh-Hsuan WENG, Yusuke SUGAHARA, Kenji HASHIMOTO, Atsuo TAKANISHI, op. cit., page 7.

[122] Dana NUMANN, op. cit., page 42.

[123] Vincent C. MULLER, op. cit., page 137.

إغلاق