المسؤولية المدنية عن الذكاء الاصطناعي

 

المسؤولية المدنية عن الذكاء الاصطناعي

 

محمد المبطول

طالب باحث بسلك الدكتوراه جامعة محمد الخامس – الرباط

كلية العلوم القانونية والاقتصادية والاجتماعية – سلا

مقدمة:

"كل إنسان هو في طور التحول ليصبح آلة، لا بل الأصح هو أن الآلة هي التي بصدد تطورها لتتحول إلى إنسان." هذا ما قاله الفيلسوف الفرنسي بول فاليري (Paul Valery) في دفاتره الشهيرة في بداية القرن التاسع عشر.[1] كانت هذه المقولة أول طرح فعلي لإشكالية مستقبل الآلة في تعايشها مع الإنسان.

فإن التطور العلمي والتقني الذي بدأ مع نهاية القرن التاسع عشر، أفرز مجموعة من المشاكل المستجدة ألقت على عاتق الفكر القانوني القائم عبء إيجاد حلول قانونية لها حتى توفر نوعا من التوازن بين العلاقات الاجتماعية والقانونية المتشابكة الناشئة عن هذه المستجدات، وبخاصة ما ينتج عنها من أضرار تلحق بالأشخاص والأموال لضمان جبر الأضرار الناتجة عنها.

وبوصفه المؤطر القانوني للسلوكيات الاجتماعية، والضامن الفعلي لحقيق العدالة والانصاف في هذه السلوكيات على اختلافها وتنوعها، فإن القانون مرهون بمواجهة تحديات تحتم عليه الإجابة عن العديد من الأسئلة الحديثة، التي عدلت بشكل كبير من طبيعة هذه السلوكيات، إن من حيث التوصيف أو الطبيعة.

ومن بين التحديات، إن لم يكن أبرزها، "الذكاء الاصطناعي"[2]  بحيث أصبح يتم إسناد الأفعال التي طالما انفرد بها جنس البشر إلى الذكاء الاصطناعي والروبوتات،[3] وذلك في جميع مجالات الحياة الاقتصادية والاجتماعية،[4] ولا شك في أن مثل هذا الأمر سيغير من نمط عيش المجتمعات وسيطال هذا التغيير حتما القواعد القانونية الموجودة،[5] ويثير تساؤلات عديدة حول إمكانيتها للتطبيق ومدى ملائمتها، لاسيما فيما يتعلق بإمكانية مساءلته قانونيا، علما أن الإجابة ليست باليسيرة، حيث ترتبط بالموقف القانوني المحدد للكنه الحقيقي لهذا الذكاء من الناحية القانونية، ما يمهد لتحديد تموضعه القانوني ومسؤوليته، خاصة إمكانية الاعتراف بالصفة الشخصية أو الطبيعة الشيئية للذكاء الاصطناعي، وترتيب مسؤوليته بين المسؤولية الخطئية القائمة على الخطأ الشخصي، والمسؤولية الموضوعية اللاخطئية القائمة على فكرة المخاطر وصولا لنظرية الضمان.

وتبعا لذلك تبرز أهمية دراسة هذا التحدي القانوني الجديد في أن هذا التطور التكنولوجي المتسارع قد يعطل من وظيفة القانون في ضبط السلوكيات التي تهدد الإنسان أفرادا وجماعات، وتجعله غير قابل للتطبيق مستقبلا مالم يواكب التشريع هذا التطور والسير معا جنبا إلى جنب، دون انتظار مخرجات التقنية لتطبيق القواعد العامة القائمة عليها، الأمر الذي يدفعنا للخوض في إشكالية رئيسية هي: إلى أي حد تفاعلت التشريعات الدولية والوطنية مع الموجة المتصاعدة لبرامج الذكاء الاصطناعي؟

المحور الأول: أساس المسؤولية المدنية عن أضرار الذكاء الاصطناعي.

لقد اختلف الفقه القانوني حول تحديد أساس المسؤولية المدنية عن الأضرار التي يحدثها الروبوت، إذ منها من توجه إلى تأسيسها على عدد من النظريات التقليدية (أولا)، كفكرة الحراسة، أي المسؤولية عن فعل الأشياء التي تتطلب عناية خاصة، وكذلك فكرة مسؤولية المتبوع عن أفعال تابعيه لتبرير مسؤولية الروبوت، وفي مقابل ذلك تبنى اتجاه فقهي آخر نظريات حديثة لتأسيس هذه المسؤولية (ثانيا)، كفكرة اعتبار الروبوت وكيلا، فضلا عن تطبيق نظرية النائب الإنساني التي تبناها المشرع الأوربي.

أولا: أساس مسؤولية الذكاء الاصطناعي وفقا للنظريات التقليدية:

سنتناول بداية الاتجاه الفقهي الذي تبنى فكرة حراسة الأشياء (1)، لنعرج بعدها إلى بسط الاتجاه الذي أسسها على مسؤولية المتبوع عن أفعال تابعيه (2).

 

 

1)      تأسيس المسؤولية على فكرة الحراسة:

يرى جانب من الفقه تأسيس مسؤولية الروبوت عن الأضرار التي تحدث بسببه بناء على فكرة حراسة الأشياء، ولا شك أن الاستناد إلى فكرة حراسة الأشياء لتأسيس مسؤولية الروبوت يقتضي تحديد مدى اعتبار الروبوت شيئا يحتاج للحراسة، ثم تحديد من هو حارسه، هل هو صانعه أم مبرمجه أم مستخدمه.

يعرف حارس الشيء بأنه: "هو ذلك الشخص الطبيعي أو الاعتباري الذي تكون له السلطة الفعلية على الشيء قصدا واستقلالا".[6] 

ونشير هنا إلى أن المبدأ القانوني المتعارف عليه هو أن مالك الشيء هو حارسه ويكون مسؤولا عما يحدث من أضرار تجاه الغير، ولكن هذه الحراسة مفترضة وقابلة لإثبات العكس، لذلك يجب عدم الخلط بين الحارس والمالك، إذ لا يشترط أن يكون الحارس مالكا، ولهذا يجب التأكيد على أن الحراسة والملكية ليستا متلازمتين.[7]

والحراسة تبنى على عنصرين رئيسين، هما العنصر المادي والعنصر المعنوي، ويتمثل العنصر المادي بثلاث سلطات، تأتي في مقدمتها سلطة الاستعمال،[8] ثم سلطة التوجيه،[9] وتليها سلطة الرقابة.[10] 

أما العنصر المعنوي لمحل الحراسة، فيقصد به استخدام الشيء لمصلحة الشخص الذي يملك السلطة الفعلية عليه. فلا يمكن اعتبار الشخص الذي يتحكم بالعنصر المادي للحراسة حارسا إلا إذا كان استعماله مقترنا بتحقيق الفائدة لحسابه وكانت إرادته مستقلة غير خاضعة لإرادة الغير. فالهدف من السيطرة المادية على الشيء يرتبط بالمصلحة الشخصية لمالكه أو لمن يكون الشيء بيده، فإذا كان الشخص الذي يملك العنصر المادي يستخدم الشيء لمصلحة آخر أو لحساب غيره، ولا يملك الحرية في استخدامه فلا يمكن اعتباره حارسا للشيء، فالتابع الذي يملك مظاهر السلطة المادية على الشيء لا يمكن أن يكون حارسا له مادام استخدامه للشيء لمصلحة المتبوع وكانت سلطته على الشيء تنحصر في السيطرة الفعلية فقط.[11]

وبناء على ما سبق، يذهب بعض الفقه،[12] أنه من الصعب تصور مسؤولية الروبوت على فكرة الحراسة، وذلك لعدة أسباب، حيث يصعب وصف الروبوت الذكي بأنه شيء نظرا لطبيعته الخاصة، كما يصعب تطبيق فكرة الحراسة عليه، فالحراسة تقوم على أساس سلطة التوجيه والإشراف والرقابة.

فلمسائلة الحارس عن الخطأ المفترض لابد أن يكون شخصا طبيعيا أو اعتباريا يملك السلطة الفعلية للآلة أثناء وقوع الضرر. ويرى أنه من الصعب تطبيق هذا الشرط بالنسبة للروبوت، فلغاية الآن لم يتم منح الروبوت الشخصية القانونية، بالتالي لا يستطيع أن نعتبره شخصا طبيعيا أو اعتباريا، فلا يمكن مساءلته عن الأضرار الواقعة منه نظرا لعدم امتلاكه السلطة الفعلية للحراسة.

2)  تأسيس المسؤولية على مسؤولية المتبوع عن فعل تابعيه:

يعرف التابع بأنه: "هو الشخص الذي يعمل لحساب شخص آخر يملك عليه سلطة الرقابة والمراقبة."[13]  ويقصد بالمتبوع بأنه: "شخص يعمل لمصلحته شخص آخر يسمى التابع، والذي يخضع لسلطته الفعلية ويتلقى منه الأوامر والتوجيهات للقيام بالعمل."[14] ويشترط لقيام مسؤولية المتبوع توافر شرطين أساسيين، أولهما قيام علاقة التبعية، وثانيهما وقوع خطأ التابع حال تأدية وظيفته أو بسببها.

ويرى بعض الفقه،[15] بأنه لا يمكن أن يكون الإنسان الآلي بمركز التابع القانوني بسبب عدم تمتعه بالشخصية القانونية، وأن القانون اشترط أن يكون التابع شخص طبيعي أو اعتباري حتى يسأل عن أخطائه الواقعة بسبب تأديته للوظيفة أو بسببها، ويرى كذلك أنه لا يمكن تطبيق فكرة التابع على الروبوت، على أساس اعتباره آلة ذات منزلة قانونية خاصة، ولم يتم منحه لحد الآن الشخصية القانونية حتى يتسنى لنا الرجوع عليه ومساءلته عن أخطائه، بالإضافة إلى عدم تمتعه بالذمة المالية المستقلة التي يمكن من خلالها الرجوع إليه في حالة انتفاء العلاقة التبعية.

 

 

 

ثانيا: أساس مسؤولية الذكاء الاصطناعي وفقا للنظريات الحديثة:

لقد تبنى الفقه نظريات حديثة لتأسيس المسؤولية عن الأضرار الناتجة عن برامج أو تقنيات الذكاء الاصطناعي، وانقسمت هذه النظريات بين من اعتبر الروبوت وكيلا (1)، وبين اتجاه أسسها على نظرية النائب الإنساني (2).

1.   تأسيس المسؤولية على أساس فكرة الوكالة:

نص الفصل 879 من قانون الالتزامات والعقود المغربي على أن: "الوكالة عقد بمقتضاه يكلف شخص شخصا آخر بإجراء عمل مشروع لحسابه، ويسوغ إعطاء الوكالة أيضا لمصلحة الموكل والوكيل أو لمصلحة الغير، بل ولمصلحة الغير وحده".

إن أساس سلطة الوكيل في إبرام التصرفات القانونية نيابة عن الموكل هو تصرف من جانب واحد بمقتضاه، يأذن الموكل للوكيل أن يتصرف باسمه وتنصرف التصرف إليه دون الوكيل.[16]

كما أن أركان عقد الوكالة هي الأهلية، المحل، السبب، إذ يجب عند إبرام عقد الوكالة توافق الايجاب الصادر من الموكل مع القبول الصادر من جانب الوكيل على عناصر الوكالة، فيتم التراضي بينهما على محل العقد والتصرفات القانونية التي يقوم بها الوكيل،[17] كما يشترط في الموكل أن يكون وقت إبرام عقد الوكالة أهلا للتصرف، أي صلاحيته لاكتساب الحقوق وتحمل الالتزامات، وأما الوكيل فيجب أن تتوفر فيه أهلية التمييز، وبالتالي يجوز أن يكون الوكيل قاصرا مميزا مادام أنه يعمل باسم موكله.

إن أشخاص القانون هما إما شخص طبيعي أو شخص اعتباري، حيث لا يعترف القانون بوجه عام إلا بوجود هذين النوعين من الأشخاص القانونيين، مانحا كلا منهما مركزا قانونيا يتمشى مع طبيعته وخصوصيته، بحيث أن الشخص الطبيعي يتناول مفهوم الشخص المادي الملموس، المتمثل بالإنسان في وجوده المادي الحقيقي أو المتوقع أو المفترض. بينما الشخص الاعتباري هو الشخص المعنوي غير المحسوس الذي يفترض القانون وجوده حقيقة لأغراض معينة، المتمثل بالكيانات القانونية التي منحها القانون لهذه الشخصية. كذلك هناك نظرية الافتراض القانوني التي لا تقر بالشخصية القانونية إلا للإنسان، إلى نظرية الوجود الواقعي التي تقر بحقيقة الوجود الفعلي للشخص الاعتباري التي أسندت إلى تبريرين هما الإرادة المشتركة التي أقرت أن الشخص الاعتباري كيانا قائما بذاته وإرادة مستقلة.[18]

نجد بأن أي كان جديد يعتبر بوصفه شيئا مرئيا ملموسا، فلا يعتبر له وجود افتراضي وإنما له وجود مادي محسوس، ولكن الوجود المادي الحسي للكائن يختلف تماما عن الوجود المادي الحسي للإنسان ذلك لتمكين أي كائن جديد للاستمتاع بالحقوق وتحمل الواجبات، وهو ما يسمى بالحاجة القانونية، فليس كل شيء مادي محسوس يتمتع بشخصية قانونية، وإنما يضيف القانون عليها مصطلح الشيء لينفي عنه الشخصية القانونية.

وهكذا ذهب بعض الفقه،[19] أنه لا يمكن اعتبار الروبوت وكيلا، وذلك على أساس أن القوانين في كافة الدول العربية والغربية لم تمنح الروبوت شخصية قانونية مستقلة حتى نستطيع تحديد التزاماته وحقوقه، وبالتالي نظرا لافتقاره للشخصية القانونية المستقلة لن يملك محل اعتبار خاص ولا ذمة مالية مستقلة.

فالروبوت في الأساس لم يتمتع بالإرادة القانونية المطلوبة حتى يتمكن من إبرام عقد الوكالة، وعليه، فإن تخلف الإرادة القانونية للروبوت سوف نكون بصدد تخلف ركن أساسي من أركان عقد الوكالة ألا وهو الرضا من جانب الوكيل، فيترتب عن ذلك بطلان عقد الوكالة. فضلا عن إشكالية تمتعه بالأهلية القانونية من عدمها. 

2.   تأسيس المسؤولية على نظرية النائب الإنساني:

بناء على نظرية النائب الإنساني وفقا للمشرع الأوربي كما سبقت الإشارة إلى ذلك، والتي نعتقد أنها الأرجح انطباقا على مسؤولية الذكاء الاصطناعي والأقرب منطقا من كل النظريات المومأ إليها سابقا، فالروبوت ليس جمادا أو شيئا، كما أنه ليس بكائن لا يعقل، وذلك بدليل وصف الإنسان المسؤول عن الروبوت بالنائب، وليس الحارس أو الرقيب، هذا بالإضافة إلى اعتبار الاتحاد الأوربي أن مشكلة عدم فرض المسؤولية على الروبوت تكمن في الإطار القانوني الحالي وليس في الروبوت ذاته.

وعلى خلاف جانب من الفقه،[20] فإن فكرة النائب الإنساني عن الروبوت وفقا للمشرع الأوربي لا تتطابق مع نظرية حارس الأشياء الميكانيكية أو ذات العناية الخاصة أو الحيوانات،[21] وذلك بدليل وصف النائب المغاير لوصف حارس الشيء.

والروبوت رغم كونه مازال مسخرا لخدمة البشر، فهو ليس بمركز التابع القانوني للإنسان وفقا للقانون الأوربي، لأن المتبوع لديه إشراف تام على التابع كامل الأهلية، كما بإمكان المتبوع الرجوع على التابع، فالمتبوع شخص تربطه علاقة تبعية وليست نيابية أو تمثيلية عن المسؤولية، فالقانون الأوربي قد فرض المسؤولية المدنية على النائب الإنساني لعلة عدم إمكانية فرضها على الروبوت ذاته في الوقت الحالي.

وليس لاعتباره دائما للإنسان، بل باعتباره آلة ذات منزلة قانونية خاصة تقوم على خدمة الإنسان، كما أن النائب الإنساني ليس بمحال عليه من الروبوت المدين ضمن حوالة الدين، لأن حوالة الدين تنشأ عن التزام موجود يلتزم بموجبه المحال عليه بتوفير مبلغ الالتزام الملقى على المحيل ذو الأهلية، وهي تتطلب موافقة الدائن، أما في حالة النائب الروبوت فلا ينشأ الالتزام في ذمة النائب الإنساني إلا إذا قام هذا الروبوت بخطأ يستتبع التعويض للمتضرر دون أخذ موافقته.

ولا يمكن مقارنة نظام النائب الإنساني بالكفيل، لأن الكفالة تتضمن تعهدا للدائن بأن يقوم الكفيل بالوفاء بهذا الالتزام إذا لم يفي به المدين نفسه وإن كان المدين مستقبليا، وذلك يتعارض مع انعدام وجود الاتفاق مع الدائن المتضرر من تشغيل الروبوت، بالإضافة إلى إقرار الفقه عدم جواز إلزام أن يكون كفيلا بقوة القانون كما هو الحال مع إلزام النائب الإنساني بالتعويض.

ويختلف نظام النائب الإنساني عن فكرة النيابة القانونية في أن النائب ينوب بقوة القانون دون وجود اتفاق مع المناب عن شخص معترف به أمام القانون، ولكن ناقص الأهلية أو معدمها، أو قد يكون كامل الأهلية كالناخب، وذلك بغاية تمثيل المناب وليس تحمل المسؤولية عنه.

وهكذا، فالتكييف القانوني التقليدي لمسؤولية النائب الإنساني عن الروبوت لا يمنح جوابا شاف أو حتى منطقيا للمعنى العميق الخاص بالعلاقة بين الإنسان والروبوت عندما يكون الإنسان نائبا عنه في تحمل مسؤولية أخطائه قبل حتى أن يتمتع الروبوت بالشخصية القانونية، وبالتالي، نحن في الواقع بصدد حالة أوروبية مبتكرة.

وتتمثل هذه الحالة في افتراض وجود نيابة عن المسؤولية بحكم القانون بين الروبوت الممثل والإنسان المسؤول بغرض نقل مسؤولية أفعال الروبوت إلى الإنسان، فالنائب الإنساني، نائب عن الروبوت يتحمل المسؤولية عن تعويض المتضرر جراء أخطاء التشغيل بقوة القانون. وبعبارة أوضح، نقل المسؤولية من الروبوت عديم الشخصية والأهلية إلى الإنسان بقوة القانون، بدليل استعمال المشرع الأوربي لمصطلح "نقل عبء المسؤولية" حيث تبنى هذا المشرع نظرية "النائب المسؤول" في حالة قيام:[22]

D    المسؤولية الكاملة: أي إثبات الخطأ والضرر والعلاقة السببية[23] خلال إدارة تصنيع الروبوت أو تشغيله، مع تطبيق مبدأ التناسب، فكلما كان استقلال الروبوت أعلى، كلما انتفت المسؤولية.

D    المسؤولية عن إخلال النائب المسؤول بواجب إدارة الخطر: الذي يفرض عليه تجنب الحادث المتوقع من فعل أو اهمال الروبوت خلال إدارة تشغيله، وهذا ما يقيم مسؤولية النائب عن اتخاذ موقف سلبي إزاء تخفيض مخاطر التشغيل هذه.[24]

وتماشيا مع ما تم ذكره، فإن نظرية النائب المسؤول هي حالة مؤقتة خاصة تهدف إلى الانتقال من نظام حارس الأشياء أو رقيب الشخص ناقص الأهلية ذات الخطأ المفترض، إلى النيابة مع نقل المسؤولية من الروبوت للإنسان على أساس إما الخطأ الواجب الإثبات في إدارة التصنيع أو التشغيل، أو الامتناع عن تجنب حادث خطر متوقع من الروبوت، وذلك لأن الروبوت لم يعد شيئا قابلا للحراسة، أو شخصا قاصرا قابلا للرقابة المحكمة، بل آلية ذكية مستقلة في التفكير كالإنسان الراشد الذي لا تصح الرقابة.[25]

وهكذا يتبين أن المشرع الأوربي من خلال هذه الحالة المبتكرة اتخذ موقفا وسطيا، فلم يعتبر الروبوت شيئا خاضعا للحراسة بغرض التمهيد لمنحه الشخصية القانونية مستقبلا من جهة، ولم يعتبره ناقص أو معدوم الأهلية خاضع للرقابة بغرض عدم الاعتراف ضمنيا بشخصيته القانونية الآن من جهة أخرى.

المحور الثاني: آثار تحقق المسؤولية المدنية عن أضرار الذكاء الاصطناعي.

أصبح الذكاء الاصطناعي حقيقة يصعب تجاهلها، ولا شك أن الدول المتقدمة تتوجه قدرا كبيرا من استثماراتها نحو مجال الذكاء الاصطناعي، بهدف تحقيق رفاهية مجتمعاتها وازدهارها.

وتشكل الخصوصية التي يتمتع بها الذكاء الاصطناعي، لاسيما خاصية الاستقلالية والتعلم الذاتي، تحد جديد انظام المسؤولية المدنية وذلك بالنظر إلى حجم الأضرار التي يمكن أن تنجم عنه، إذ يعتبر التعويض المرحلة التالية لقيام المسؤولية المدنية عن تلك الأضرار، مما يرتب حق للمضرور في التعويض غير أن الحصول على هذا الحق بالطرق الكلاسيكية قد لا يتوافق في الواقع مع ما يتسم به الذكاء الاصطناعي من خصوصية وصعوبة في تقييم المخاطر الناتجة عنه، الأمر الذي دفع المشرعين في مختلف الدول إلى ابتكار حلول وأنظمة جديدة لتمكين للمضرورين من جبر الضرر الذي أصابهم دون تكاليف باهضة، هذه النظم التي يمكن إجمالها في التعويض القضائي (أولا)، ثم التعويض التلقائي (ثانيا).

أولا: التعويض القضائي عن أضرار الذكاء الاصطناعي:

التعويض القضائي هو الصادر عن المحكمة لصالح المتضرر، مما يفيد أن التعويض يخضع للسلطة التقديرية للقاضي، وهو حر في ذلك شريطة تعليل حكمه، والقاعدة هي أن يكون التعويض كاملا، أي التوازن بين التعويض وحجم الضرر، وألا يتجاوز قيمته الحقيقية وإلا يعوض عن الضرر مرتين. ورغم تعدد أنظمة التعويض إلا أن القاضي غير ملزم بأي منها وما يتوجب عليه هو احترام المبادئ لعامة فالتي استقر عليها الفقه والقضاء ي قضايا التعويض.

أما عن المطالبة بالتعويض، يتعين على المضرور أن يثبت في دعواه العناصر التي يؤسس عليها الضرر وإلا قوبل طلبه بعدم القبول، هذا التعويض الذي يتأثر بالوضعية المالية والعائلية للمضرور، كما يتأثر بمدى مساهمة المضرور في الخطأ أو الفعل الذي ترتب عنه الضرر.[26] 

أما من جهة المسؤول عن الضرر ينبغي على القاضي عدم الاعتداد بمركزه المالي، إذ لا يسوغ له زيادة مبلغ التعويض إذا كان المسؤول عن الضرر غنيا، غير أنه يمكن عند تقدير التعويض الأخذ بعين الاعتبار بيساره أو اعساره ترجيحا لاعتبارات العدالة. كما أنه لا يعتد بدرجة الخطأ، حيث أن الخطأ اليسير يمكن أن يترتب عنه ضرر جسيم لأن التعويض يقدر على أساس الضرر لا على جسامة الخطأ.[27]

 وبخصوص الوقت الذي يقدر فيه الضرر، فقد استقر الفقه والقضاء على تقدير الضرر يوم صدور الحكم، لتحقيق التوازن بين الضرر والتعويض، لأنه من المفترض أن تبقى نتيجة الخطأ ثابتة ومن ثمة يتعين على القاضي عند تقديره للتعويض أن يراعي حالة المضرور عند البت في الدعوى.

ويتم جبر الضرر أو إصلاحه في ضوء القواعد العامة إما عن طريق التعويض العيني الذي يقوم على إعادة الحالة إلى ما كانت عليه قبل حدوث الضرر بإزالة هذا الأخير وآثاره، وقد يتم عن طريق التعويض بمقابل، الذي يكون بمنح المضرور عوضا عن الضرر إما تعويض نقدي أو غير نقدي.

ثانيا: التعويض التلقائي عن أضرار الذكاء الاصطناعي:   

يتمثل التعويض التلقائي في التأمين (1)، والصناديق الجماعية للتعويض (2).

1)  التأمين:

للتأمين دور مهم لا يقتصر على تعويض الأضرار، بل يؤدي وظيفة أخرى هي الاحتياط لبعض الوقائع المستقبلية حتى لو كان وقوعها لم يحدث أي ضرر، ويندرج تحت فكرة تعويض الأضرار التأمين على الأشياء والتأمين عن المسؤولية، بينما يندرج تحت فكرة الاحتياط في المستقبل التأمين على الأشخاص كالتأمين ضد الوفاة.[28]

وعليه، فإن بوليصة التأمين على الروبوتات توفر الحماية المالية عن الأضرار الناجمة عن استخدام الذكاء الاصطناعي. ويعد نظام التأمين وسيلة ناجعة لتوزيع تكاليف الحادث، ونقل تكلفة الأضرار من على عاتق المسؤول عن الضرر إلى شركة التأمين، مما يمكن معه القول بأن التأمين حل من الحلول الجيدة التي تتماشى مع انتشار استخدام الذكاء الاصطناعي.

فإذا كان التأمين آلية أساسية لتمكين نقل التكنولوجيا وخلق صناعات جديدة، فإن ذلك يتطلب وجود طرق ملائمة لتقييم المخاطر، والتي تؤدي إلى وضع الشروط الأساسية لتطوير صناعة التأمين الخاصة بالروبوتات، ومن ثم إنشاء سوق تأمين جديدة لإدارة الصناعات الخطرة والمتطورة، لهذا قام الاتحاد الأوربي للتأمين ضد الأخطار كحل مقترح ينطبق على جميع أنواع الروبوتات بوجه عام.

2)  صناديق التعويض:

تعد صناديق التعويض حسب قرار البرلمان الأوربي الصادر في 16 فبراير 2017، ألية لتمكين المضرورين من الحصول على التعويض عن الحالات التي لا يوجد لها غطاء تأميني، وذلك لأن القواعد التقليدية للمسؤولية المدنية تقوم على وجود المسؤول عن التعويض، وهو ما لا يتوافق مع الحالة التي يتعذر معها معرفة المسؤول عن الضرر، لذلك ظهر ما يعرف بالمسؤولية الاجتماعية مقابل المسؤولية الفردية.[29]

وتجدر الإشارة في هذا الصدد إلى أنه في الحالات التي يمكن إنشاء صناديق التعويضات دون وجود نظام تأمين إجباري فإن هذه الصناديق تصبح ملزمة بتعويض جميع الأضرار الناجمة عن الذكاء الاصطناعي، مما يمكن القول معه أن هذه الصناديق تكون عرضة للإفلاس بسبب ضخامة التعويضات.

غير أنه في حقيقة الأمر يكون لهذه الصناديق دور فعال في مواجهة مخاطر الذكاء الاصطناعي في الحالات التي لا يقدم فيها التأمين تغطية كاملة للأضرار، أي أن الغاية منها هي تحقيق التعويض الكامل للمضرور عندما يكون قد تم تعويضه جزئيا.

خاتمة:

إن استخدام برامج الذكاء الاصطناعي في مختلف القطاعات يثير العديد من الصعوبات والإشكاليات، لا سيما فيما يتعلق بالمسؤولية عن أعمال هذه البرامج ومدى وملاءمتها للتشريعات الحالية وقدرتها على استيعاب الخصائص الفريدة لهذا التقدم التكنلوجي، لهذا أصبح وضع تشريعات خاصة بالذكاء الاصطناعي أولوية للدولة العربية بصفة عامة، والمملكة المغربية بصفة خاصة، في إطار مقاربة تشاركية، تدخل جميع الفاعلين المتصلين بهذا الموضوع في نقاش عميق ومستفيض، للخروج بقواعد قانونية ذات درجة عالية من النجاعة تتوافق مع خصوصية هذه البرامج التكنولوجية المتطورة، وتضمن استخدامه بطريقة مسؤولة وآمنة.



[1] Carmody, F. J. (1952). Les Cahiers de la Pléiade. French Review, 21-31.   

[2] الذكاء الاصطناعي هو العلم الذي يهدف إلى لإكساب الآلات صفة "الذكاء"، تمكينا لها لمحاكاة قدرات التفكير المنطقي الفريدة عند الإنسان. وقد تعددت التعريفات المقترحة للذكاء الاصطناعي وإن كان أشهرها التعريف الذي أقره عراف الذكاء الاصطناعي الجديد "جون مكارثي" بوصفه: "علم وهندسة صنع آلات ذكية". وستند الذكاء الاصطناعي في وجوده إلى الثورة الصناعية الرابعة، حيث يعود أول استعمال أكاديمي وبحثي له للعام 1950، من قبل "آلان تورنيغ" الذي قدم له من خلال اختبار "تورنيغ" حمل اسمه، وتمحور حول تقييم الذكاء لجهاز الكومبيوتر، بحسب قدرته على محاكاة العقل البشري، في حين أن أول استعمال رسمي للمصطلح يعود العلم إلى منتصف القرن الماضي وتحديدا لعام 1956 الذي شهد انعقاد أول مؤتمر للذكاء الاصطناعي في كلية دارتموث، بحضور قادة بحوث الذكاء الاصطناعي كجون مكارثي، ومارفن مينسكي، وألين نويل، وهيربرت سيمون.

راجع في هذا الصدد:

-   عبير أسعد، الذكاء الاصطناعي، دار البداية، عمان، الأردن، ط1، 2017.

-   زياد عبد الكريم القاضي، مقدمة في الذكاء الاصطناعي، دار صفاء للطباعة والنشر، عمان، الأردن، ط1، 2010.

-   آلان بونيه، الذكاء الاصطناعي: واقعه ومستقبله، ترجمة علي صبري فرغي، إصدارات مجلة عالم المعرفة، عدد 173، 1993.

[3] ظهرت كلمة "روبوت" لأول مرة سنة 1920، في مسرحية الكاتب المسرحي التشيكي "كارل تشابيك"، التي حملت عنوان: "رجال رسوم الآلية العالمية"، التي تمت ترجمتها إلى اللغة العربية سنة 1983 من قبل الكاتب طه محمد طه بتكليف من وزارة الإعلام الكويتية. راجع: إصدارات المسرح العالمي، العدد 160.

وترمز كلمة "روبوت" في اللغة اللاتينية إلى العمل الشاق، إذ أنها مشتقة من كلمة Robota التي تعني السخرة أو العمل الجبري، ومبتكر هذه الكلمة

[4] مجالات تطبيق الذكاء الاصطناعي:

[5] الثورة الرقمية الذكية بمكوناتها الثلاثة الرئيسية: أنترنت الأشياء، والبيانات الضخمة، إضافة إلى الذكاء الاصطناعي، جعلت القانون يقف في كثير من المواضع، موقف المتفرج المنتظر أكثر منه الفاعل المتدخل، كما في قضايا الحق، والشخصية، والمسؤولية، والملكية، وحماية الحياة الخاصة، وغيرها من المواضيع. راجع في هذا الصدد:

-     محمد بومديان، الذكاء الاصطناعي تحد جديد للقانون، مقال منشور بمجلة مسارات في الأبحاث والدراسات القانونية، عدد مزدوج التاسع/العاشر، 2020.

-     محمد عرفان الخطيب، المركز القانوني للإنسآلة (Robots)، قراءة في القواعد الأوربية في القانون المدني للإنسآلة (Robots) لعام 2017: الإشكاليات والتحديات...دراسة تأصيلية مقارنة، مجلة كلية القانون الكويتية العالمية، السنة السادسة، العدد الرابع، العدد التسلسلي 24، دجنبر 2018.

-     ممد عرفان الخطيب، ضمانات الحق في العصر الرقمي من تبدل المفهوم...لتبدل الحماية، قراءة في الموقف التشريعي الأوروبي والفرنسي وإسقاط على الموقف التشريعي الكويتي، مجلة كلية القانون الكويتية العالمية، أبحاث المؤتمر السنوي الدولي الخامس، "التحديات المعاصرة للضمانات القانونية في عالم متغير"، المنعقد يومي 9-10 ماي 2018، ملحق خاص، العدد الثالث، الجزء الأول، دجنبر 2018.     

[6] هشام الجميلي، المسؤولية المدنية ودعاوى التعويض وفقا لأحكام محكمة النقض، أحمد حيدر للإصدارات القانونية، مصر، الطبعة الأولى، 2018، ص.294

[7] وقد أوضح تقرير صادر عن شركة Fast Co Design)) أن الفيس بوك قد أغلق برنامجا للذكاء الاصطناعي، لأنه طور لغة للتواصل خاصة به غير اللغة الإنجليزية، حيث بدأ الربوتان "بوب وأليس" في التواصل مع بعضهما، والوصول لاتفاق بينهما لإنجاز مهمة معينة باستخدام لغة جديدة غير معروفة ولم يستطع المبرمجون تحديدها. وقد استطاع الربوتان تطوير هذه اللغة الجديدة بسبب خطأ بشري من المبرمجين، فمن المفترض أن يقوم مهندسو الروبوتات بوضع قيود أو حدود على قدرة الروبوتات على التعلم حتى يمكن السيطرة عليها، وقد غفل المهندسون عن برمجة الروبوت لكي تكون لغة التواصل فقط هي اللغة الإنجليزية، مما جعل الربوتان يقومان بتطوير لغة جديدة خاصة بهم. / إيهاب خليفة، مخاطر خروج الإنسان الآلي عن السيطرة البشرية، المستقبل للأبحاث والدراسات المتقدمة، منشور على موقع:

https://futureuae./ar/ainpage/Item/3063عن-السيطرة-البشرية--تهديدات-ذكية-مخاطر-خروج-الذكاء-الاصطناعي

تم الاطلاع بتاريخ: 29/05/2021، على الساعة: 16h30

[8] المقصود باستعمال الشيء هو القدرة على استخدامه لتحقيق غرض معين وفقا لما أعد له ذلك الشيء بطبيعته أو وفقا لرغبة الشخص الذي يستخدمه. / محمد سعيد الرحو، فكرة الحراسة في المسؤولية المدنية عن الأشياء غير الحية، الدار العلمية الدولية للنشر والتوزيع ودار الثقافة للنشر والتوزيع، عمان، الطبعة الأولى، 2001، ص.78  

[9] يراد بها أن يتولى الشخص زمام الشيء فتكون له القدرة على التحكم فيه وإدارته وإصدار الأوامر التي تنظم استعماله وتتصل به عندما يكون الشيء في حيازة غيره، فالتوجيه إذن هو سلطة الأمر التي ترد على استعمال الشيء. / محمد سعيد الرحو، نفس المرجع، ص.79

[10] تعني سلطة الرقابة سلطة فحص الشيء وصيانته وإصلاحه واستبدال الأجزاء التي قد تتعرض للتلف الكلي أو الجزئي بأخرى سليمة وصالحة، وذلك لضمان صلاحية الشيء للاستخدام أو الاستعمال المخصص له. محمد سعيد الرحو، نفس المرجع، ص.86

[11]  محمد سعيد الرحو، المرجع السابق، ص.87

[12] نريمان مسعود بو رغده، المسؤولية عن فعل الأنظمة الإلكترونية الذكية، حوليات جامعة الجزائر، العدد 31، الجزء 1، 2017، ص.137 / نيلة علي خميس محمد خرور المهيري، المسؤولية المدنية عن أضرار الإنسان الآلي، دراسة تحليلية، أطروحة مقدمة لاستكمال متطلبات الحصول على درجة الماجستير في القانون الخاص، جامعة الإمارات العربية المتحدة، كلية القانون، أبريل 2020، ص.32

[13] محكمة النقض الفرنسية، نقض مدني، الصادر من محكمة باريس سنة 1980، أشار له: سمير الصاوي، مسؤولية المتبوع عن أفعال تابعه في المجال الطبي، دار الجامعة الجديدة، الإسكندرية، الطبعة الأولى، 2019، ص.16

[14] سمير الصاوي، نفس المرجع، ص.17

[15] نيلة خميس محمد خرور المهيري، نفس المرجع، ص.42

[16] علي عبد العالي الاسدي، نحو نظرية عامة للوكالة اللازمة في القانون المقارن، منشورات الحلبي الحقوقية، بيروت، الطبعة الأولى، 2015، ص.15

[17] محمد شريف عبد الرحمان، الوكالة في التصرفات القانونية، دار الفكر والقانون، مصر، الطبعة الأولى، 2015، ص.30

[18] محمد العرفان الخطيب، المركز القانوني للإنسآلة: الشخصية والمسؤولية، دراسة تأصيلية مقارنة، مجلة كلية القانون الكويتية العالمية، المجلد 4، 2018، ص.102-118

[19] نيلة خميس محمد خرور المهيري، نفس المرجع، ص.46

[20] سوجول كافيتي، قانون الروبوتات، مجلة المعهد (معهد دبي القضائي)، العدد 21، أبريل 2015، ص.33

[21] حوراء موسى، التنظيم التشريعي لاستخدامات الطائرة من دون طيار والروبوتات، مجلة المعهد (معهد دبي القضائي)، العدد 21، أبريل 2015، ص.23

[22] Section AD, the European Parliament, Civil Law Rules on Robotics of 2017.

[23] ".. Strict liability (fault, damage and causal link)". See: Antoine GUILMAIN, "A Look at Artificial Intelligence in Europe", MAY 23, 2017. See: https://www.fasken.com/en  .(2021/05/27)

[24] مثل ترك الحافلة ذاتية القيادة تدهس المارة رغم وضوح اتجاهها الخاطئ وقدرة شركة النقل المشغلة لها على اعتراضها بحافلة أخرى، ولكن تترك الشركة الحافلة الذاتية تسير في مسارها الخاطئ حتى لا تتضرر بحافلتين.

[25] Section AA, the European Parliament, Civil Law Rules on Robotics of 2017.

[26] عبد الرزاق السنهوري، الوسيط في شرح القانون المدني، الجزء الأول، دار النهضة العربية، القاهرة، 1964، ص.1087

[27] نبيل سعد، النظرية العامة للالتزام: مصادر الالتزام، دار الجامعة الجديدة، الإسكندرية، 2019، ص.374

[28] محمد لطفي، الأحكام العامة لعقد التأمين، دراسة مقارنة بين القانونين المصري والفرنسي، دار النهضة العربية، القاهرة، 2018، ص.61 وما بعدها

[29] عبد الرزاق وهبه سيد أحمد محمد، المسؤولية المدنية عن أضرار الذكاء الاصطناعي: دراسة تحليلية، مجلة جيل للأبحاث القانونية المعمقة، العدد 43، أكتوبر 2020، ص.37