7 التحديات التي تواجه ممارسة الذكاء الاصطناعي في إطار المسؤولية القانونية والأخلاقية

حدد المستثمرون ومسؤولو الذكاء الاصطناعي والمهنيون القانونيون 7 تحديات رئيسية في ممارسة الذكاء الاصطناعي والمسؤوليات القانونية والأخلاقية لتطور الأعمال.

يتم تقديم هذه التحديات في غياب قوانين محددة تحكم استخدام مركبات الذكاء الاصطناعي.المسؤولية عن السلوك غير المتوقع. حيث أنه يضع المسئولية الكاملة على من يستخدم الأنظمة الإلكترونية دون مراعاة العوامل المرتبطة بالبيئة.

وشدد الاقتصاديون على أن التنظيم القانوني لأي قطاع استثماري يساهم في خلق بيئة متناغمة ضمن إطار سياسات محددة تتماشى مع أهداف النمو المنشودة في القطاع ذي الصلة ، مما يعزز الاستخدام بما يضمن ثقة المستثمر.

لقد اعتقدوا أن مجال الذكاء الاصطناعي ينمو بسرعة ، الأمر الذي يتطلب من أصحاب المصلحة إعداد تشريعات من شأنها الإشراف على استخدامه ، وتحديد المسؤوليات في الممارسة العملية ، وخلق بيئة استثمارية متطورة رائدة في مجال التكنولوجيا. التقنيات المتعلقة بالذكاء الاصطناعي.

وأشاروا إلى أن التكنولوجيا تسبق التشريعات من خلال تطورها المتسلسل “السريع” والوصول إلى جميع المجالات ، الأمر الذي يتطلب صياغة قوانين مرنة تكون قادرة على مواكبة التطورات الحالية في تطوير ممارسات الذكاء الاصطناعي.

وأشاروا إلى أن أي بيئة استثمارية متطورة يجب أن تستند إلى تشريعات تحكم العمل وتخلق بيئة جذابة للاستثمار الدولي ، وأضافوا أن العالم لم يتوصل بعد إلى إطار قانوني مشترك يحكم التطور التكنولوجي. التزاماتها القانونية والأخلاقية.

من المسؤول عن الخطأ؟

أكد الأستاذ الدكتور عماد عبد الرحيم الضحيات ، رئيس قسم القانون الخاص بجامعة الإمارات ، أنه لا توجد قوانين محددة يمكن أن تنظم قضايا التعدي على الذكاء الاصطناعي.

وأكد أن التشريع لا يتضمن نهجا شاملا لمختلف جوانب تكنولوجيا الذكاء الاصطناعي ، حيث أن معظم التشريعات تعتبر عمل البرمجيات امتدادا لأولئك المستخدمين الذين يشككون في نتائجها بشكل مطلق. مباشرة من قبلهم ، بحيث يكون التشريع متساويًا في الحكم مع “البرامج الأخرى بدون ميزات استخباراتية”. حركة الاستقلال.

وأوضح أن التطبيقات الذكية تتمتع باستقلالية غير متوقعة ، وتتخذ قراراتها وفق ما تمليه البيئة ، دون الرجوع لمستخدميها ، الأمر الذي قد يثير مخاوف بشأن المسؤولية القانونية والأخلاقية الناشئة عن عمل هذه التطبيقات ، من أن الآلة ذاتية القيادة يسبب ضررا كبيرا بسبب العوامل. لا يمكن التنبؤ به է هل من غير المتوقع أن نسأل من يسأل في مثل هذه الحالة: المستخدم أم المبرمج أم المنتج أم مشرف الموقع أم مزود الخدمة أم غيرهم؟

وأشار إلى أن عددًا من التحديات التي تطرحها تقنية الذكاء الاصطناعي تظهر أنها لم تصل بعد إلى ذروتها من الكمال ، وأن برامجها لا تزال عرضة للفيروسات أو الثغرات التقنية ، والتي يمكن أن تجبرها أحيانًا على العمل بطرق غير متوقعة أو غير مصرح بها ، تسبب ضرراً جسيماً ، وهو ما يعيد إلى الأذهان مسألة كيفية توزيع المسؤولية الناشئة عن أفعال مثل هذه البرامج.

وأضاف أن فشل برنامج ذكي أو روبوت لا يرجع دائمًا إلى الإهمال أو الخطأ في تطوير البرمجة և عمليات التطوير ، حيث يرتبط أحيانًا بطبيعة البرنامج البيئة الرقمية ، أو عوامل أخرى և الجوانب التي هي يصعب تحديده بدقة ، بما في ذلك الفيروسات والأعطال الفنية ، مشيرًا إلى الحاجة إلى إيجاد آلية لإسناد المسؤولية القانونية التي تحقق التوازن بين التصميم والإنتاج والاستخدام.

المعايير قريبا

وأوضح أن الإمارات سهلت عدة نقاشات من خلال عقد عدة مؤتمرات قانونية متخصصة ستؤدي قريباً إلى تطوير معايير مهنية وصناعية وأخلاقية في تطبيق تقنيات “الذكاء الاصطناعي” ، وتقديم مقترحات لتطوير القواعد القانونية لمسؤولية الأعمال. للضرورة. الروبوتات ، حتى للمشاركة في إنشاء مركز قانوني خاص للروبوتات المتقدمة ، والتي يجب أن يوفرها كيان قانوني إلكتروني.

ونصح الدكتور الضاحية بضرورة إصدار قانون للذكاء الاصطناعي ، على أن يلعب علماء الحاسوب دورًا في تطوير نصوصه ، جنبًا إلى جنب مع ممثلين عن مجال تقنية الذكاء الاصطناعي ، للتوافق مع المتطلبات القانونية أثناء تطويره. البرامج. برامج ذكية للحد من مخاطرها ، وكذلك الحاجة إلى إصدار أحكام حول البرامج حسب مستوى تطورها ؛ الاستعانة بالشركات المؤهلة فنياً ومالياً في المرحلة الأولى لتحمل العواقب և تدريب الكوادر الوطنية على التعامل مع مختلف جوانب هذه التقنية والإبلاغ عن مزاياها المختلفة: مخاطرها.

التكنولوجيا تسبق التشريعات

من جهته ، أكد رئيس مجلس إدارة شركة Smart World المتخصصة في الحلول الرقمية الذكية ، أن التكنولوجيا تسبق التشريعات ، لذلك تعمل الجهات المعنية في دولة الإمارات على تطوير نظام تشريعي لتطوير الذكاء الاصطناعي واستخدامه. على هذا النحو.جزء من مسارها الاستراتيجي لعام 2031 في القطاع ، والذي سيؤدي إلى خلق بيئة عالمية رائدة للاستثمار في عمليات الآلات الجذابة.

وأوضح أن الاستخدام المسؤول للذكاء الاصطناعي يشمل 5 عوامل رئيسية لإضفاء الشرعية على ممارساته وأفعاله ، وهي عدم الامتثال ، والذي يمكن أن يؤدي إلى إغفالات في السلوكيات غير المرغوب فيها للطبيعة ، حيث يجب أن تكون الخوارزميات شاملة ، ومتنوعة ، ومسؤولية توضيح نتيجة القرار ، بالإضافة إلى ضمان انتهاكات الخوارزميات ، وإدارة تطبيق الخوارزميات ، և أخيرًا ، الأخلاق التشريعات القانونية ، والتي تعادل تطوير التكنولوجيا التقنية և الذكاء الاصطناعي.

وأشار إلى أن القوانين لم يتم وضعها بعد بما يتوافق مع تطور التكنولوجيا التقنية ، “لا يوجد شيء” يحدد الالتزامات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي ، لذلك يسعى أصحاب المصلحة الإماراتيون إلى تشريعات قانونية لضبط ممارساتها اجعلها تتقدم تتماشى مع التطور السريع للتكنولوجيا استخدامها.

ارتفاع استخدام الذكاء الاصطناعي

قال تيري نيكول من Salesforce ، الشرق الأوسط ، إفريقيا ، قسم الأعمال في أوروبا الوسطى ، Salesforce ، إنه قبل وباء COVID-19 أجبر الصناعات على تغيير نماذج أعمالهم وقدراتهم الرقمية حسب الحاجة. أسرع և أكثر كفاءة.

وأشار إلى أنه على الرغم من فوائد جعل الحياة أسهل وأكثر راحة ، فإن تطوير الأتمتة أثار مخاوف بشأن مستقبل الوظائف ، والمسؤولية القانونية والأخلاقية لعمل الآلة.

من جانبه ، قال روديون سنيل ، مدير استشارات الأعمال في شركة SAP في منطقة الشرق الأوسط وشمال إفريقيا ، إنه من المهم الحصول على فكرة واضحة عن الاستخدامات المرغوبة للذكاء الاصطناعي في الشركات ، حيث أن الذكاء الاصطناعي ليس سوى أداة واحدة. مجموعة الأدوات الفنية التي يمكن استخدامها لتحقيق النتائج المرجوة في الأعمال.

ويعتقد أن نجاح الذكاء الاصطناعي يعتمد على البيانات المستخدمة في تدريبه ، لذا فإن استخدام البيانات عالية الجودة من خلال هندسة البيانات الفعالة هو مفتاح نجاح الذكاء الاصطناعي في المنظمات.

.

أضف تعليق