أخلاقيات السيارة. تحديات الذكاء الاصطناعي

توفر التقنيات الرقمية المتصلة فرصًا كبيرة للاقتصاد والمجتمع ، ولكنها في الوقت نفسه تطرح مشكلات أخلاقية ، كما هو الحال مع تقنية التعرف على الوجه. بدورها ، تواجه سويسرا ، إحدى الدول الرائدة في مجال الذكاء الاصطناعي ، تحديات مماثلة.

تم نشر هذا المحتوى في 27 أغسطس 2021 ، 08:55 يوليو ،

فقدان الوظيفة بسبب الأتمتة (أو الأتمتة) ، ما يسمى بفقاعة التصفية [أوFilter Bubble باللغة الإنكليزية، والمُستَحدَمة حالياً على الإنترنت لتحديد التفضيلات الشخصية]حماية البيانات ، والتعرف على الوجوه ، ومقاطع الفيديو المزيفة (باستخدام تزوير عميق) ، والأمن السيبراني ، وإساءة استخدام الذكاء الاصطناعي. لقد جلبت الرقمنة بلا شك تحديات أخلاقية جديدة غير مسبوقة تاريخيًا.

لكن ماذا لو وقع الذكاء الاصطناعي في الأيدي الخطأ؟ إنه شيء لا يمكنك حتى تخيله. على سبيل المثال ، لا تزال البلدان في جميع أنحاء العالم تختلف حول الحاجة إلى وضع قواعد صارمة تحكم استخدام ما يسمى بـ “الروبوتات القاتلة”. كانت النتائج مخيبة للآمال إلى حد كبير ، بعد أسبوع من المفاوضات في الأمم المتحدة هذا الربيع.

على الرغم من عدم وجود سلاح فتاك ذاتي التشغيل بالكامل حتى الآن ، يتوقع النشطاء أن يتم استخدام هذا الجيل من الأسلحة في المعارك الميدانية على مدى السنوات القليلة المقبلة ، نظرًا للتقدم التقني السريع في هذا المجال ، والاستخدام الواسع للذكاء الاصطناعي ، والأشكال المتقدمة الأخرى. التقنيات.

تعتبر سويسرا من الدول الرائدة في تطوير الذكاء الاصطناعي. يمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات الرقمية وأجهزة الكمبيوتر على أداء مهام معينة تحاكي العمل الذي تقوم به الكائنات الذكية. مثل القدرة على التفكير أو التعلم من العمليات الأخرى التي تتطلب ممارسة سابقة. تعتمد عملية التعلم على معالجة كميات كبيرة من البيانات المجمعة.

في سويسرا ، تعمل العديد من الشركات الناشئة على تطوير أنظمة تكيف ذكية ، سواء في شكل روبوتات أو تطبيقات أو مساعدين رقميين شخصيين ، مما سيجعل حياتنا أسهل على المدى الطويل. ومع ذلك ، فهو يواجه باستمرار معضلة أساسية تتعلق بالقضايا الأخلاقية “. أين يجب أن ترسم هذه الشركات الخط الأحمر مع الحفاظ على هدفها المتمثل في بيع تقنيتها؟

تتجلى هذه المشكلة بشكل خاص في التفاعل بين البحث والتطبيق المحدد. على سبيل المثال ، تشارك الجامعات السويسرية أيضًا في مشاريع ممولة من الولايات المتحدة تتراوح من الكاميرات الجوية إلى طائرات الاستطلاع بدون طيار المستقلة.

الموقف السويسري

تريد سويسرا أن تكون رائدة في تشكيل مستقبل المعايير الأخلاقية حول الذكاء الاصطناعي. لكنها فشلت في التعاون مع الدول الأخرى حتى في البرامج البسيطة.

حدث ذلك مع برنامج البحث عن جهات الاتصال السويسري الذي يهدف إلى تعقب الإصابة بفيروس كورونا. هنا ، يدور الجدل حول الحاجة إلى تخزين البيانات المركزي [على خادم خارجي واحد] أو فقط على جهاز محمول (مثل الحل السويسري).

إذن ، من أين تبدأ سويسرا سعيها للحصول على دور قيادي؟ تعتبر Swiss Digital Trust Label ، التي تهدف إلى زيادة ثقة المستخدمين في التقنيات الجديدة ، محاولة في هذا الاتجاه. يعتمد على إتاحة المعلومات حول الخدمات الرقمية بكثرة للمستخدمين ، وخلق الشفافية ، وضمان احترام القيم الأخلاقية.

قال Ninian B gen ، مدير المبادرة الرقمية السويسرية مع Swiss Digital Trust Label: “في الوقت نفسه ، تهدف العلامة التجارية إلى المساعدة في ضمان أن يصبح السلوك الأخلاقي والمسؤول ميزة تنافسية للشركات”.

هناك اتفاق واسع النطاق على تعريف القواعد والحاجة إلى تحديد الحدود الأخلاقية بوضوح. تحقيقا لهذه الغاية ، أنشأت الحكومة السويسرية مجموعة عمل مشتركة بين الوكالات بشأن الذكاء الاصطناعي. في أواخر تشرين الثاني (نوفمبر) 2020 ، اعتمدت الحكومة المبادئ التوجيهية للذكاء الاصطناعي ، التي وضعها فريق بقيادة الإدارة الفيدرالية للاقتصاد والتعليم والبحث العلمي. توفر هذه الإرشادات إطارًا توجيهيًا للإدارة الفيدرالية.

قال تقرير صادر عن مجموعة العمل المشتركة بين الإدارات حول الذكاء الاصطناعي: “يمكن استغلال الفرص الجديدة للذكاء الاصطناعي لسويسرا”. تحقيقًا لهذه الغاية ، من الممكن توفير أفضل الظروف الإطارية الممكنة التي ستسمح لسويسرا بتطوير مكانتها كواحدة من مواقع الابتكار الرائدة في العالم في مجال البحث والتطوير وتطبيق الذكاء الاصطناعي. في الوقت نفسه ، من الممكن معالجة المخاطر المرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب “.

في أغسطس 2021 ، قررت الحكومة الفيدرالية إنشاء “شبكة ذكاء اصطناعي”.رابط خارجي:وأوضح أن إنشائها سيبدأ على الفور ، وستكون جاهزة للعمل في ربيع عام 2022. الهدف من التمريرة هو أن تكون بمثابة نقطة اتصال للشبكات الداخلية والخارجية للإدارة الفيدرالية لكل ما يتعلق بقضايا الذكاء الاصطناعي ذات الطبيعة العامة.

مفاهيم أخلاقية مختلفة

تدعو العديد من الأطراف إلى اعتماد معيار عالمي ملزم. على سبيل المثال ، تناول البرلمان الأوروبي على نطاق واسع مسألة مخاطر الذكاء الاصطناعي. وفي عام 2018 ، قدمت مجموعة من الخبراء شكلتها المفوضية الأوروبية مسودة مبادئ توجيهية أخلاقية يمكن أن تميز الذكاء الاصطناعي الموثوق به. لكن لا توجد حتى الآن استراتيجية عالمية متفق عليها لتحديد المبادئ المشتركة.

بشكل عام ، هناك بالفعل العديد من الإعلانات والمبادئ التوجيهية. لكن التحليل المنهجي لـ 84 وثيقة ذات صلة من مختبر الأخلاقيات والسياسة الصحية التابع لـ ETH Z Eurek أظهر أنها تفتقر إلى مبدأ أخلاقي مشترك.

نظرًا للاختلافات الكبيرة بين القيم الأخلاقية الأساسية المستخدمة في مختلف البلدان ، فليس من الواضح تمامًا ما إذا كان يمكن تحقيق تسوية موحدة للذكاء الاصطناعي في سياق دولي. على أي حال ، احتوى أكثر من نصف البيانات على أكثر من خمس قيم أساسية: الشفافية ، والعدالة ، والعدالة ، ومنع الضرر ، والمسؤولية ، وحماية البيانات ، والسرية.

يبدو أن هذه المناقشة محتدمة أيضًا بين عمالقة التكنولوجيا مثل Google. بعد نزاع أخير ، قامت المجموعة بفصل اثنين من خبرائها الأخلاقيين. إنه قرار يدعو إلى التساؤل عما إذا كان الالتزام بالقواعد الأخلاقية للذكاء الاصطناعي يمثل حقًا أولوية قصوى لشركات التكنولوجيا الكبيرة.

يريد المركز الجديد للذكاء الاصطناعي في المعهد الفيدرالي للتكنولوجيا في أور يوريش الآن التركيز على الأقل على القيم الأخلاقية الأوروبية. سيجمع هذا المركز جميع ابحاث المعهد العالي في مجال الذكاء الاصطناعي. وكما قال ألكسندر إيليتش ، المدير التنفيذي للمركز لـ swissinfo.ch ، يجب أن يكون الناس في قلب هذا البحث.

“الشخص الذي يصمم شيئًا جديدًا يتحمل أيضًا مسؤولية معينة. وقال “لذلك يمكن أن يساعدنا في إجراء حوار حول ذلك ، لدمج قيمنا الأوروبية في تطوير استخدام الذكاء الاصطناعي”.

الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي القدرة على تبسيط حياتنا. ويتم ذلك بشكل أساسي من خلال أنظمتها ، مما يساعدنا في توفير الوقت. في أحسن الأحوال ، يمكن للذكاء الاصطناعي أن ينقذ الأرواح. على سبيل المثال ، عند استخدام طائرة الإنقاذ بدون طيار ، يمكن أن تدخل منطقة ضيقة جدًا يصعب على طائرات الإنقاذ العادية الوصول إليها.

بالإضافة إلى ذلك ، يقدر مركز أبحاث البرلمان الأوروبي أن الذكاء الاصطناعي يمكن أن يساعد في تقليل انبعاثات غازات الاحتباس الحراري العالمية بنسبة 1.5-4٪ بحلول عام 2030. وفقًا للتقديرات الأولية ، فإن هذه الكمية قريبة من جميع انبعاثات الهواء.

ذكر تقرير صادر عن مجموعة العمل المشتركة بين الإدارات التابعة للحكومة السويسرية حول الذكاء الاصطناعي أن “تحديات تحويل الأنظمة في مجالات إمدادات الطاقة وإمدادات الطاقة والإسكان والتنقل كبيرة”. وبحسب الفريق ، فإن الذكاء الاصطناعي ، باعتباره تقنية متقدمة ، “سيلعب دورًا مهمًا في مواجهة هذه التحديات”.

كما اتضح هذا العام ، تسبب اندلاع COVID-19 في اعتماد العديد من الخدمات على التكنولوجيا الرقمية بين عشية وضحاها. وقد أدى ذلك إلى زيادة استخدام برامج الذكاء الاصطناعي في الحياة اليومية ، فضلاً عن استخدام الروبوتات المتنقلة لتطهير الغرف في المباني العامة مثل المدارس والمستشفيات.

الخوف من فقدان الوظيفة

لكن الذكاء الاصطناعي يتعرض لانتقادات على نطاق واسع. قال عالم الفيزياء الفلكية الشهير ستيفن هوكينغ ذات مرة: على سبيل المثال ، يخشى منتقدو ما يسمى بـ “الروبوتات القاتلة” من أن الذكاء الاصطناعي – الروبوتات – يمكن أن يعرض للخطر ليس الوظائف فحسب ، بل الناس أيضًا.

هذا الشك يجد أيضًا أرضًا خصبة في المجتمعات التي يكون فيها القطاع الصناعي بالفعل في خضم ثورة. البيانات الضخمة ، والذكاء الاصطناعي ، وإنترنت الأشياء ، والطابعات ثلاثية الأبعاد ، وما إلى ذلك ، تغير المهام المطلوبة من الموظفين ، وتزيد من الاعتماد على الآلات في المهام البسيطة.

لذلك ، من المتوقع أن يؤدي استخدام الذكاء الاصطناعي في مكان العمل إلى تقليل عدد الوظائف عاجلاً أم آجلاً. وتظهر الأبحاث أن الأنظمة الروبوتية يمكنها الآن القيام بأكثر من نصف العمل الذي يقوم به البشر بشكل أسرع وأكثر كفاءة.

نتيجة لذلك ، يقترح الباحث السويسري كزافييه أوبيرسون فرض ضرائب على الروبوتات إذا قامت بعمل يقوم به البشر عادة. ووفقا له ، يجب استثمار الدخل من هذه الضريبة في تمويل نظام الضمان الاجتماعي وتدريب العاطلين عن العمل.

من ناحية أخرى ، تتزايد باستمرار شكوك المستهلكين حول استخدام الذكاء الاصطناعي. ومع ذلك ، وفقًا لبعض الدراسات ، فإن شاغلهم الرئيسي ليس القدرة على التحكم في الذكاء الاصطناعي والإنسانية ، ولكن أمن وسلامة بياناتهم الشخصية. هذا هو السبب في أن المصنعين يتعرضون لضغوط كبيرة لجعل تقنياتهم شفافة للمستخدمين.

يقدم الخبير ألكسندر إيليتش مثالاً على ذلك من خلال أهداف مركز الذكاء الاصطناعي. في مجال الطب ، تعتبر الصحة الرقمية وثيقة الصلة بالجميع بشكل خاص ، فهي سهلة الفهم ، فهي تجلب العديد من التغييرات الإيجابية ، لكننا نريد أيضًا أن نظهر أن الذكاء الاصطناعي يساعد الناس ، وليس استبدالهم.

المقالات المدرجة في هذا المحتوى:

أضف تعليق