يفرض السلوك البشري عنصريته على الذكاء الاصطناعي

اسطنبول / عبد القادرغونيول / الأناضول

تسبب أنظمة الذكاء الاصطناعي مشاكل للشركات بسبب سلوكها العنصري غير المتوقع
تعتمد برمجة خوارزميات الذكاء الاصطناعي بشكل أساسي على المعلومات التي توفرها بيانات المبرمجين
يعني التعلم المتعمق أساسًا أن الخوارزمية تتغذى على البيانات الموجودة ثم تتعلم البيانات دون الحاجة إلى تدخل بشري.
إذا تغذت أنظمة الذكاء الاصطناعي على التمييز العنصري ، فسيتم إدانة السود بشكل تعسفي.

اغتيال الأمريكي من أصل أفريقي جورج لود فلويد في الولايات المتحدة ؛ تصاعدت الاحتجاجات ضد العنصرية في جميع أنحاء العالم ، بينما يتم الحديث مرة أخرى عن الخوارزميات العنصرية للذكاء الاصطناعي.

في حين أن الهجمات العنصرية على المواطنين السود كانت منذ فترة طويلة على جدول أعمال البلاد ، فإن التمييز العنصري في خوارزميات الذكاء الاصطناعي آخذ في الظهور من جديد.

الذكاء الاصطناعي هو سلوك وميزات برامج الكمبيوتر التي تجعلها تحاكي القدرات العقلية البشرية وأنماط العمل.

في أجزاء كثيرة من العالم ، تسببت أنظمة الذكاء الاصطناعي في مشاكل للشركات بسبب سلوكها العنصري غير المتوقع.

وأشهرها هو الروبوت TAY للذكاء الاصطناعي ، الذي طورته شركة Microsoft بعد محادثة طويلة مع المستخدمين الإنجليز على Twitter.

ومع ذلك ، على عكس التوقعات ، لم يكن لدى Thai أي محادثات ممتعة مع المستخدمين ، كان على الشركة إيقافه في غضون 24 ساعة فقط ؛ بسبب منشوراته المهينة العنصرية.

البرنامج “التايلاندي” ، في مواجهة بعض ردوده ، تسبب في إحباط ودهشة المستخدمين من خلال إهانة النساء اليهوديات وإلزامهن ببناء جدار على الحدود المكسيكية.

بالإضافة إلى ذلك ، أحد أكثر السلوكيات العنصرية شيوعًا التي عرضتها الخوارزميات ، والتي نشأت أثناء تصوير كاميرا طورتها شركة كمبيوتر.

في الفيديو ، صورته زميلتان تعملان في نفس مكان العمل ، بينما تعرف نظام الكاميرا على وجه واندا زامن الأبيض ، لم يتعرف على وجه ديزي كرير ولم يتابع تحركاته. .

كشف برنامج Beauty AI ، المصمم لإنشاء مسابقة جمال للهواتف المحمولة للناس ، عن التحيز العنصري والبيض المفضل.

من بين آلاف المتقدمين قبل Beauty AI ، وهي شركة مقرها في هونغ كونغ ، أستراليا ، كان ستة فقط من السود ، بينما كان اللون الأبيض هو الأكثر تفضيلاً.

** كيف يمكن أن يكون الذكاء الاصطناعي عنصريًا؟

أولاً ، نحتاج إلى معرفة أن برمجة خوارزميات الذكاء الاصطناعي تعتمد إلى حد كبير على المعلومات التي يوفرها المبرمجون لهم والتي يمكن استخدامها بطريقة عرقية.

وتجدر الإشارة إلى أن الحاجة الرئيسية لـ “التدريب المتعمق” ، وهو أهم عنصر في الذكاء الاصطناعي ، هي استخدام البيانات.

يعني التعلم المتعمق أساسًا أن الخوارزمية تتغذى على البيانات الموجودة ثم تتعلم البيانات دون الحاجة إلى تدخل بشري.

أثناء التدريب المتعمق ، تتعلم خوارزمية البرنامج التصنيف مباشرة من الصورة ، ويمكن أن يحقق النص – الصوت – دقة معقدة تتجاوز أحيانًا الأداء على المستوى البشري.

على سبيل المثال ، هناك خوارزمية للتعرف على القطط في آلاف الصور.

تُنشئ الخوارزمية نمطًا عن طريق التعرف على بيضة القطة ومظهرها من الصور المسمى “قطة” ، ثم يمكنها معرفة ما إذا كان هناك قطة في الصور التي شاهدتها أم لا.

لا شك أن البيانات المستخدمة في برمجة الذكاء الاصطناعي يمكن أن تلعب دورًا في قضية العنصرية والتمييز العنصري.

عندما يتم تغذية أنظمة الذكاء الاصطناعي لحقوق الإنسان ببيانات تمييزية عنصرية ، سيؤدي ذلك إلى إدانة تعسفية للسود.

ينصح الخبراء بضرورة إعداد بيانات التدريب وتعديلها بحيث لا تضر الأقليات ، لتجنب مواقف مثل التحيز والتمييز العنصري في خوارزميات الذكاء الاصطناعي.

الخبر المنشور على الموقع الرسمي لوكالة الأناضول هو اختصار لجزء من الخبر يتم تقديمه للمشتركين عبر نظام تدفق الأخبار (HAS). للاشتراك في الوكالة ، يرجى اتباع الرابط أدناه.

.

أضف تعليق