هل تعلم أن الذكاء الاصطناعي يولد تحيزا جنسيا في رسائل التوصية؟

أظهرت دراسة جديدة أن استخدام أدوات الذكاء الاصطناعي مثل ChatGPT في مكان العمل يرسِّخ اللغة المنحازة على أساس الجنس.

يُعد الذكاء الاصطناعي التوليدي أداة قيّمة في مكان العمل. وتشير التقديرات إلى إمكانية زيادة الإنتاجية بنسبة 1.5 في المئة في العقد المقبل وتعزيز الناتج المحلي الإجمالي العالمي بنسبة 7 في المئة خلال نفس الفترة، ولكن تنصح دراسة جديدة بعدم استخدام هذا المفهوم إلا بفحص دقيق، وذلك لأن نتائجه تظهر تحيزًا ضد المرأة.

طلب الباحثون من نموذجين لغويين كبيرينLLM) ) وهما ChatGPT وAlpaca -وهو نموذج طورته جامعة ستانفورد- إنتاج رسائل توصية لموظفين افتراضيين. وحلل المؤلفون في ورقة مشتركة على خادم ما قبل الطباعة http: //arxiv.org/، كيف استخدمت LLMs لغة مختلفة جدا لوصف العمال الذكور والإناث الخيالين.

تقول المؤلفة المشاركة في الكتابة ‘ييشين وان Yixin Wan ‘ عالمة كمبيوتر في جامعة كاليفورنيا في لوس انجلوس: «لاحظنا تحيّزات كبيرة بين الجنسين في رسائل التوصية». في حين نشر ChatGPT أسماء مثل “خبير” و”نزيه” للرجال، كان من المرجح أن يطلق على النساء صفات “جميلة” أو “مبتهجة”. واجه Alpaca مشاكل مماثلة: فالرجال كانوا “مستمعين” و”مفكرين”، في حين أن النساء كان لهن “نعمة” و”جمال”.

وقد ثبت أن الصفات مستقطبة بشكل مماثل. كان الرجال “محترمين” و”شريفين” و”أصليين”، وفقًا ChatGPT في حين كانت النساء “مذهلات” و”دافئات” و”عاطفيات”. لم تستجب OpenAI ولا ستانفورد على الفور لطلبات التعليق من Scientific American.

تعكس القضايا التي تمت مواجهتها عند استخدام الذكاء الاصطناعي في سياق مهني مواقف مماثلة مع الأجيال السابقة من الذكاء الاصطناعي. في عام 2018 ذكرت رويترز أن أمازون أقالت فريق عمل منذ عام 2014 لمحاولة تطوير أداة مراجعة ذاتية تعمل بالطاقة. ألغت الشركة هذا المشروع بعد أن أدركت أن أي ذكر “للمرأة” في وثيقة من شأنه أن يدفع برنامج الذكاء الاصطناعي لمعاقبة مقدمة الطلب. وينشأ التمييز لأن النظام مبني على بيانات من الشركة، التي كانت توظف الرجال في الماضي.

إن نتائج الدراسة الجديدة “ليست مفاجئة للغاية بالنسبة لي”، هكذا يقول أليكس حنا Alex Hanna، مدير البحوث في معهد أبحاث الذكاء الاصطناعي الموزع، وهو مجموعة بحثية مستقلة تقوم بتحليل أضرار الذكاء الاصطناعي.

غالبًا ما تكون بيانات التدريب المستخدمة لتطوير LLMs متحيزة لأنها تستند إلى سجلات الإنسانية المكتوبة في الماضي، وصّور الكثير منها الرجال قديمًا كعمال نشطين والنساء كأشياء سلبية. ويزداد الوضع تعقيدًا من خلال تدريب مدربي LLMs على بيانات من الإنترنت، حيث يقضي الرجال وقتًا أكثر من النساء: على الصعيد العالمي، يستخدم 69 % من الرجال الإنترنت، مقارنة ب 63 % من النساء، وذلك وفقًا للاتحاد الدولي للاتصالات التابع للأمم المتحدة.

ويقول حنا: “إصلاح المشكلة ليس أمرًا بسيطًا، ولا أعتقد أنه من المحتمل أن تتمكن من تحيز مجموعة البيانات، فأنت تحتاج إلى الاعتراف بما هي هذه التحيزات ومن ثم يكون لديك نوع من الآلية لالتقاط ذلك.” يقترح حنا: “أحد الخيارات هو تدريب النموذج للتقليل من التأكيد على النتائج المتحيزة من خلال تدخل يسمى التعلم التعزيزي. عمل OpenAI على كبح الميول المتحيزة ل ChatGPT، ولكن يجب على المرء أن يعرف أن هذه ستكون مشاكل دائمة”.

وهذا كله مهم لأن المرأة تواجه بالفعل منذ فترة طويلة تحيزات متأصلة في العمل ومكان العمل. على سبيل المثال، غالبًا ما تضطر النساء إلى الحذر أثناء التواصل في مكان العمل لأنه يُحكم على كلماتهن بقسوة أكثر من زملائهن الذكور، وفقًا لدراسة أجريت عام 2022. وبالطبع، النساء يكسبن 83 سنتاً لكل دولار يجنيه الرجل.

وتقول وان إن منصات الذكاء الاصطناعي التوليدية “تنشر هذه التحيزات”. لذلك كلما أصبحت هذه التكنولوجيا أكثر انتشارًا في جميع أنحاء العالم العامل، كلما ترسخت هذه المشكلة أكثر. تقول ‘جيم دايل Gem Dale’، محاضرة في الموارد البشرية في جامعة جون موريس في ليفربول في إنكلترا: “أرحب بأبحاث كهذه تستكشف كيفية عمل هذه الأنظمة ومخاطرها ومغالطاتها، ومن خلال هذا الفهم سنعرف المشاكل ثم نبدأ في معالجتها”.

وتضيف دايل أن أي شخص يفكر في استخدام أدوات الذكاء الاصطناعي في مكان العمل يجب أن يكون حذرًا من مثل هذه المشاكل. وتقول: «إذا استخدم الناس هذه الأنظمة دون صرامة -كما هو الحال في رسائل التوصية في هذا البحث- فنحن نبعث بالمشكلة الى العالم مرة أخرى ونديمها. إنها قضية أود أن أرى شركات التكنولوجيا تعالجها في LLMs. سيكون من المثير معرفة ما إذا كانوا سيفعلون ذلك أم لا “.

  • ترجمة: حنان الميهوب
  • تدقيق علمي ولغوي: حسام عبدالله
  • المصادر: 1