جوجل تميط اللِّثام عن أكبر قِصورٍ قابعٍ في تقنيّة التعلم الآلي!

خرج فريق من علماء الكمبيوتر في جوجل علينا بقولهم أنّ لوغاريتمات التعلّم العميق عرضة لمشكلة لم تكن معروفة من قبل.

في السنوات الأخيرة، أصبحت الآلات بكفاءة البشر، وأحياناً أفضل، في كمٍّ كبير من المهامّ والقدرات، على سبيل المثال، التعرّف على الأشياء ومعالجة اللّغة الطبيعية (NPL) والتشخيصات القائمة على الصور الإشعاعيّة الطبية.

ومع ذلك، لا تزال الآلات المُدرّبة بهذه الطريقة ترتكب أخطاءً لن يقع فيها البشر أبداً. على سبيل المثال، يمكن للتغييرات الصغيرة في الصّورة، التي يتجاهلها الإنسان، أن تجبر الآلة على تسميتها بشكل خاطئ تماماً. وهذا له آثار خطيرة محتملة في التّطبيقات التي تعتمد عليها حياة البشر، مثل التّشخيص الطبي.

لذا فإنّ علماء الكمبيوتر يبذلون جهوداً كبيرة لفهم حدود قدرات التعلم الآلي بمزيد من التفصيل، فقد توصّل فريق يتكوّن معظمه من مهندسي الكمبيوتر العاملين في جوجل إلى تحديد نقطة ضعف جديدة تقبع في صميم عمليّة التعلّم الآلي والتي تؤدي إلى قراءات خاطئة.

يُطلق على هذا القُصور الفنّي اسم (قصور التحديد)، يشرح من خلاله الفريق كيفيّة تأثير عدد كبير من تطبيقات التعلّم الآلي المتنوّعة، بدءاً من رؤية الكمبيوتر وانتهاءاً بعلم الجينوم الطبي. ويقولون أنّ بروتوكولات التعلّم الآلي تحتاج إلى مراجعة شاملة لاختبار أوجه القصور المكتشفة، خاصّةً في تطبيقات العالم الحقيقيّ.

في بداية هذا الموضوع، سنقدّم بعض الخلفية عن هذا الموضوع.

تنطوي عمليّة التعلّم الآلي على تدريب نموذج يحتوي على بيانات معيّنة بحيث يتعلّم ويكون قادراً على اكتشاف المعلومات أو التّنبّؤ بها. يُقدّم لنا هنا فريق جوجل مثال تدريب على نظام التعلّم الآلي قام به للتّنبّؤ بمسار الجائحة.

برمجة الجائحة في نموذج بيانات؛ إذ

قام علماء الأوبئة ببناء نماذج بيانات مفصّلة للطّريقة التي ينتشر بها المرض من الأفراد المصابين إلى الأفراد المعرّضين للإصابة، وليس لأولئك الذين تعافوا وبالتالي هم محصّنون. حيث أنّ العوامل الرّئيسيّة في هذا الانتشار والتي تصنِّف الأفراد المصابين تحت فئة ناقلي المرض هم معدل انتشار العدوى ويرمز لها بR0، وفترة الإعداء التي يرمز لها بD.

من الواضح أنّ المرض يمكن أن ينتشر على نطاق أوسع عندما يكون أكثر عدوى، وعندما يكون النّاس معديين لفترة أطول. ومع ذلك، يصبح المرض أقل قدرة على الانتشار مع تعافي المزيد من الناس، مما يؤدي في النّهاية إلى بناء مناعة القطيع.

عندما يتزايد عدد الإصابات بسرعة فإنّه من المهم تحديد معدلات R0 وD في وقت مبكّر من الوباء، فتقوم تلك المُعلِّمات (Parameters) بعد ذلك بالتّعرّف على مسار المرض وسماته مثل ذروة عدد الإصابات وكيفيّة انخفاض هذا الرّقم تدريجيّاً بمرور الوقت.

يحتاج علماء الأوبئة بشدّة إلى معرفة هذه المعلومات في وقت مبكّر من الوباء لأنّها تساعد على تحديد زمان واحتماليّة امتلاء المستشفيات.

يمكن أن يساعد نموذج التعلّم الآلي في محاكاة انتشار الوباء، ويتمّ ذلك من خلال تعلّم المُعلِّمات R0 وD من البيانات التي تمّ جمعها في وقت مبكّر من تطوّر المرض. بمجرّد معرفة هذه الأرقام، يمكننا بعد ذلك التّنبّؤ بالتّطوّر الكامل للمرض.

لكنّ فريق جوجل يقول إن هذه المُعلِّمات لم يتمّ تحديدها بشكلٍ كاف خلال المراحل الأولى من الوباء، وهو مايعني أنّ هناك الكثيرمن أزواج القيم R0 وD التي تصف بدقّة النّمو الأسّي المبكر ذاته.

ومع ذلك، يمكن أن تؤدّي هذه الأزواج إلى تنبّؤات مختلفة بشكل كبير لاحقاً. حيث صرّح الفريق: “عند استخدام هذه المُعلِّمات للتنبؤ بمسار الوباء، فإنّها تسفر عن تنبؤات مختلفة تماماً”.

تنشأ هذه المشكلة بسبب أنّ عملية التعلم الآلي ليس لديها طريقة للاختيار بشكل صحيح بين هذه الأزواج. وعليه، يشير فريق جوجل إلى أن المُعلِّمات التي يختارها الجهاز يمكن أن تعتمد على قرارات تعسّفية تماما في طريقة إعداد النّموذج.

يمكن لمسؤولي الصّحة العامّة تجنّب مشكلة قصور التحديد من خلال تقييدها بمعلومات إضافيّة مثل القراءات الحقيقيّة لطول فترة إصابة المرضى بالعدوى، مما يؤثّر على D، وأنماط الاتّصال بين السّكان، مما يؤثّر على R0.

ما سبق ذكره يمثّل مثالاً بسيطاً نسبيّاً، لكن يبدو أنّ فريق جوجل توصل إلى نتيجة مهمة وهي أنّ قصور التحديد يحدث أيضاً في حالات أخرى عديدة. ويقولون: “بشكل عامّ، لا يتم تحديد حلّ المشكلة بشكل كاف إذا كان هناك العديد من الحلول المختلفة التي تحلّ المشكلة بشكل مكافئ”. لكنّ هذه الحلول لا تقدّم جميعها التوقّعات ذاتها.

سيناريوهات حقيقيّة:

يواصل الفريق شرح كيفيّة حدوث قصور التحديد عبر مدى واسع ومدهش من سيناريوهات التعلّم العميق الحقيقيّة. وتشمل هذه السيناريوهات تحليل الصّور الطبية والتشخيصات السّريرية القائمة على السّجلّات الصّحيّة الإلكترونيّة ومعالجة اللّغة الطّبيعيّة.

يوضِح فريق جوجل أنّ التغييرات الصغيرة، مثل تعديل البذور العشوائية المستخدمة في التدريب، يمكن أن تسوق نموذج بياناتٍ ما نحو حلّ مختلف تماماً وبالتالي الحصول على تنبؤات مختلفة، كما يوضِح الفريق أيضاً مدى تأثير ذلك في وراثة النّماذج للتحيزات في مجموعة البيانات التي لا تمتّ بصلةٍ إلى مهمة التنبؤ التي يقوم بها.

أكثر من ذلك، من المرجح أنّ هذه المشكلة ممتدة على نطاق واسع يتجاوز ما اكتشفه فريق جوجل. كان هدفهم ببساطة اكتشاف قصور التحديد بدلاً من وصفه بالكامل. لذلك من المحتمل أن يكونوا قد استهانوا بمدى انتشاره. ويقولون: “إن التّعقيد الشّديد لنماذج التّعلّم الآلي الحديثة يكفل عدم التّحديد الكافي لبعض جوانب النّموذج بشكل شبه مؤكّد”.

إذا كان من الممكن رصد هذه الأمور مسبقاً، فهناك طرق مختلفة لمعالجة قصور التحديد. مثل تصميم برامج “إختبارات الإجهاد” لمعرفة مدى جودة أداء النموذج على بيانات العالم الحقيقي والتقاط المشاكل المحتملة.

ومع ذلك، يتطلب هذا التصميم فهماً جيّداً للطريقة التي يمكن أن يخطئ بها النموذج. يقول الفريق: “إنّ تصميم اختبارات الإجهاد التي تتوافق جيّداً مع المتطلّبات المطبّقة، والتي توفّر” تغطية “جيّدة لأنماط الفشل المحتملة يمثّل تحدياً كبيراً”.

هذا اكتشاف مثير للاهتمام يكشف عن نقطة ضعف غاية في الأهمية ومُغفلة سابقاً في تقنية التعلم الآلي. إنها تضع حدوداً لمصداقية تنبّؤات التعلم الآلي، وقد تجبر البعض على إعادة التفكير في تطبيقات معيّنة. ستكون هناك حاجة إلى اهتمام خاص في بعض التطبيقات التي يكون فيها التعلم الآلي جزءاً من أنظمة مرتبطة برعاية صحة الإنسان، مثل السيارات ذاتية القيادة والتّصوير الطبي، حيث يمكن، في هذه السيناريوهات، أن يكون للنّقاط العمياء الصّغيرة الموجودة في قدرات التعلم الآلي عواقب على الحياة والموت.

  • ترجمة: وجيه الشبعان
  • تدقيق لغوي: سفوك حجي
  • المصادر: 1