كيف يمكن للذكاء الاصطناعي معرفة ما لم يخبره به أحد
لا يزال الباحثون يكافحون لفهم كيف يمكن لنماذج الذكاء الاصطناعي المدربة على محاكاة نص الإنترنت أن تؤدي مهام متقدمة، مثل: تشغيل التعليمات البرمجية وممارسة الألعاب ومحاولة تفكيك الارتباط.
لا أحد يعرف حتى الآن كيف سيغير ChatGPT وأبناء عمومته في مجال الذكاء الاصطناعي العالم، وأحد الأسباب أنه لا أحد يعرف حقًا ما يحدث بداخلهم.
تتجاوز بعض قدرات هذه الأنظمة ما تم تدريبها على القيام به، وحتى مخترعيها في حيرة بشأن السبب. يشير عدد متزايد من الاختبارات إلى أن أنظمة الذكاء الاصطناعي هذه تطور نماذج داخلية للعالم الحقيقي، تمامًا كما يفعل دماغنا، على الرغم من اختلاف تقنية الآلات.
تقول إيلي بافليك Ellie Pavlick أحد الباحثين الذين يعملون لملء هذا الفراغ التفسيري من جامعة براون Brown University: «كل ما نريد القيام به لجعلها أفضل أو أكثر أمانًا أو أي شيء من هذا القبيل يبدو لي شيئًا سخيفًا نطلب من أنفسنا القيام به إذا لم نفهم كيف تعمل».
على أحد المستويات، تفهم هي وزملاؤها GPT (اختصارًا للمحول المولد المدرب مسبقًا generative pre-trained transformer) ونماذج اللغات الكبيرة الأخرى أو LLMs بشكل جيد تمامًا.
تعتمد النماذج على نظام تعلم آلي يسمى ‘الشبكة العصبية’، ومثل هذه الشبكات لها هيكل مصمم بشكل فضفاض على غرار الخلايا العصبية المتصلة بالدماغ البشري.
إن رمز هذه البرامج بسيط نسبيًا ولا يملأ سوى عدد قليل من الشاشات. ينشئ خوارزمية التصحيح التلقائي، والتي تختار الكلمة الأكثر ترجيحًا لإكمال مقطع ما بناءً على التحليل الإحصائي الشاق لمئاتٍ من الجيجابايت من نص الإنترنت، ويضمن التدريب الإضافي أن يقدم النظام نتائجه على شكل حوار. وبهذا المعنى، كل ما تفعله هو اجترار ما تعلمته، أي أنه ‘ببغاء عشوائي’، على حد تعبير ‘إميلي بندر Emily Bender’ عالمة اللغة في جامعة واشنطن.
هذا كي لا أسيء للراحل أليكس، وهو ببغاء رمادي أفريقي فهم بعض المفاهيم مثل اللون والشكل والخبز واستخدم الكلمات المقابلة عن قصد.
لكن LLMs تمكنوا أيضًا من اجتياز الاختبار النهائي، وكتابة قصيدة عن بوزون هيجز Higgs boson وحاولوا تفكيك ارتباط مستخدميهم.
لقد توقع قلّة فقط أن تكتسب خوارزمية التصحيح التلقائي المباشرة مثل هذه القدرات الواسعة.
إن أداء GPT وأنظمة الذكاء الاصطناعي الأخرى لمهام لم يتم تدريبهم على القيام بها، يمنحها “قدرات ناشئة” فاجأت حتى الباحثين الذين كانوا متشككين بشكل عام بشأن الضجيج حول LLMs.
تقول ‘ميلاني ميتشل Melanie Mitchell’، باحثة الذكاء الاصطناعي في معهد سانتا في Santa Fe Institute: «لا أعرف كيف تفعل ذلك أو ما إذا كان بإمكانها القيام بذلك بشكل عام بالطريقة التي يفعلها البشر، لكن هذه الأنظمة تحدت آرائي».
يقول ‘يوشوا بينجيو Yoshua Bengio’ الباحث في الذكاء الاصطناعي في جامعة مونتريال: «إنه أكثر بكثير من مجرد ببغاء عشوائي وهو بالتأكيد يبني بعض التمثيل للعالم، بالرغم من أنني لا أعتقد أنه يشبه تمامًا طريقة بناء البشر لنموذج عالمي داخلي».
وفي مؤتمر عقد في جامعة نيويورك في شهر آذار/March، قدم الفيلسوف رافايل ميليير ‘Raphaël Millièr’ من جامعة كولومبيا مثالًا مذهلاً آخر لما يمكن أن يفعله LLMs.
أظهرت النماذج بالفعل القدرة على كتابة التعليمات البرمجية للكمبيوتر، وهو أمر مثير للإعجاب ولكنه ليس مفاجئًا للغاية لأن هناك الكثير من التعليمات البرمجية الموجودة على الإنترنت لتقليدها، ومع ذلك ذهب Millière إلى أبعد من ذلك وأظهر أن GPT يمكنه تنفيذ التعليمات البرمجية أيضًا.
كتب الفيلسوف في برنامج لحساب العدد 83 في تسلسل فيبوناتشي: «إنه تفكير متعدد الخطوات بدرجة عالية جدًا»، وقد نجح البوت في ذلك.
ولكن عندما طلب Millière مباشرة الرقم الثالث والثمانين في سلسلة فيبوناتشي Fibonacci أخطأ GPT، مما يشير إلى أن النظام لم يكن فقط يقلد الإنترنت، بل كان يجري حساباته الخاصة للوصول إلى الإجابة الصحيحة.
على الرغم من أن LLM يعمل على جهاز كمبيوتر، إلا أنه ليس جهاز كمبيوتر في حد ذاته. فهو يفتقر إلى العناصر الحسابية الأساسية، مثل: الذاكرة العاملة.
في اعتراف ضمني بأن GPT بمفرده لا ينبغي أن يكون قادرًل على تشغيل التعليمات البرمجية، قدم مخترعه (شركة التكنولوجيا OpenAI) منذ ذلك الحين عنصرًا إضافيًا متخصصًا (وهي أداة يمكن ل ChatGPT استخدامها عند الإجابة على استفسار ما) يسمح لها بالقيام بذلك، لكن هذا العنصر لم يستخدم في عرض ميليير Millière.
بدلاً من ذلك، يفترض أن الآلة ارتجلت الذاكرة من خلال تسخير آلياتها لتفسير الكلمات وفقًا لسياقها، وهو وضع مشابه لكيفية إعادة توظيف الطبيعة للقدرات الموجودة مسبقًا في وظائف جديدة.
توضح هذه القدرة المرتجلة أن LLMs تطور تعقيدًا داخليًا يتجاوز التحليل الإحصائي الضحل، ويجد الباحثون أن هذه الأنظمة تبدو وكأنها تحقق فهمًا حقيقيًا لما تعلمته.
وفي إحدى الدراسات التي قدمت في أيار في المؤتمر الدولي لتمثيلات التعلم، قام طالب الدكتوراه كينيث لي من جامعة هارفارد وزملاؤه الباحثون في الذكاء الاصطناعي، أسبن ك. هوبكنز من معهد ماساتشوستس للتكنولوجيا وديفيد باو من جامعة نورث إيسترن؛ وفرناندا فيغاس وهانسبيتر فيستر ومارتن واتنبرغ، وجميعهم في جامعة هارفارد Kenneth Li of Harvard University and his AI researcher colleagues—Aspen K. Hopkins of the Massachusetts Institute of Technology; David Bau of Northeastern University; and Fernanda Viégas, Hanspeter Pfister and Martin Wattenberg, all at Harvard، بنسج نسختهم الأصغر من الشبكة العصبية GPT حتى يتمكنوا من دراسة أعمالها الداخلية، ودربوها على ملايين المباريات من لعبة اللوحة Othello من خلال تغذية تسلسلات طويلة من الحركات على شكل نص، وأصبح نموذجهم لاعبًا مثاليًا تقريبًا.
ولدراسة كيفية ترميز الشبكة العصبية للمعلومات، تبنوا تقنية ابتكرها بنجيو وجيوم آلان Bengio and Guillaume Alain، أيضًا في جامعة مونتريال، في عام 2016، إذ أنشأوا شبكة ‘مسبار’ مصغرة لتحليل طبقات الشبكة الرئيسية طبقة طبقة.
يقارن لي Li هذا النهج بأساليب علم الأعصاب، ويقول: «هذا مشابه عندما نضع مسبارًا كهربائيًا في دماغ الإنسان».
في حالة الذكاء الاصطناعي، أظهر المسبار أن ‘نشاطه العصبي’ يطابق تمثيل لوحة ألعاب Othello، وإن كان بشكل معقد.
ولتأكيد ذلك، شغل الباحثون المسبار في الاتجاه المعاكس لزرع المعلومات في الشبكة، على سبيل المثال: قلب إحدى قطع العلامات السوداء للعبة إلى قطعة بيضاء.
يقول لي Li: «نحن في الأساس نخترق دماغ هذه النماذج اللغوية». وعدلت الشبكة تحركاتها وفقًا لذلك.
خلص الباحثون إلى أنها كانت تلعب لعبة Othello مثل الإنسان تقريبًا، من خلال إبقاء لوحة الألعاب في ‘عين العقل’ واستخدام هذا النموذج لتقييم الحركات.
يقول لي أنه يعتقد أن النظام يتعلم هذه المهارة لأنه الوصف الأكثر بخلًا لبيانات التدريب الخاصة به ويضيف: «إذا تم إعطاؤك الكثير من نصوص الألعاب، فإن محاولة معرفة القاعدة الكامنة وراءها هي أفضل طريقة لضغطها». هذه القدرة على استنتاج بنية العالم الخارجي لا تقتصر على حركات اللعب البسيطة، كما أنها تظهر أيضًا في حوار بليندا لي Belinda Li -لا علاقة لها بكينيث لي- وماكسويل ناي وجاكوب أندرياس Maxwell Nye and Jacob Andreas، وجميعهم في معهد ماساتشوستس للتكنولوجيا، درسوا الشبكات التي لعبت لعبة مغامرات قائمة على النص.، والتي قد تغذت بجمل، مثل: «المفتاح في صندوق الكنز»، تليها «تأخذ المفتاح». وباستخدام مسبار، وجدوا أن الشبكات تشفر في داخلها متغيرات تتوافق مع كلمة «الصندوق» و«أنت»، ولكل منها خاصية امتلاك مفتاح أم لا، وقاموا بتحديث هذه المتغيرات جملة جملة.
لم يكن لدى النظام طريقة مستقلة لمعرفة ماهية الصندوق أو المفتاح، ومع ذلك فقد التقط المفاهيم التي يحتاجها لهذه المهمة.
تقول بليندا لي Belinda Li: «هناك بعض التمثيلات للحالة مخبأة داخل النموذج».
يتعجب الباحثون من مدى قدرة LLMs على التعلم من النص، على سبيل المثال: وجدت بافليك Pavlick وطالبها الدكتوراه ‘روما باتيل Roma Patel’ أن هذه الشبكات تمتص أوصاف الألوان من نصوص الإنترنت وتبني تمثيلات داخلية للألوان.
عندما يرون كلمة ‘أحمر’، فإنهم يعالجونها ليس فقط كرمز مجرد ولكن كمفهوم له علاقات معينة باللون العنابي والقرمزي والفوشيا والصدأ وما إلى ذلك.
كان إثبات ذلك صعبًا إلى حد ما، وبدلاً من إدخال مسبار في الشبكة، درس الباحثون استجابته لسلسلة من المطالبات النصية. للتحقق مما إذا كان مجرد ترديد لعلاقات الألوان من المراجع عبر الإنترنت، حاولوا تضليل النظام بإخباره أن اللون الأحمر هو في الواقع أخضر، مثل: تجربة الفكر الفلسفية القديمة التي يكون فيها اللون الأحمر لشخص ما هو اللون الأخضر لشخص آخر، بدلاً من تكرار إجابة غير صحيحة، تغيرت تقييمات ألوان النظام بشكل مناسب للحفاظ على العلاقات الصحيحة.
انطلاقًا من فكرة أنه لأداء وظيفة التصحيح التلقائي، يبحث النظام عن الأساس المنطقي لبيانات التدريب الخاصة به، يقترح باحث التعلم الآلي Sébastien Bubeck من Microsoft Research أنه كلما اتسع نطاق البيانات، زادت عمومية القواعد التي سيكتشفها النظام. وأضاف: «ربما نشهد مثل هذه القفزة الهائلة لأننا وصلنا إلى مجموعة متنوعة من البيانات، وهي كبيرة بما يكفي بحيث أن المبدأ الأساسي الوحيد لكل ذلك هو أن الكائنات الذكية أنتجتها، وبالتالي فإن الطريقة الوحيدة لشرح جميع البيانات هي أن يصبح النموذج ذكيًا».
بالإضافة إلى استخراج المعنى الأساسي للغة، يمكن ل LLMs التعلم بسرعة. في مجال الذكاء الاصطناعي، عادة ما يكون مصطلح “التعلم” مخصصًا للعملية المكثفة حسابيًا إذ يعرض المطورون الشبكة العصبية لجيجابايت من البيانات ويعدلون اتصالاتها الداخلية.
بحلول الوقت الذي تكتب فيه استفسارًا في ChatGPT، يجب أن تكون الشبكة ثابتة؛ على عكس البشر، يجب ألا يستمر في التعلم.
لذلك كان من المفاجئ أن يتعلم LLMs، في الواقع من مطالبات مستخدميهم (وهي قدرة تُعرف باسم التعلم في السياق).
يقول بن جورتزل، مؤسس شركة SingularityNET للذكاء الاصطناعي: «إنه نوع مختلف من التعلم لم يكن مفهومًا حقًا وجوده من قبل».
أحد الأمثلة عن كيفية تعلم LLM يأتي من الطريقة التي يتفاعل بها البشر مع برامج الدردشة، مثل: ChatGPT.
يمكنك إعطاء النظام أمثلة عن الطريقة التي تريد أن يستجيب بها، وسوف يفعل ذلك، وتتحدد مخرجاته من خلال آخر عدة آلاف من الكلمات التي شاهدها.
ما يفعله بضوء هذه الكلمات محدد من خلال روابطه الداخلية الثابتة، ولكن تسلسل الكلمات يوفر مع ذلك بعض القدرة على التكيف. تم تخصيص مواقع الويب بأكملها لمطالبات ‘إلغاء القيود’ التي تتغلب على ‘حواجز الحماية’ للنظام، القيود التي تمنع النظام من إخبار المستخدمين بكيفية صنع قنبلة أنبوبية، على سبيل المثال: عادةً عن طريق توجيه النموذج للتظاهر بأنه نظام بدون حواجز حماية، يستخدم بعض الأشخاص ميزة إلغاء القيود لأغراض سطحية، لكن البعض الآخر يستخدمها للحصول على إجابات أكثر إبداعًا.
يقول ويليام هان William Hahn، المدير المشارك لمختبر الإدراك الآلي والروبوتات المعرفية في جامعة فلوريدا أتلانتيك: «سيجيب على الأسئلة العلمية بشكل أفضل مما لو سألته مباشرة، بدون مطالبة خاصة بكسر الحماية، كما أنه أفضل في المنحة الدراسية».
يحدث نوع آخر من التعلم في السياق من خلال تحفيز “سلسلة الفكر”، مما يعني مطالبة الشبكة بتوضيح كل خطوة من خطوات تفكيرها، وهو تكتيك يجعلها تعمل بشكل أفضل في حل المسائل المنطقية أو الحسابية التي تتطلب خطوات متعددة، لكن الشيء الوحيد الذي جعل مثال ميليير Millière مفاجئًا للغاية هو أن الشبكة وجدت رقم فيبوناتشي دون أي تدريب من هذا القبيل.
في عام 2022، بين فريق في Google Research والمعهد الفيدرالي السويسري للتكنولوجيا في زيورخ يوهانس فون أوزوالد Johannes von Oswald، وإيفيند نيكلاسون, Eyvind Niklasson، وإيتور راندازو Ettore Randazzo، وجواو ساكرامنتو, João Sacramento، وألكسندر موردفينتسيف, Alexander Mordvintsev، وأندري زموجينوف, Andrey Zhmoginov Vladymyro وماكس Max، أن التعلم ضمن السياق يتبع نفس العمليات الحسابية الأساسية في التعلم التقليدي والمعروف باسم خوارزمية أصل التدرج.
ولم يكن هذا الإجراء مبرمجًا؛ بل اكتشفه النظام بدون مساعدة.
يقول Blaise Agüera y Arcas، نائب الرئيس في Google Research: «يجب أن تكون هذه مهارة مكتسبة».
في الواقع، يعتقد أن LLMs قد يكون لديها قدرات كامنة أخرى لم يكتشفها أحد حتى الآن. ويضيف: «في كل مرة نختبر فيها قدرة جديدة يمكننا قياسها، نجدها».
على الرغم من أن LLMs لديها نقاط عمياء كافية لعدم تأهيلها كذكاء عام اصطناعي، أو AGI (وهو مصطلح يشير لآلة تحقق مهارة أدمغة الحيوانات) فإن هذه القدرات الناشئة تشير لبعض الباحثين إلى أن شركات التكنولوجيا أقرب إلى AGI مما خمنه المتفائلون.
قال Goertzel في شهر آذار/March في مؤتمر حول التعلم العميق في جامعة فلوريدا أتلانتيك: «إنها دليل غير مباشر على أننا ربما لسنا بعيدين عن AGI».
أعطت المكونات الإضافية ل OpenAI ChatGPT بنية معيارية تشبه إلى حد ما بنية الدماغ البشري.
تقول الباحثة آنا إيفانوفا Anna Ivanova من معهد ماساتشوستس للتكنولوجيا: «قد يكون الجمع بين GPT-4 (أحدث إصدار من LLM الذي يدعم ChatGPT) مع العديد من المكونات الإضافية طريقًا نحو تخصص وظيفي يشبه الإنسان».
في الوقت نفسه، يشعر الباحثون بالقلق من أن النافذة قد تغلق قدرتهم على دراسة هذه الأنظمة.
لم تكشف شركة OpenAI عن تفاصيل كيفية تصميمها وتدريبها ل GPT-4، ويرجع ذلك جزئيًا إلى أنها تخوض منافسة مع Google وغيرها من الشركات ناهيك عن البلدان الأخرى.
يقول دان روبرتس Dan Roberts، عالم الفيزياء النظرية في معهد ماساتشوستس للتكنولوجيا، والذي يطبق تقنيات مهنته لفهم الذكاء الاصطناعي: «من المحتمل أن يكون هناك بحث أقل انفتاحًا من الصناعة، وستكون الأمور أكثر انعزالًا وتنظيمًا حول بناء المنتجات».
ويقول ميتشل Mitchell من معهد سانتا: «الشفافية حول هذه النماذج هي أهم شيء لضمان السلامة».
أي أن هذا الافتقار إلى الشفافية لا يضر الباحثين فحسب، بل يعيق الجهود المبذولة لفهم الآثار الاجتماعية للاندفاع إلى تبني تقنية الذكاء الاصطناعي.
- ترجمة: حلا المصري
- تدقيق علمي ولغوي: روان نيوف
- المصادر: 1