في السباق نحو الذكاء العام الاصطناعي، أين نقطة النهاية؟
أصبحت ادعاءات الذكاء العام الاصطناعي شائعة بشكل متزايد. ولكن هل يمكن لأي فرد أن يتفق على تعريف له؟
وفقًا لشركات مثل OpenAI التابعة ل ChatGPT، يعتبر الذكاء العام الاصطناعي، أو AGI، الهدف النهائي لتعلم الآلة وأبحاث الذكاء الاصطناعي. ولكن كيف يمكن قياس ذكاء آلة بشكل عام؟ في عام 1970، توقع عالم الكمبيوتر مارفن مينسكي أن الآلات التي ستُطوّر قريبًا ستكون قادرة على «قراءة شكسبير، وتغيير زيت سيارة، والمشاركة في السياسة المكتبية، وإلقاء نكت، والاشتباك في شجار». وبعد سنوات، اقترح (اختبار القهوة)، الذي يُنسب غالبًا إلى مؤسس Apple المشارك ستيف وزنياك، أن AGI سيتحقق عندما تتمكن آلة من دخول منزل غريب وإعداد كوب من القهوة.
يتفق القليل من الناس على تعريف الذكاء العام الاصطناعي (AGI) منذ البداية، ناهيك عن تحقيقه. إن خبراءً في علوم الكمبيوتر والعلوم المعرفية، وكذلك آخرون في السياسة والأخلاقيات، غالبًا ما لديهم فهم مميز لهذا المفهوم ورأي مختلف حول تبعاته أو قابليته للتحقيق. فبدون توافق في الآراء، يمكن أن يكون من الصعب تفسير التصريحات حول AGI أو الادعاءات بشأن مخاطرها وفوائدها. في هذه الأثناء، يظهر المصطلح بشكل متزايد في البيانات الصحفية، والمقابلات وأبحاث علوم الكمبيوتر. في عام 2023، أعلن باحثو مايكروسوفت أن GPT-4 يظهر «بريقًا من الذكاء العام الاصطناعي»؛ وفي نهاية مايو، أكدت OpenAI أنها تدرّب نموذج تعلم آلي من الجيل التالي، الذي سيتفاخر بالقدرات التالية على طريق الذكاء العام الاصطناعي. وقد جادل بعض علماء الكمبيوتر البارزين بأن الذكاء العام الاصطناعي قد تحقق بالفعل مع النماذج الكبيرة لتوليد النصوص.
لكي نعرف كيفية الحديث عن الذكاء العام الاصطناعي، واختباره، وإدارة احتمالية حدوثه، سنحتاج إلى فهم أفضل لما يصفه فعليًا.
الذكاء العام
تشير ميلاني ميتشيل، أستاذة وعالمة حاسوب في معهد سانتا في، إلى أن مصطلح الذكاء العام الاصطناعي (AGI) أصبح شائعًا بين علماء الكمبيوتر الذين كانوا محبطين من ما رأوه كضيقة في مجالهم في أواخر التسعينيات وأوائل الألفية. وكان ذلك رد فعل على مشاريع مثل Deep Blue، نظام الشطرنج الذي هزم البطل العالمي غاري كاسباروف وأبطال بشريين آخرين. إذ شعر بعض الباحثين في الذكاء الاصطناعي أن زملاؤهم يركزون كثيرًا على تدريب الحواسيب لإتقان مهام محددة مثل الألعاب، ويفقدون رؤية الهدف الأكبر: الآلات القادرة بشكل عام والتي تشبه البشر. تقول ميتشيل: «كان استخدام AGI لمحاولة العودة إلى ذلك الهدف الأصلي»؛ إنه بمثابة إعادة ضبط للمفاهيم.
لكن من منظور آخر، اعتبرت جوانا بريسون، أستاذة الأخلاقيات والتكنولوجيا في مدرسة هيرتي في ألمانيا، والتي كانت تعمل في أبحاث الذكاء الاصطناعي في ذلك الوقت، مصطلح الذكاء العام الاصطناعي (AGI) سلبيًا. إذ تعتقد بريسون أن المصطلح قسّم دراسة الذكاء الاصطناعي بشكل تعسفي إلى مجموعتين من علماء الكمبيوتر: أولئك الذين يعملون على تحقيق AGI، والذين كانوا يسعون صراحةً إلى نظام يمكنه القيام بكل ما يمكن للبشر القيام به؛ وجميع الآخرين، الذين كان يُفترض أنهم يهدرون وقتهم على أهداف محدودة أكثر، وبالتالي غير جديرة. (تشير بريسون إلى أن العديد من هذه الأهداف الضيقة، مثل تعليم الحاسوب لعب الألعاب، ساعدت لاحقًا في تقدم الذكاء الاصطناعي).
يمكن أن تبدو تعريفات الذكاء العام الاصطناعي (AGI) الأخرى واسعة ومتغيرة بالقدر نفسه. في أبسط صورها، إنها اختصار لجهاز يعادل أو يتفوق على الذكاء البشري. لكن الذكاء نفسه هو مفهوم يصعب تعريفه أو قياسه. إذ يقول غاري لوبيان، عالم الأعصاب الإدراكي وأستاذ علم النفس في جامعة ويسكونسن–ماديسون، إن الذكاء العام هو أكثر تعقيدًا. برأيه، غالبًا ما يكون الباحثون في الذكاء الاصطناعي مبالغين في الثقة عندما يتحدثون عن الذكاء وكيفية قياسه في الآلات.
لقد حاول العلماء المعرفيون التركيز على المكونات الأساسية للذكاء البشري لأكثر من قرن. ففي العموم، يُعتبر أن الأفراد الذين ينجحون في مجموعة معينة من الأسئلة الإدراكية يميلون أيضًا إلى النجاح في مجموعات أخرى، وقد نسب الكثيرون ذلك إلى جانب غير محدد بعد، قابل للقياس، من العقل البشري، وغالبًا ما يُطلق عليه اسم العامل العام أو g factor. لكن لوبيان وكثر آخرون يعارضون هذه الفكرة، مُدّعِين أن اختبارات الذكاء وغيرها من التقييمات المستخدمة لقياس الذكاء العام ليست سوى لقطات للحظات معينة تعكس القيم الثقافية والظروف البيئية الحالية. يقول لوبيان: «لقد حقّق طلاب المدارس الابتدائية الذين يتعلمون أساسيات برمجة الكمبيوتر، وطلاب المدارس الثانوية الذين يجتازون دروس التفاضل والتكامل، ما كان خارج نطاق الممكن للأفراد حتى قبل بضع مئات من السنين».
ومع ذلك، لا يعني أي من هذا أن أطفال اليوم هم أكثر ذكاءً بالضرورة من البالغين في الماضي، بل تراكم لدى الجنس البشري المزيد من المعرفة، ووجهنا أولوياتنا التعليمية بعيدًا عن المهام التي تتعلق مباشرةً بزراعة واكتساب الغذاء، وركزنا بدلًا من ذلك على القدرات الحسابية.
توافق أليسون جوبنيك، أستاذة علم النفس في جامعة كاليفورنيا، بيركلي، على أن «لا وجود لما يُسمى بالذكاء العام، سواءً كان اصطناعيًا أو طبيعيًا». وتشير إلى أن أنواعًا مختلفة من المشاكل تتطلب أنواعًا مختلفة من القدرات الإدراكية، إذ لا يمكن لنوع واحد من الذكاء القيام بكل شيء. في الواقع، تضيف جوبنيك، إن القدرات الإدراكية المختلفة يمكن أن تكون في توتر مع بعضها البعض. على سبيل المثال، يكون الأطفال الصغار مهيئين ليصبحوا متعلمين مرنين وسريعين، مما يسمح لهم بإنشاء العديد من الروابط الجديدة بسرعة. لكن نظرًا لعقولهم المتغيرة سريعًا، فإنهم لا يتفوقون في التخطيط على المدى الطويل. وتنطبق مبادئ وقيود مشابهة على الآلات أيضًا، كما تقول جوبنيك. فمن وجهة نظرها، AGI ليس سوى شعار تسويقي ممتاز.
الأداء العام
تتناول مفارقة مورافيك، التي وُصفت لأول مرة عام 1988، فكرة أن ما هو سهل للبشر صعب على الآلات، وما يعتبره البشر تحديًا غالبًا ما يكون أسهل للكمبيوترات. على سبيل المثال، يمكن للعديد من أنظمة الكمبيوتر أداء عمليات رياضية معقدة، ولكن سيكون من الصعب على معظم الروبوتات أن تطوي الملابس أو تدير مقابض الأبواب. وعندما أصبح من الواضح أن الآلات ستظل تواجه صعوبة في التعامل بفعالية مع الأشياء المادية، فقدت التعريفات الشائعة للذكاء العام الاصطناعي (AGI) ارتباطها بالعالم المادي، كما تشير ميتشيل. إذ أصبح AGI يمثّل إتقان المهام الإدراكية ثم ما يمكن للبشر القيام به أثناء الجلوس على الكمبيوتر المتصل بالإنترنت.
في ميثاقها، تعرّف OpenAI الذكاء العام الاصطناعي (AGI) على أنه «أنظمة ذات درجة عالية من الاستقلالية تتفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية». ومع ذلك، في بعض التصريحات العامة، تبنّى مؤسس الشركة، سام ألتمان، رؤية أكثر انفتاحًا. إذ قال في مقابلة حديثة: «لم أعد أعتقد أن (AGI) هو لحظة زمنية. فمن المحتمل أن لا نتفق أنا وأنت على الشهر أو حتى السنة التي نقول فيها، حسنًا، الآن هذا هو AGI».
توجه بعض المحكمين لتقدم الذكاء الاصطناعي نحو تحديد تفاصيل دقيقة بدلًا من تطويق الغموض. ففي بحث علمي نشر عام 2023، اقترح باحثو Google DeepMind ستة مستويات من الذكاء يمكن من خلالها تصنيف أنظمة الكمبيوتر المختلفة: الأنظمة التي لا تمتلك أي قدرة ذكاء اصطناعي على الإطلاق، تليها الناشئة، الكفوءة، الخبيرة، البارعة، وفوق البشرية AGI. كما يصنّف الباحثون الآلات إلى أنواع ضيقة (تخصصية) أو عامة. تقول ميريديث رينجل موريس، المؤلفة الرئيسية: «غالبًا ما يكون الذكاء العام الاصطناعي مفهومًا مثيرًا للجدل جدًا. وأعتقد أن الناس يقدّرون حقًا أن هذه تعريفات عملية وتجريبية».
لإعداد تصنيفاتهم، ركزت موريس وزملاؤها بشكل صريح على العروض التوضيحية لما يمكن للذكاء الاصطناعي القيام به بدلًا من كيفية أدائه للمهام. تقول موريس: «هناك أسئلة علمية هامة ينبغي طرحها حول كيفية تحقيق نماذج اللغة الكبيرة وأنظمة الذكاء الاصطناعي الأخرى لمخرجاتها وما إذا كانت تكرر شيئًا يشبه البشر فعلًا». ومع ذلك، أرادت هي ومؤلفوها المساعدون الاعتراف بالجوانب العملية لما يحدث.
وفقًا للاقتراح الذي قدمته DeepMind، تُعتبر بعض نماذج اللغة الكبيرة، بما في ذلك ChatGPT وGemini، مؤهلة كذكاء عام ناشئ لأنها «تُعادل أو تكون أفضل قليلًا من إنسان غير ماهر» في «مجموعة واسعة من المهام غير الفيزيائية، بما في ذلك المهام الميتا-إدراكية مثل تعلم مهارات جديدة». ومع ذلك، حتى هذه المؤهلات الدقيقة تترك مجالًا لأسئلة لا إجابة لها. لا يحدد البحث العلمي المهام التي ينبغي استخدامها لتقييم قدرات نظام الذكاء الاصطناعي، ولا عدد المهام الذي يميز بين نظام ضيّق وآخر عام، كما أنه لا يحدد الطريقة المستخدمة لتحديد معايير المقارنة لمستوى المهارة البشري. تقول موريس إن تحديد المهام الصحيحة لمقارنة مهارات الآلات والبشر يظل «مجالًا نشطًا للبحث».
ومع ذلك، يقول بعض العلماء إن الإجابة عن هذه الأسئلة وتحديد الاختبارات المناسبة هو الطريقة الوحيدة لتقييم ما إذا كانت الآلة ذكية. هنا أيضًا، قد تكون الطرق الحالية غير كافية. تقول ميتشيل إن معايير الذكاء الاصطناعي التي أصبحت شائعة، مثل اختبار SAT، أو امتحان المحاماة، أو الاختبارات الموحدة الأخرى للبشر، تفشل في التمييز بين الذكاء الاصطناعي الذي يعيد إنتاج بيانات التدريب وذاك الذي يظهر قدرةً وتعلمًا مرنًا. وتشرح: «إن إعطاء آلة اختبارًا من هذا النوع لا يعني بالضرورة أنها ستكون قادرة على القيام بالأشياء التي يمكن للبشر فعلها إذا حصل إنسان على درجة مشابهة».
النتائج العامة
بينما تحاول الحكومات تنظيم الذكاء الاصطناعي، تشير بعض استراتيجياتها وسياساتها الرسمية إلى الذكاء العام الاصطناعي (AGI). وتشير ميتشيل إلى أن التعريفات المتغيرة قد تؤثر على كيفية تطبيق تلك السياسات. يوافق عالم الكمبيوتر في جامعة تمبل، بي وانغ، على ذلك ويقول: «إذا حاولت بناء تنظيم يناسب جميع تعريفات (AGI)، فهذا ببساطة مستحيل». إذ قد تؤثر النتائج الواقعية، مثل أنواع الأنظمة التي تشملها القوانين الناشئة ومن يتحمل مسؤولية تصرفات تلك الأنظمة (هل هم المطورون، أو جامعو بيانات التدريب، أو المحفزون، أو الآلة نفسها؟)، على كيفية فهم المصطلحات، كما يقول وانغ. وكل ذلك له آثار حاسمة على أمان الذكاء الاصطناعي وإدارة المخاطر.
إذا كان هناك درس رئيسي يمكن استخلاصه من صعود نماذج اللغة الكبيرة (LLMs)، فقد يكون أن اللغة قوية. فبفضل كمية كافية من النصوص، من الممكن تدريب نماذج حاسوبية تبدو، على الأقل لبعض الأفراد، للوهلة الأولى لآلة قد يتفوق ذكاؤها على ذكاء البشر. والكلمات التي نختارها لوصف هذا التقدم لها أهمية كبيرة.
تقول ميتشيل: «تؤثر هذه المصطلحات التي نستخدمها على كيفية تفكيرنا في هذه الأنظمة». في ورشة العمل الحاسمة التي عقدت في كلية دارتموث عام 1956، في بداية أبحاث الذكاء الاصطناعي، ناقش العلماء ماذا يسمون عملهم. كان بعضهم يدافع عن “الذكاء الاصطناعي”، بينما كان البعض الآخر يدعو إلى الإشارة إليه ك “معالجة المعلومات المعقدة”. ربما لو كان الذكاء العام الاصطناعي يُسمى بدلًا من ذلك بشيء مثل “معالجة المعلومات المعقدة المتقدمة”، لربما كنا أبطأ في تشخيص الآلات بصفات إنسانية أو في خوفنا من نهاية العالم الناتجة عن الذكاء الاصطناعي، ولربما كنا نتفق على ما هو عليه.
- ترجمة: محمد عمر الدهان
- تدقيق علمي ولغوي: عبير ياسين
- المصادر: 1