رغم أن أحدث العقول الحاسوبية تبدو مبهرة، إلا أنها لا تستطيع عادة تطبيق كل الأشياء العديدة على مواقف تختلف عن تلك التي واجهتها أثناء التدريب. ولكن هذا أمر سهل بالنسبة إلينا نحن البشر.

إذا سألت ChatGPT عما إذا كان يفكر مثل الإنسان، فسوف يخبرك هذا الروبوت أنه لا يفعل ذلك. بل سوف يكتب: "أستطيع معالجة اللغة وفهمها إلى حد ما. لكن فهمي يعتمد على الأنماط في البيانات، [وليس] مثل الفهم البشري".

ومع ذلك، فإن التحدث إلى نظام الذكاء الاصطناعي هذا قد يبدو أحياناً وكأنك تتحدث إلى شخص ذكي وموهوب للغاية. يمكن له الإجابة على أسئلة حول الرياضيات أو التاريخ عند الطلب - وبالكثير من اللغات المختلفة. يمكنه إنتاج القصص وأكواد الكمبيوتر. ويمكن لنماذج الذكاء الاصطناعي "المولدة" الأخرى إنتاج الأعمال الفنية ومقاطع الفيديو من الصفر.

"تبدو هذه الأشياء ذكية حقاً"، هكذا قالت ميلاني ميتشل، وهي عالمة كمبيوتر في معهد سانتا في في نيو مكسيكو. وتحدثت في الاجتماع السنوي للجمعية الأمريكية لتقدم العلوم، الذي عقد في ولاية كولورادو في شباط الماضي.

إن "ذكاء" الذكاء الاصطناعي المتزايد يثير قلق الكثير من الناس. فهم يخشون أن يتولى الذكاء الاصطناعي التوليدي وظائف الناس - أو يسيطر على العالم. لكن ميتشل وخبراء آخرين يعتقدون أن هذه المخاوف مبالغ فيها. على الأقل في الوقت الحالي.

ويزعم هؤلاء الخبراء أن المشكلة تكمن في ما يقوله ChatGPT. فما زال الذكاء الاصطناعي الأكثر إثارة للإعجاب اليوم لا يفهم حقاً ما يقوله أو يفعله بالطريقة التي يفهمها الإنسان. وهذا يفرض بعض القيود الصارمة على قدراته.

المخاوف ليست جديدة

شعر الناس بالقلق لعقود من الزمن من أن الآلات تصبح أكثر ذكاءً. ويعود هذا الخوف إلى عام 1997 على الأقل. وذلك عندما هزم الكمبيوتر Deep Blue بطل العالم في الشطرنج غاري كاسباروف.

في ذلك الوقت، كان من السهل إثبات أن الذكاء الاصطناعي فشل بشكل بائس في العديد من الأشياء التي نجيدها. بالتأكيد، يمكن للكمبيوتر أن يلعب لعبة شطرنج قوية. ولكن هل يمكنه تشخيص المرض؟ أو نسخ الكلام؟ ليس جيداً جداً. وفي العديد من المجالات الرئيسية، ظل البشر متفوقين.

ومنذ عقد من الزمن تقريبا، بدأ هذا الأمر يتغير. حيث حصلت أدمغة الكمبيوتر - المعروفة باسم الشبكات العصبية - على دفعة هائلة من تقنية جديدة تسمى التعلم العميق. وهو نوع قوي من التعلم الآلي، وفيه تتقن أجهزة الكمبيوتر المهارات من خلال الممارسة أو النظر إلى الأمثلة.

فجأة، وبفضل التعلم العميق، تنافست أجهزة الكمبيوتر مع البشر في العديد من المهام. أصبح بإمكان الآلات التعرف على الصور وقراءة العلامات وتحسين الصور الفوتوغرافية. يمكنها حتى تحويل الكلام إلى نص مكتوب بشكل موثوق.

ومع ذلك، كان لهذه القدرات حدود. من ناحية، يمكن خداع الشبكات العصبية للتعلم العميق بسهولة. كما تحتاج مثل هذه الأجهزة "الذكية" إلى تدريب مكثف. لالتقاط كل مهارة جديدة، كان عليها أن تشاهد الكثير من الأمثلة لما يجب القيام به.

لقد أنتجت تقنيات التعلم العميق نماذج ذكاء اصطناعي ممتازة في وظائف محددة للغاية. ولكن هذه الأنظمة لم تتمكن من تكييف هذه الخبرة بشكل جيد مع المهام الجديدة. على سبيل المثال، لم يكن بإمكانك استخدام مترجم ذكاء اصطناعي من الإنجليزية إلى الإسبانية للمساعدة في أداء واجبك المنزلي باللغة الفرنسية.

ولكن الآن، أخذت الأمور بالتغير مرة أخرى. تقول ميتشل: "نحن في عصر جديد من الذكاء الاصطناعي. لقد تجاوزنا ثورة التعلم العميق في العقد الأول من القرن الحادي والعشرين. ونحن الآن في عصر الذكاء الاصطناعي التوليدي في العقد الثاني من القرن الحادي والعشرين".

يمكن للذكاء الاصطناعي الذي تدعمه أدوات مثل ChatGPT القيام بالعديد من الأشياء - من تلخيص النصوص إلى التدقيق الإملائي للمقالات. الأمر الذي قد يجعل من المغري استخدام هذه الأدوات للمساعدة في أداء الواجبات المنزلية أو المهام الأخرى. لكن كن حذراً: نظراً لأن نظام الذكاء الاصطناعي لا يفهم حقاً ما يفعله بالطريقة التي يفهمها الإنسان، فقد عُرف عنه أيضاً أنه يختلق المعلومات.

عصر الذكاء الاصطناعي

أنظمة الذكاء الاصطناعي التوليدية هي تلك التي يمكنها إنتاج النصوص أو الصور أو غيرها من المحتويات عند الطلب. يمكن لهذا النوع من الذكاء الاصطناعي توليد العديد من الأشياء التي بدا لفترة طويلة أنها تتطلب الإبداع البشري. ويشمل ذلك كل شيء من العصف الذهني للأفكار إلى كتابة القصائد.

ChatGPT هو أحد الأمثلة على التكنولوجيا القائمة على اللغة الكبيرة المسماة LLMs. يقال إن مثل هذه النماذج اللغوية "كبيرة" لأنها مدربة على كميات هائلة من البيانات. فهي بشكل أساسي تدرس كل شيء على الإنترنت، والذي يتضمن نسخاً ممسوحة ضوئياً من عدد لا يحصى من الكتب المطبوعة.

يمكن أن يشير "كبير" أيضاً إلى عدد الأنواع المختلفة من الأشياء التي يمكن لـ LLMs "تعلمها" في قراءتها. لا تتعلم هذه النماذج الكلمات فقط. بل هي تلتقط العبارات والرموز والمعادلات الرياضية أيضاً.

من خلال تعلم الأنماط في كيفية دمج اللبنات الأساسية للغة، يمكن لمتعلمي اللغة توقع الترتيب الذي يجب أن تكون عليه الكلمات. يساعد هذا الأمر تلك النماذج على كتابة الجمل والإجابة على الأسئلة. في الأساس، يحسب متعلم اللغة احتمالات أن تتبع كلمة أخرى في سياق معين. وقد سمح هذا لمتعلمي اللغة بالقيام بأشياء مثل الكتابة بأسلوب أي مؤلف وحل الألغاز.

اقترح بعض الباحثين أنه عندما تحقق أدوات تعلم اللغة هذه الإنجازات، فإنها تفهم ما تفعله. يعتقد هؤلاء الباحثون أن أدوات الذكاء الاصطناعي لتعلم اللغة يمكنها التفكير مثل البشر أو حتى يمكن أن تصبح واعية بمعنى ما. لكن ميتشل وآخرين يصرون على أن أدوات تعلم اللغة لا تفهم العالم حقاً (حتى الآن). على الأقل ليس كما يفعل البشر.

الذكاء الاصطناعي ضيق الأفق

كشفت ميتشل وزميلتها مارثا لويس مؤخراً عن أحد القيود الرئيسية التي تواجهها أدوات تعلم اللغة. تدرس لويس اللغة والمفاهيم في جامعة بريستول في إنكلترا. وشارك الثنائي أعمالهما على موقع arXiv.org.

لا تزال نماذج أدوات اللغة المدعومة بالذكاء الاصطناعي التي تستخدم لغة LLMs لا تضاهي قدرة البشر على تكييف مهارة مع موقف جديد، كما يظهر بحثهما الجديد. فكر في مشكلة سلسلة الحروف هذه: تبدأ بسلسلة واحدة من الحروف: ABCD. ثم تحصل على سلسلة ثانية من الحروف: ABCE.

يمكن لمعظم البشر رؤية الفرق بين السلسلتين. حيث استبدل الحرف الأخير في السلسلة الأولى بالحرف التالي من الأبجدية في السلسلة الثانية. لذلك عندما تعرض سلسلة مختلفة من الحروف على البشر، مثل IJKL، يمكنهم تخمين السلسلة الثانية: IJKM.

كذلك يمكن لمعظم نماذج أدوات اللغة المدعمة بالذكاء الاصطناعي حل هذه المشكلة أيضاً. وهذا أمر متوقع. فقد تدربت هذه النماذج جيداً على الأبجدية الإنجليزية.

ولكن لنفترض أنك طرحت المشكلة باستخدام أبجدية مختلفة. ربما قمت بخلط الحروف في أبجديتنا لتكون بترتيب مختلف. أو استخدمت الرموز بدلاً من الحروف. ما زال البشر متفوقين في حل مشكلات سلسلة الحروف. لكن نماذج أدوات اللغة عادةً ما تفشل. فهي غير قادرة على أخذ المفاهيم التي تعلمتها بأبجدية واحدة وتطبيقها على أبجدية أخرى. جميع نماذج GPT التي اختبرتها ميتشل ولويس واجهت صعوبات في التعامل مع هذا النوع من المشكلات.

أهمية الفهم الفعلي

قالت ميتشل في اجتماع الجمعية الأمريكية لتقدم العلوم: "إن كون المرء موثوقاً وقادراً على القيام بالشيء الصحيح في موقف جديد، هو في رأيي جوهر ما يعنيه الفهم الفعلي".

وتقول إن الفهم البشري يعتمد على "المفاهيم". وهي نماذج ذهنية لأشياء مثل الفئات والمواقف والأحداث. وتسمح المفاهيم للناس بتحديد السبب والنتيجة. كما تساعدهم على التنبؤ بالنتائج المحتملة لأفعال مختلفة. ويمكنهم القيام بذلك حتى في المواقف التي لم يروا مثلها من قبل.

لا تنكر أن الذكاء الاصطناعي قد يصل يوماً إلى مستوى من الفهم الذكي مماثل لما يمتاز به البشر. لكن فهم الآلة قد يتبين أنه مختلف عن الفهم البشري، كما تضيف. لا أحد يعرف أي نوع من التكنولوجيا قد يحقق هذا الفهم. ولكن إذا كان يشبه الفهم البشري، فمن المحتمل ألا يكون قائماً على نماذج اللغة الموجودة حالياً.

بعد كل شيء، تتعلم هذه النماذج بطريقة معاكسة للبشر؛ حيث تبدأ بتعلم اللغة. ثم تحاول استخدام هذه المعرفة لفهم المفاهيم المجردة. في الوقت نفسه، يتعلم الأطفال البشر المفاهيم أولاً ثم يتعلمون اللغة لوصف تلك المفاهيم.

لذا فإن التحدث إلى ChatGPT قد يبدو أحياناً وكأنه التحدث إلى صديق أو زميل في الفريق أو معلم. لكن الحسابات الرقمية المحوسبة وراءها لا تزال لا تشبه العقل البشري.

----

بقلم: توم سيغفريد وماريا تيمينغ

عن موقع: SN Explores