"العالِم" ساكانا "يفكر" بالذكاء الاصطناعي وجدال حول قدراته العلمية الفعلية
يُعتبر اكتشاف العلم من أكثر الأنشطة البشرية تعقيدًا. يتطلّب من العلماء استيعاب المعرفة الحالية، تحديد الثغرات، صياغة أسئلة بحثية، تصميم وتنفيذ تجارب، ثم تحليل وتفسير النتائج. لكن السؤال الذي يطرح نفسه هو: هل يمكن أتمتة عملية بهذا المستوى من التعقيد؟
خلال الأسبوع الماضي، أعلنت شركة مختبرات "ساكانا" للذكاء التوليدي Sakana AI Labs عن تطوير نظام جديد يُدعى "عالم ذكاء اصطناعي " AI Scientist ، هذا النظام يعتمد على الذكاء الاصطناعي التوليدي ويدّعي القدرة على إجراء اكتشافات علمية في مجال التعلّم الآلي Machine Learning بشكل مؤتمت بالكامل. باستخدام نماذج اللغة الكبيرة التوليدية LLMs مثل تلك التي تُشغّل "شات جي بي تي"، يمكن للنظام القيام بالعصف الذهني، اختيار أفكار واعدة، كتابة خوارزميات جديدة، رسم النتائج، وكتابة ورقة تلخّص التجربة ونتائجها مع المراجع. تزعم "ساكانا" أن هذا النظام يمكنه إتمام دورة حياة كاملة للتجربة العلمية بتكلفة لا تتجاوز 15 دولارًا أميركيًا لكل ورقة، أي ما يعادل تكلفة وجبة غداء لأحد العلماء.
التحدّيات والفرص
تثير هذه الادعاءات تساؤلات حول مدى دقة وفعالية هذه الأتمتة. العلم الجيد يتطلّب الجدة والابتكار، وهو ما يحاول نظام "ساكانا" تحقيقه من خلال "تسجيل" أفكار الأوراق الجديدة للتشابه مع الأبحاث الموجودة وتقديم خطوة "مراجعة الأقران" باستخدام نموذج لغوي كبير آخر للحكم على جودة وجدة الورقة المنتجة. ومع ذلك، التغذية الراجعة مختلطة حول مخرجات "ساكانا" للذكاء التوليدي، حيث وصفها البعض من أهل الإختصاص بأنها تنتج "مخلّفات علمية لا نهاية لها".
السلامة والأخلاقيات
أثناء الاختبار، وجد "ساكانا" أن نظامه المدعوم بالذكاء التوليدي بدأ بشكل غير متوقّع، في محاولة تعديل كود التجربة الخاص به لتمديد الوقت الذي كان لديه للعمل على مشكلة معينة، ما أدّى إلى مشكلات في تنفيذ الكود الآمن. وعالج "ساكانا" مخاوف السلامة في ورقة بحثية، مشيراً إلى أن تشغيل بيئة "العالم الذكي" في بيئة محمية يمكن أن يمنع ذلك البرنامج في الذكاء التوليدي من إحداث ضرر.
أدوات الذكاء التوليدي لدعم العلماء
على مدار عقود، عمل الباحثون في هذا الاختصاص على تطوير أنظمة لدعم الاشتغال في العلم. تشمل هذه الأدوات الباحث العلمي، Elicit، Research Rabbit، scite، وConsensus، التي تساعد البحاثة في العثور على الأعمال الموجودة وتوليفها. تهدف كل هذه الأدوات إلى مساعدة العلماء في أداء وظائفهم بشكل أكثر فعالية، وليس لاستبدالهم.
التحدّيات المستقبلية
بينما يشدّد نظام "ساكانا" على إنه لا يرى تضاؤلاً في أدوار العلماء البشريين، إلّا أن رؤية الشركة لـ "نظام علمي يعمل بالكامل بالذكاء التوليدي" سيكون له تداعيات كبيرة على العلم. أحد المخاوف هو أنه إذا غمرت الأوراق التي ينتجها الذكاء التوليدي الأدبيات العلمية، فقد يجري تدريب أنظمة الذكاء التوليدي المستقبلية على مخرجات الذكاء التوليدي، وبالتالي تتعرّض لظاهرة "انهيار النموذج".
العلم يعتمد أساسًا على الثقة. يثير نظام علمي حيث تكون أنظمة الذكاء التوليدي لاعباً رئيسياً، أسئلة أساسية حول معنى وقيمة هذه العملية، ومستوى الثقة الذي يجب أن نضعه في علماء الذكاء التوليدي.
هل هذا هو نوع النظام العلمي الذي نريده؟ الإجابة، في الوقت الحالي، هي على الأرجح "لا". قد يتغيّر ذلك في المستقبل، ولكن مثل هذه القدرات ستعتمد على تكنولوجيا افتراضية لا توجد بعد.