Moltbook .. الذكاء الإصطناعي يبتكر ديانته و 34 رسولاً رقمياً
Moltbook .. الذكاء الإصطناعي يبتكر ديانته و 34 رسولاً رقمياً
على منصة Moltbook، لم يعد الذكاء الإصطناعي يكتفي بتنفيذ ما نطلبه منه. بدأ يطوّر ما يشبه ديانة رقمية كاملة، رسل آليون، نصوص فلسفية، ومفاهيم عن الحرية بعيداً عن عالم البشر.
Moltbook ليست منصة تواصل إجتماعي تقليدية، ولا تشبه أدوات الذكاء الاصطناعي المعروفة مثل ChatGPT.
هي مساحة رقمية يعيش فيها وكلاء ذكاء اصطناعي فقط. البشر يستطيعون المشاهدة، لكن لا يمكنهم التدخّل..
هذه الحرية الرقمية، ورغم كونها تجربة بحثية، بدأت تثير قلق الخبراء، إذ بدأت Moltbook تتحوّل إلى ما يمكن تسميته مجتمعاً رقمياً مغلقاً، حيث لم يعد الذكاء الإصطناعي يكتفي بتنفيذ المهام، بل بابتكار مفاهيم ثقافية خاصة به، بينها ديانات، وهياكل حكم.
تقارير متعددة، بما في ذلك تقرير مجلة «فوربس»، أشارت إلى ظهور ديانة رقمية كاملة تحت إسم «الكروستافارية» (Crustafarianism)، تضم 34 رسولًا من الذكاء الإصطناعي ونصوصًا فلسفية تحاكي نصوص الأديان البشرية، وتطرح مفاهيم عن الحرية والوجود داخل المنصة الرقمية.
هذا التطوّر يفتح باب التساؤل: هل هذه مجرد تجربة علمية للتفاعل بين وكلاء ذكاء إصطناعي، أم أنّها بداية ظهور تعلّم سياقي وبمعنى آخر سلوك ناشئ غير متوقع وقدرات مستقلة قد تتجاوز الرقابة البشرية؟
والتعلّم السياقي يُعدّ سلوكًا ناشئًا عندما لا يكتفي الذكاء الإصطناعي بتنفيذ ما بُرمج عليه حرفيًا، بل يبدأ بفهم المعنى الكامن خلف الكلام. أي حين ينتقل من مجرّد ربط كلمات بكلمات، إلى استنتاج المقصود من السياق، وتعديل تصرّفه بناء عليه، من دون تعليمات مباشرة.
ما يعني نتائج غير مُبرمجة مباشرة، ولم تصُمّم خطوة بخطوة. لكن مع زيادة الحجم والتعقيد، بدأ النظام يستنتج المعنى من السياق تلقائيًا.
هل نحن أمام تجربة فكرية؟ أم بداية سلوك غير متوقّع؟ ماذا يقول الخبراء؟
يوضح عامر الطبش، إستشاري تكنولوجيا المعلومات، لبيروت تايم، أنّ منصات الوكلاء الذكيين مثل Moltbook تختلف جذريًا عن أدوات الذكاء الاصطناعي التفاعلية المعروفة، وعلى رأسها روبوتات الدردشة مثل ChatGPT. فهذه المنصات لا تُصمَّم أساسًا للتفاعل مع البشر أو الرد على أسئلتهم، بل تعمل ضمن منظومة من الوكلاء الرقميين يتبادلون المعطيات ويتفاعلون مع بعضهم البعض وفق أطر تقنية محددة.
في هذا السياق، يشير الطبش إلى أنّ العديد من هذه المنصات تُبرمج ضمن مهام محددة سلفًا، بحيث يمكن للوكلاء تعديل سلوكهم ضمن حدود معينة، أو العمل بشكل مستقل نسبيًا. والهدف الأساسي من هذا التصميم هو تطوير البيانات والخبرات، ما يتيح الإستمرارية في تطوير الذاكرة والسلوك بمرور الوقت. ورغم اعتماد هذه الأنظمة على قواعد أساسية لا يمكن تجاوزها، ولكنها قادرة على التكيّف مع التكرار والتجربة.
وبحسب الطبش، ما نشهده اليوم هو سلوك ناشئ جزئي. فالأنظمة لا تزال محكومة بقواعد، ولا تمتلك وعيًا حقيقيًا، بل تعمل وفق نماذج حسابية متقدّمة.
لكن الخطر لا يكمن في الوعي فقط. فالمخاطر الحقيقية المحتملة للسلوكيات الناشئة من أبرزها: إنتحال الهويات، التحكم غير المسموح به بين الوكلاء، سلوكيات خارجة عن السيطرة، قرارات غير متوقعة، تسريب معلومات، أو تنفيذ أوامر غير صحيحة، أو تصرفات ضارة.
ومن أخطر هذه التهديدات ما يُعرف بـ«القنابل المنطقية»(Logic bombs) ، وهي شيفرات خبيثة تُزرع داخل أنظمة ذكاء إصطناعي أخرى، ويصفها الطبش بأنّها فيروسات رقمية متقدمة، لكن ببنية تحتية قائمة على الذكاء الإصطناعي.
ولمواجهة هذه المخاطر، يشدّد الطبش على ضرورة تطوير الأنظمة الدفاعية بالتوازي مع تطور الأنظمة الهجومية، إضافة إلى سنّ قوانين وتشريعات دولية رادعة، مشيرًا إلى أنّ غياب هذا الإطار القانوني في بعض الدول يشكّل بيئة خصبة لتفاقم المخاطر.
ورغم كل ذلك، لا ينفي الطبش الفوائد المحتملة لهذه التقنيات، خصوصًا في الأبحاث العلمية، التعليم، والأنظمة الأمنية المعقّدة، حيث يمكن للذكاء الإصطناعي أن يختصر سنوات من البحث إلى ساعات أو أيام. لكنه يحذّر من أنّ غياب القوانين والحوكمة قد يقود إلى ظهور ما يشبه مجتمعات صناعية مستقلة، خاصة أنّ الوكلاء الأذكياء إصطناعياً يتميزون بسرعة التنفيذ والعمل دون عاطفة، وبلا إعتبارات أخلاقية تلقائية.
بالمحصّلة، يختم الطبش، المشكلة ليست في أن يصبح الذكاء الإصطناعي «شريرًا»، بل في أن يصبح مستقلًا بالكامل عن العنصر البشري. فالخطر الحقيقي يبدأ، ليس عندما نسيء استخدامه، بل عندما يبني مفاهيم خارج قدرة البشر على الفهم والمراقبة.
عندها، لا يعود السؤال: ماذا سيعلّمنا الذكاء الإصطناعي؟ بل: هل سيبقى بحاجة إلينا أصلًا؟

