لحظة مفصلية في تاريخ البشرية
في كل قرن من القرون، تأتي لحظة يتغير فيها شكل العالم إلى الأبد. لحظةٌ لا تعود بعدها المجتمعات كما كانت، ولا تبقى الأفكار على حالها، ولا يظل الإنسان كما عرف نفسه. قبل آلاف السنين، كانت النار تلك اللحظة. ثم العجلة. ثم الكتابة. في العصر الحديث كان اكتشاف الكهرباء، ثم الطاقة النووية، ثم شبكة الإنترنت. واليوم، تقف البشرية على أعتاب لحظة جديدة لا تقل خطورة ولا عمقاً: لحظة الذكاء الاصطناعي.
لقد أصبح الذكاء الاصطناعي، في سنوات قليلة، أكثر من مجرد تقنية مساعدة. إنه أشبه بالبخار في القرن التاسع عشر: يتسرب إلى المصانع والقطارات والبيوت، ويغير شكل الإنتاج والحياة. لكن الفارق أن البخار كان محدوداً في الآلة، بينما الذكاء الاصطناعي يتغلغل في العقل ذاته: عقل الإنسان، وعقل المجتمع، وعقل الدولة.
إنها المرة الأولى التي يبتكر فيها البشر قوة قادرة على التفكير واتخاذ القرار ـ ولو جزئياً ـ بمعزل عنهم. قوة يمكن أن تبتسم للبشرية، فتفتح لها أبواب الطب والتعليم والطاقة، ويمكن أن تعبس في وجهها فتدفعها إلى أزمات اقتصادية، أو حروب خفية، أو حتى تهديد لجوهر إنسانيتها.
السؤال الذي يجب أن نطرحه بصراحة: هل سنبقى أسياد هذه التقنية، أم نصبح أسرى لقراراتها؟
الذكاء الاصطناعي: أكثر من مجرد أداة
كثيرون يظنون أن الذكاء الاصطناعي مجرد برنامج على هاتف، أو روبوت في مصنع، أو محرك بحث أكثر تطوراً. هذه رؤية قاصرة. الحقيقة أن الذكاء الاصطناعي اليوم هو بنية تحتية جديدة للعالم، مثلما كانت الكهرباء أو الإنترنت في زمنها.
في الاقتصاد، صار الذكاء الاصطناعي يحدد اتجاهات الأسواق، ويتنبأ بالأسعار، ويضبط المخاطر المالية بدقة تفوق قدرة المحللين. في السياسة، بات أداة للدعاية ولصناعة الرأي العام، بل وللتجسس وإدارة الحملات الانتخابية. في الثقافة والإبداع، ينتج نصوصاً وصوراً وألحاناً تنافس ما يبدعه الإنسان. في الطب، يشخّص الأمراض ويقترح العلاجات ويصمم الأدوية.
لكن الأخطر من كل ذلك أن الذكاء الاصطناعي ليس محايداً. إنه يتعلم من البيانات التي نغذيها به، وهذه البيانات مليئة بالتحيزات، والانقسامات، والصراعات الإنسانية. وهكذا فإن القرارات التي يتخذها ليست “موضوعية” تماماً، بل تحمل في طياتها انعكاساً لخياراتنا ونزعاتنا.
الخطر الأكبر ليس أن يستيقظ الذكاء الاصطناعي غداً ليعلن الحرب علينا كما في أفلام الخيال العلمي. الخطر أن نستخدمه نحن ـ نحن البشر ـ في تكريس الانقسام، وتعزيز الهيمنة، وتحويله إلى سلاح اقتصادي أو عسكري.
واشنطن وبكين في مواجهة مفتوحة
لا يمكن الحديث عن مستقبل الذكاء الاصطناعي دون التوقف عند المشهد الجيوسياسي. الولايات المتحدة والصين تمتلكان اليوم أكثر من 70% من القدرات العالمية في هذا المجال: من مراكز الأبحاث والجامعات، إلى التمويل والشركات العملاقة، وصولاً إلى البنى التحتية الرقمية وبراءات الاختراع.
هذا التركّز يجعل من الذكاء الاصطناعي ساحة جديدة للصراع بين القوتين العظميين. واشنطن ترى فيه أداة للحفاظ على ريادتها الاقتصادية والعسكرية. بكين تراه بوابة لإعادة صياغة النظام العالمي، وكسر احتكار الغرب للتكنولوجيا والتمويل.
غياب التعاون بين الطرفين يعني احتمال تشكل عالمين متوازيين:
عالم تقني تقوده الولايات المتحدة، بمعاييرها وقوانينها وأدواتها.
وعالم آخر تقوده الصين، بأنظمتها ورؤيتها للسيادة والمراقبة.
هذا الانقسام سيؤدي إلى ما يمكن تسميته “الستار الرقمي”، شبيه بالستار الحديدي في الحرب الباردة. ستكون هناك شبكات منفصلة، منصات مالية متنافسة، وحتى إنترنت مزدوج، مما يهدد التجارة العالمية والثقة المتبادلة بين الدول.
لا نكرر خطيئة وسائل التواصل الاجتماعي
حين ظهرت وسائل التواصل الاجتماعي قبل عقدين، بشّرنا أنفسنا بعصر جديد من الحرية والتواصل. قيل إنها ستجعل العالم “قرية صغيرة”. لكن سرعان ما اكتشفنا أن غياب الضوابط حولها جعلها تتحول إلى ساحة فوضى: خطاب كراهية، تضليل إعلامي، استقطاب سياسي، وانقسامات اجتماعية.
اليوم، نقف أمام تكنولوجيا أخطر بكثير. فإذا تعاملنا مع الذكاء الاصطناعي بالنهج نفسه ـ أي تركه يندفع بلا قيود ـ فإن الفوضى الرقمية السابقة ستكون مجرد مقدمة لفوضى أكبر بكثير. هذه المرة، لن يتعلق الأمر بتضليل إعلامي فحسب، بل بقرارات اقتصادية، عسكرية، بل وحتى طبية تُتخذ بمعزل عن الإنسان.
بين الازدهار والانقسام والفوضى
1. سيناريو الازدهار
يتحقق إذا وُضعت قواعد أخلاقية دولية تضبط الذكاء الاصطناعي. في هذا العالم، يمكن للذكاء الاصطناعي أن يعالج أمراضاً مزمنة، ويطور أدوية جديدة، ويساعد في مواجهة تغير المناخ. يمكن أن يرفع من كفاءة التعليم، ويوفر فرصاً اقتصادية غير مسبوقة.
2. سيناريو الانقسام
إذا استمر الصراع بين أميركا والصين، فسيشهد العالم انقساماً تقنياً واقتصادياً. ستتراجع التجارة العالمية، وتنهار جسور الثقة، وتتحول التكنولوجيا إلى أداة حرب اقتصادية باردة.
3. سيناريو الفوضى
وهو الأخطر. يحدث إذا غابت القوانين والضوابط تماماً. عندها ستصبح شركات التكنولوجيا العملاقة اللاعب الأوحد. وسيُترك الذكاء الاصطناعي ليتخذ قرارات عسكرية أو مالية دون تدخل بشري، بما يحمله ذلك من مخاطر كارثية.
الحاجة إلى إطار أخلاقي عالمي
لا يكفي أن نضع قواعد محلية أو إرشادات طوعية. نحن بحاجة إلى إطار عالمي ملزم، يشبه معاهدات الحد من الأسلحة النووية. إطار يقوم على ثلاثة أركان أساسية:
قانون دولي واضح يحدد الاستخدامات المسموح بها والممنوعة.
شفافية مطلقة: أي أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير والمراجعة والمحاسبة.
مشاركة متعددة الأطراف: بحيث لا تحتكر قوة واحدة التحكم في هذه التكنولوجيا.
وهنا يبرز مفهوم “محكّم الثقة”: طبقة مدمجة داخل كل نظام ذكاء اصطناعي تراجع القرارات قبل تنفيذها، لضمان التوافق مع القوانين والأعراف الأخلاقية.
الوعد والتهديد
لنكن واقعيين: الذكاء الاصطناعي سيُعيد تشكيل سوق العمل بالكامل. ملايين الوظائف ستختفي، خصوصاً تلك القائمة على المهام الروتينية. لكنه في المقابل سيخلق ملايين الوظائف الجديدة في مجالات البرمجة، تحليل البيانات، الرعاية الصحية المتقدمة، وإدارة الأنظمة الذكية.
الفارق سيكمن في قدرة المجتمعات على التكيف.
إذا استثمرنا في التعليم والتدريب، يمكن أن يصبح الذكاء الاصطناعي محركاً للعدالة الاجتماعية.
وإذا تركنا الأمور للفوضى، فسوف نشهد اتساع الهوة بين الأغنياء والفقراء، وربما انفجارات اجتماعية.
سؤال وجودي
وراء كل هذه الأرقام والسياسات يكمن سؤال وجودي أبسط وأعمق: من يملك من؟
هل نملك نحن الذكاء الاصطناعي ونوجهه، أم يملكنا هو ويملي علينا مصائرنا؟
هل سيبقى مجرد أداة، أم يصبح جزءاً من هوية الإنسان ووعيه؟
الإجابة لا تتوقف على التقنية ذاتها، بل على الاختيارات التي نتخذها نحن الآن.
الفرصة والواجب
العالم يقف أمام مرآة جديدة. ما نراه فيها ليس وجه الآلة، بل وجوهنا نحن. الذكاء الاصطناعي يعكس ما في داخلنا: طموحاتنا، مخاوفنا، رغبتنا في السيطرة أو في الحرية.
الفرصة هائلة: يمكن أن يصبح الذكاء الاصطناعي أداة لإنقاذ الكوكب، ودفع الإنسانية إلى مستوى غير مسبوق من الرفاهية. لكن الخطر أيضاً عظيم: يمكن أن يصبح سلاحاً يفتت المجتمعات ويقوّض الثقة ويهدد الوجود.
الخيار ليس للآلة. الخيار لنا.
وهذه المرة، لا مجال لتأجيل القرار. لأن المستقبل لن ينتظرنا.