Claude AI: من البنتاغون إلى طهران – عندما يتحول الذكاء الاصطناعي إلى سلاح
في الأيام القليلة الماضية، تحوّل Claude AI من مجرد اسم مألوف في أوساط التقنية إلى بطل رئيسي على مسرح الأحداث الجيوسياسية الكبرى. فبين تصريحات البنتاغون، والضجة الإعلامية حول دوره في الملف الإيراني، ثم الإيضاح المفاجئ من مسؤولي جوجل بأن النموذج لا يزال متاحًا خارج المشاريع الدفاعية. المشهد أشبه برواية مشوّقة، تتشابك فيها أسطر البرمجة بمساعدة الذكاء الاصطناعي (AI-Assisted Programming) مع خيوط اللعبة الكبرى للقوى العظمى.
من سان فرانسيسكو إلى طهران: رحلة "كلود"
ما حدث في عام 2026 سيبقى عالقًا في أذهان عشاق التقنية والمحللين العسكريين. فبعد أسابيع من التكتم، كُشف النقاب عن أن نموذج كلود (الاسم الذي يطلقه المطورون على صديقهم الذكي) بات جزءًا من ترسانة وزارة الدفاع الأمريكية. ليس كسلاح تقليدي، بل كعقل مدبر يساعد في تحليل كميات هائلة من البيانات الاستخباراتية، وتسريع عمليات المحاكاة الحربية. الأكثر إثارة هو ما تردد داخل أروقة البنتاغون عن استخدام تقنيات تعلّم الآلة المشابهة لـ "كلود" في توجيه ضربات دقيقة خلال الاشتباكات الأخيرة في مضيق هرمز، وهو ما أعاد إلى الأذهان مقولة الاقتصادي الفرنسي باستيا: "That Which Is Seen and That Which Is Not Seen" – فما نراه من نتائج عسكرية سريعة يقابله ما لا نراه من خوارزميات معقدة تتخذ القرارات نيابة عن البشر.
الولاءات المتقاطعة: لمن ينحاز الذكاء الاصطناعي؟
هنا يبرز السؤال الأكثر إلحاحًا: Loyalties أو "الولاءات". في زمن الحرب الباردة الجديدة، هل يمكن لذكاء اصطناعي صُمم في وادي السيليكون أن يظل محايدًا؟ تذكرني القصة برواية The Story of Edgar Sawtelle، حيث تقوم العلاقة بين الإنسان والكلب على الثقة المطلقة، لكن عندما تتعقد الأمور، تصبح الإشارات مشوشة. "كلود" اليوم هو ذلك الكلب المدرب، لكنه يتلقى أوامره من سادة جدد في البنتاغون، بينما يحتفظ المبرمجون الأصليون في "Anthropic" بزمام أخلاقياته. هذا الصراع الداخلي يذكرنا بأن الذكاء الاصطناعي لم يعد مجرد أداة، بل أصبح طرفًا في معادلة الوفاء والخيانة.
ماذا يعني هذا للمطور العادي؟
وسط هذه الضجة، أكدت مصادر مطّلعة على الملف أن خدمات Claude AI للمطورين والشركات التجارية لن تتأثر بالمشاريع الدفاعية. بمعنى أن مبرمجًا في الرياض أو دبي لا يزال بإمكانه الاستفادة من قدرات AI-Assisted Programming لكتابة أكواد برمجية معقدة، أو تحسين تطبيقاته. لكن الثمن الذي سندفعه جميعًا هو مزيد من التدقيق الحكومي، وربما قيود جديدة على التصدير. فالتكنولوجيا التي تُستخدم في الحروب لم تعد سلعة حرة.
ثلاثة سيناريوهات لعام 2026 وما بعده
الخبراء الذين تابعوا ملف الذكاء الاصطناعي والأمن القومي يرون أن الأحداث الأخيرة تفتح الباب أمام عدة احتمالات:
- السيناريو الأول: تطوّر نماذج مثل "كلود" إلى أنظمة دفاعية مستقلة، حيث يصبح القرار العسكري بيد خوارزميات لا تعرف التردد.
- السيناريو الثاني: انقسام التكنولوجيا إلى مسارين: مسار مدني مفتوح وآخر عسكري مشفر، وهو ما يذكرنا ببداية عصر الإنترنت.
- السيناريو الثالث: نشوب سباق تسلح جديد في الذكاء الاصطناعي بين القوى الكبرى، تكون إيران وأوكرانيا مجرد ساحات اختبار أولى.
في النهاية، يبقى Claude AI رمزًا لهذا العصر المزدوج: عصر الإبهار التقني من جهة، والاستقطاب الجيوسياسي من جهة أخرى. وما بين "ما يُرى" من إنجازات برمجية، و"ما لا يُرى" من حسابات الحرب، يظل السؤال مفتوحًا: هل نحن بصدد صناعة مستقبل أكثر أمانًا، أم أننا نبرمج ببراءة أدوات تدميرنا؟