الرئيسية > تقنية > مقال

Claude AI: من البنتاغون إلى طهران – عندما يصبح الذكاء الاصطناعي سلاحاً

تقنية ✍️ أحمد العمري 🕒 2026-03-08 14:06 🔥 المشاهدات: 3
Claude AI في قلب العاصفة

في الأيام القليلة الماضية، تحول Claude AI من مجرد اسم مألوف في عوالم التكنولوجيا إلى بطل رئيسي في قصة جيوسياسية كبرى. بين تصريحات البنتاغون، والضجة الإعلامية حول دوره في الصراع الإيراني، ثم التوضيح المفاجئ من المسؤولين في جوجل بأن النموذج لا يزال متاحاً خارج المشاريع الدفاعية. المشهد أشبه برواية مثيرة، حيث تتداخل أسطر البرمجة بمساعدة الذكاء الاصطناعي (AI-Assisted Programming) مع خيوط اللعبة الكبرى للقوى العظمى.

من سان فرانسيسكو إلى طهران: رحلة كلود

ما حدث في 2026 لن ينساه عشاق التكنولوجيا والمحللون العسكريون. فبعد أسابيع من التكتم، كُشف النقاب عن أن نموذج كلود (الاسم الذي ينادي به المطورون صديقهم الذكي) أصبح جزءاً من ترسانة وزارة الدفاع الأمريكية. ليس بالسلاح التقليدي، بل كعقل مدبر يساعد في تحليل كميات هائلة من البيانات الاستخباراتية، وتسريع عمليات المحاكاة الحربية. الأكثر إثارة هو ما تردد داخل أروقة البنتاغون عن استخدام تقنيات تعلم الآلة المشابهة لـ Claude في توجيه ضربات دقيقة خلال الاشتباكات الأخيرة في مضيق هرمز، وهو ما أعاد إلى الأذهان مقولة الاقتصادي الفرنسي باستيا: "That Which Is Seen and That Which Is Not Seen" – فما نراه من نتائج عسكرية سريعة يقابله ما لا نراه من خوارزميات معقدة تتخذ القرارات نيابة عن البشر.

الولاءات المتقاطعة: لمن ينتمي الذكاء الاصطناعي؟

هنا يبرز السؤال الأكثر إلحاحاً: Loyalties أو "الولاءات". في زمن الحرب الباردة الجديدة، هل يمكن لذكاء اصطناعي صُمم في وادي السيليكون أن يظل محايداً؟ القصة تذكرني برواية The Story of Edgar Sawtelle، حيث العلاقة بين الإنسان والكلب تقوم على الثقة المطلقة، لكن عندما تتعقد الأمور، تصبح الإشارات مشوشة. كلود اليوم هو ذلك الكلب المدرب، لكنه يتلقى أوامره من سادة جدد في البنتاغون، بينما يحتفظ المبرمجون الأصليون في Anthropic بزمام أخلاقياته. هذا الصراع الداخلي يذكرنا بأن الذكاء الاصطناعي لم يعد مجرد أداة، بل أصبح طرفاً في معادلة الوفاء والخيانة.

ماذا يعني هذا للمطور العادي؟

وسط هذه الضجة، أكدت مصادر مطّلعة على الملف أن خدمات Claude AI للمطورين والشركات التجارية لن تتأثر بالمشاريع الدفاعية. بمعنى أن مبرمجاً في الرياض أو دبي لا يزال بإمكانه الاستفادة من قدرات AI-Assisted Programming لكتابة أكواد برمجية معقدة، أو تحسين تطبيقاته. لكن الثمن الذي سندفعه جميعاً هو مزيد من التدقيق الحكومي، وربما قيود جديدة على التصدير. فالتكنولوجيا التي تستخدم في الحرب لم تعد سلعة حرة.

ثلاثة سيناريوهات لعام 2026 وما بعده

الخبراء الذين تابعوا ملف الذكاء الاصطناعي والأمن القومي يرون أن الأحداث الأخيرة تفتح الباب أمام عدة احتمالات:

  • السيناريو الأول: تطور نماذج مثل Claude إلى أنظمة دفاعية مستقلة، حيث يصبح القرار العسكري بيد خوارزميات لا تعرف التردد.
  • السيناريو الثاني: انقسام التكنولوجيا إلى مسارين: مسار مدني مفتوح وآخر عسكري مشفر، وهو ما يذكرنا ببداية عصر الإنترنت.
  • السيناريو الثالث: ظهور سباق تسلح جديد في الذكاء الاصطناعي بين القوى الكبرى، تكون إيران وأوكرانيا مجرد ساحات اختبار أولى.

في النهاية، يبقى Claude AI رمزاً لهذا العصر المزدوج: عصر الإبهار التقني من جهة، والاستقطاب الجيوسياسي من جهة أخرى. وما بين "ما يُرى" من إنجازات برمجية، و"ما لا يُرى" من حسابات الحرب، يظل السؤال مفتوحاً: هل نحن بصدد صناعة مستقبل أكثر أماناً، أم أننا نبرمج ببراءة أدوات تدميرنا؟

📖 قد يعجبك

🎲 عشوائي