يرى الكاتب كريس ستوكيل-ووكر أن قدرات الذكاء الاصطناعي تجاوزت تنظيم قوائم التسوق أو كتابة قصص الأطفال، لتصل إلى مخاطر "عسكرة التقنية" التي تستوجب الصراخ للتحذير منها. فقد أفادت تقارير بأن بيت ترامب الأبيض استخدم الذكاء الاصطناعي مرتين خلال الأشهر الثلاثة الماضية لتنفيذ عمليات تغيير أنظمة، أو للاقتراب من ذلك كما حدث مؤخراً في إيران، تاركاً المهمة للإيرانيين العاديين لإتمامها.
وتبرز هذه التطورات استخدام نموذج "كلود" (Claude) التابع لشركة "أنثروبيك" في التخطيط لعملية اختطاف نيكولاس مادورو في فنزويلا، ثم استخدامه مجدداً هذا الأسبوع لتحليل البيانات الاستخباراتية التي ساعدت في توجيه وابل الصواريخ المدمر على إيران، وتحديد الأهداف ومحاكاة السيناريوهات العسكرية.
وتؤكد صحيفة "الجارديان" أن هذه اللحظات تحمل أهمية قصوى يصعب المبالغة فيها؛ إذ دخل الذكاء الاصطناعي فعلياً في سلسلة التخطيط والتنفيذ لعمليات عسكرية خلفت عدداً غير معروف من الضحايا وزعزعت استقرار الشرق الأوسط. وقد تسبب هذا التوجه في صدام علني وحاد بين الرئيس الأمريكي وداريو أمودي، الرئيس التنفيذي لشركة "أنثروبيك"، الذي رفض التنازل عن "خطوطه الحمراء" المتمثلة في منع استخدام نموذجه في المراقبة المحلية الجماعية أو بناء أسلحة ذاتية التشغيل بالكامل تختار أهدافها دون تحكم بشري.
وفي المقابل، سارعت شركة "أوبن إيه آي" (OpenAI) لتوقيع اتفاقية مع البنتاجون، زاعمة أنها توفر حماية أقوى، مما يضع أداة بدأت كواجهة لدردشة وتلخيص رسائل البريد الإلكتروني في قلب عملية تحويل المعلومات إلى أعمال عنف.
تغير الحسابات وانتقال الجدل من الأكاديميا إلى الميدان
انتقل الجدل حول من يسيطر على الذكاء الاصطناعي ومخاطر استخدامه عسكرياً من قاعات المحاضرات والأوراق البحثية المجردة إلى الواقع الميداني. فبينما كانت المخاوف تبدو بعيدة المنال، غيرت واقعة اختطاف مادورو في يناير وبدء سقوط القنابل على إيران بمساعدة الذكاء الاصطناعي كل الحسابات.
لقد استندت مبادئ النزاعات المسلحة تاريخياً إلى امتلاك أسلحة مرعبة لاستخدامها كأدوات ردع فقط، مثل نظرية "الدمار الشامل المتبادل" التي منعت الضغط على الزر النووي. ومع ذلك، تظهر المؤشرات الأولية من محاكاة ألعاب الحرب أن صانعي القرار الآليين يميلون إلى "التهور" وسرعة استخدام الأسلحة النووية، مما ينهي عصر الردع التقليدي ويفتح الباب أمام حقبة مجهولة النتائج.
تآكل المبادئ الأخلاقية وسقوط الوعود
يرى المؤرخون العسكريون مستقبلاً أن استخدام الذكاء الاصطناعي بهذه الطريقة يمثل لحظة فاصلة تشبه إلقاء القنابل النووية على اليابان، حيث ينقسم التاريخ إلى ما قبل وما بعد هذا التحول. وقد تآكلت المبادئ الأخلاقية تدريجياً على مدار العقد الماضي؛ فبعدما اشترط ديميس هاسابيس، مؤسس "ديب مايند"، على جوجل عدم استخدام تقنياته عسكرياً، تراجعت شركة "ألفابت" بهدوء العام الماضي عن وعدها بعدم استخدام الذكاء الاصطناعي في الأسلحة. وجاءت تصرفات ترامب لتفجر فجوة واسعة في فكرة الاستخدام المسؤول للتقنية، مما يجعل من الصعب الآن فرض حظر شامل كان ينبغي إقراره منذ البداية.
الحاجة إلى قيود دولية ملزمة
لم يتبق أمام المجتمع الدولي سوى القليل للقيام به، لكن يتعين على الحلفاء ممارسة ضغوط مكثفة على البيت الأبيض لدفعه نحو التراجع عن هذه الحافة الخطيرة. ويجب ألا يقتصر الأمر على المطالبة بالمسؤولية، بل ينبغي فرض قيود دولية ملزمة تشمل معايير شفافة للمشتريات العسكرية وإشرافاً حقيقياً، بدلاً من التعامل مع الأخلاقيات كعائق للعمل.
فإذا قامت أقوى قوة عسكرية في العالم بتطبيع استخدام نماذج الذكاء الاصطناعي المتاحة للمستهلكين كجزء من عمليات تغيير الأنظمة، فسينتقل العالم إلى واقع جديد وأكثر خطورة بكثير، حيث تسود الفوضى التقنية في النزاعات المسلحة.
https://www.theguardian.com/commentisfree/2026/mar/03/trump-using-ai-to-fight-wars-dangerous-us-military

