- تقارير إعلامية تشير إلى استخدام نموذج Claude من Anthropic في عملية عسكرية أميركية، دون تأكيد رسمي.
- الاستخدام – إن صح – كان لتحليل البيانات الاستخباراتية وليس لتنفيذ عمليات قتالية.
- الحدث يعكس تسارع دخول الذكاء الاصطناعي إلى القطاع الدفاعي وسط نقاشات أخلاقية متزايدة.
كشفت تقارير إعلامية حديثة أن الجيش الأميركي استخدم نموذج الذكاء الاصطناعي Anthropic المعروف باسم Claude خلال عملية عسكرية مرتبطة بالرئيس الفنزويلي السابق Nicolás Maduro.
ووفقًا لما نشرته صحيفة The Wall Street Journal ونقلته وكالة Reuters، فإن النموذج استُخدم ضمن سياق العملية، إلا أن رويترز أكدت عدم تمكنها من التحقق بشكل مستقل من صحة هذه المعلومات، كما لم يصدر تعليق رسمي فوري من وزارة الدفاع الأميركية أو الشركة المطورة للنموذج أو البيت الأبيض.
كيف يمكن أن يكون Claude قد استُخدم؟
بحسب المعلومات المتاحة، لا توجد مؤشرات على مشاركة النموذج في تنفيذ عمليات ميدانية أو اتخاذ قرارات قتالية مباشرة.
السيناريو الأقرب يتمثل في استخدام Claude في:
- تحليل كميات ضخمة من البيانات الاستخباراتية
- تلخيص تقارير معقدة بسرعة عالية
- ربط المعلومات من مصادر متعددة
- دعم متخذي القرار بمخرجات منظمة وواضحة
هذا النوع من الاستخدام يتماشى مع التطبيقات الشائعة لنماذج اللغة الكبيرة داخل المؤسسات الحكومية والأمنية، حيث يتم توظيفها كمحرك لتحليل البيانات وليس كأداة تنفيذ.
سياسات Anthropic: قيود واضحة على الاستخدام العسكري العنيف
تتبنى شركة Anthropic سياسات استخدام صارمة تمنع توظيف نماذجها في:
- تطوير أو تصميم الأسلحة
- تسهيل أعمال العنف
- إنشاء أنظمة مخصصة لإلحاق الضرر بالبشر
وتؤكد الشركة ضمن سياسة الاستخدام الرسمية أن تقنياتها لا يجوز استخدامها في أي نشاط قد يهدد السلامة العامة أو يسهم في العنف المباشر.
هذا يفتح تساؤلًا مهمًا: هل يندرج تحليل البيانات الاستخباراتية ضمن الاستخدامات المسموح بها؟ الإجابة تعتمد على طبيعة التطبيق الفعلي وحدوده.
الذكاء الاصطناعي في القطاع الدفاعي: مرحلة جديدة
سواء تأكدت هذه التقارير أم لا، فإنها تعكس اتجاهًا عالميًا واضحًا نحو دمج الذكاء الاصطناعي في القطاع الدفاعي، خصوصًا في مجالات:
- تحليل المعلومات الاستخباراتية
- الأمن السيبراني
- مراقبة التهديدات
- التخطيط الاستراتيجي
تسعى الحكومات إلى تسريع عملية اتخاذ القرار عبر أدوات تحليل متقدمة، مع إبقاء القرار النهائي بيد العنصر البشري.
سباق شركات الذكاء الاصطناعي نحو العقود الحكومية
تُعد Anthropic من أبرز شركات الذكاء الاصطناعي الناشئة عالميًا، وتتنافس مع شركات كبرى على تطوير نماذج اللغة الكبيرة وتوسيع حضورها في القطاع الحكومي.
وأصبح الإنفاق الحكومي، خاصة في مجالات الدفاع والأمن، سوقًا استراتيجيًا لشركات الذكاء الاصطناعي نظرًا لحجم الميزانيات والحاجة المتزايدة إلى أدوات تحليل دقيقة وسريعة.
بين التطور التقني والتحديات الأخلاقية
يثير دمج الذكاء الاصطناعي في العمليات العسكرية نقاشًا متصاعدًا حول:
- حدود الاستخدام الأخلاقي
- الشفافية والمساءلة
- تأثير التقنيات على الأمن العالمي
وفي ظل غياب تأكيد رسمي حتى الآن، تبقى هذه التقارير مؤشرًا على تحوّل استراتيجي أوسع: انتقال الذكاء الاصطناعي من مرحلة التجارب التقنية إلى عنصر محوري في منظومات تحليل البيانات ودعم القرار داخل المؤسسات السيادية.














