قضت محكمة فدرالية أمريكية بوقف إجراءات اتخذتها إدارة دونالد ترامب ضد شركة أنثروبيك، عقب تصنيفها ككيان يهدد الأمن القومي وهو إجراء يُطبق عادة ضد الدول أو الشركات الأجنبية المعادية.
وتعود قصة هذا النزاع الحاد إلى خلافات جوهرية بين وزارة الدفاع الأمريكية والشركة عقب رفضها السماح باستخدام عسكري غير مقيّد لنموذجها « كلود » للذكاء الاصطناعي.
وتشمل القيود محل النزاع استخدام أسلحة فتاكة ذاتية التشغيل من دون إشراف بشري، إضافة إلى المراقبة الجماعية للأمريكيين.
واتخذت المعركة طابعا سياسيا حادا، حيث وصف البيت الأبيض الشركة بأنها “يسارية متطرفة” تهدد المصالح الأمريكية، بينما وصف الرئيس التنفيذي للشركة، داريو أمودي، تلك الإجراءات بأنها “انتقامية وعقابية” ولا تستند إلى حقائق تقنية.
ووقعت في عام 2025 أنثروبيك عقدا بقيمة 200 مليون دولار مع البنتاغون لنشر تقنيتها في أنظمة سرية. وخلال المفاوضات التي أعقبت توقيع العقد، قالت أنثروبيك إنها لا تريد استخدام أنظمتها للذكاء الاصطناعي في المراقبة الجماعية، وإن تقنيتها ليست جاهزة لاتخاذ قرارات إطلاق النار في الأسلحة.
وقالت وزارة الحرب إنها تخشى أن تحاول أنثروبيك « تعطيل تقنيتها أو تعديل سلوك نموذجها بشكل استباقي » قبل أو أثناء « العمليات القتالية » إذا شعرت الشركة بأن « الخطوط الحمراء » التي وضعتها لنفسها يتم تجاوزها.
وقالت أنثروبيك إن هذا القلق لم يُطرح خلال المفاوضات، ولم يظهر إلا في مذكرات الحكومة المقدمة إلى المحكمة.
وتسلط هذه القضية الضوء على التداخل بين الأبعاد الأخلاقية والتجارية والقانونية للذكاء الاصطناعي المتقدم، وتطرح تساؤلات حول الجهة التي ينبغي أن تحدد حدود هذه التكنولوجيا: شركات التكنولوجيا التي تسترشد بمبادئ أمان داخلية، أم السلطات العامة التي تتحرك باسم الأمن القومي والمصالح الجيوسياسية؟

