مع قيام الجيش الأمريكي بتوسيع استخدامه لأدوات الذكاء الاصطناعي لتحديد أهداف الضربات الجوية في إيران، يدعو أعضاء الكونجرس إلى مزيد من الأمن والإشراف على الاستخدام العسكري للتكنولوجيا.
وأكد شخصان مطلعان على الأمر، طلبا عدم الكشف عن هويتهما لمناقشة القضايا الحرجة، أن الجيش يستخدم أنظمة الذكاء الاصطناعي من شركة تحليل البيانات Palantir لمعرفة ما يمكن فعله في الوضع الحالي. باستخدام برنامج Palantir، الذي يعتمد على جزء من النظام الأنثروبي لكلود AI، يأتي وزير الدفاع بيت هيجسيث. والغرض منه هو وضع الذكاء الاصطناعي في القلب من الجيش الأمريكي – وبينما اشتبك مع القيادة الأنثروبولوجية بشأن القيود المفروضة على استخدام الذكاء الاصطناعي.
ومع ذلك، نظرًا لأن الذكاء الاصطناعي يلعب دورًا أكبر في ساحة المعركة، فإنه يحتاج إلى التركيز على القضايا الأمنية التي تحتاج إلى مراقبة استخدامه والتأكد من منح السيطرة على التكنولوجيا.
وقالت النائبة جيل توكودا، عضو لجنة القوات المسلحة بمجلس النواب، لشبكة NBC News رداً على أسئلة حول استخدام وموثوقية الذكاء الاصطناعي في المواقف العسكرية: “نحن بحاجة إلى مراجعة كاملة وغير متحيزة لتحديد ما إذا كان الذكاء الاصطناعي قد أضر بالفعل بالأرواح أو عرّضها للخطر في الحرب مع إيران”. “الحكم البشري يجب أن يكون بين قرارات الحياة والموت.”
صرحت وزارة الدفاع وشركات الذكاء الاصطناعي الرائدة مثل OpenAI وAnthropic علنًا أن أنظمة الذكاء الاصطناعي الحالية لا ينبغي أن تقتل دون توقيع بشري. ولكن لا تزال هناك مخاوف من أن الاعتماد على الذكاء الاصطناعي في أجزاء من عملياته أو اتخاذ القرار قد يؤدي إلى أخطاء عسكرية.
وقال المتحدث باسم البنتاغون شون بارنيل في المنشور على X في 26 فبراير/شباط، قال إن الجيش “لا يريد استخدام الذكاء الاصطناعي لإنشاء أسلحة مستقلة تعمل بدون البشر”.
ولم تجب وزارة الدفاع على أسئلة حول كيفية استخدام الجيش للذكاء الاصطناعي لتقليل أعباء العمل البشرية مع التحقق من دقة تحليل وتتبع الأفكار.
أثار المشرعون والخبراء المستقلون الذين تحدثوا إلى شبكة إن بي سي نيوز مخاوف بشأن استخدام الجيش للأسلحة، ودعوا إلى توفير حماية واضحة للأشخاص الذين يشاركون في قرارات الحياة أو الموت في الحرب.
وقالت النائبة سارة جاكوبس، ديمقراطية من كاليفورنيا، وعضو لجنة القوات المسلحة بمجلس النواب: “أدوات الذكاء الاصطناعي ليست موثوقة بنسبة 100٪ – فقد تفشل بطرق خفية ولكن العمال يستمرون في الثقة بها”.
وقال: “علينا مسؤولية ضمان استخدام الجيش للذكاء الاصطناعي والتأكد من عدم وجود خطر استخدام القوة المميتة، لأن التكلفة الخاطئة يمكن أن تشكل خطرا على المدنيين والأفراد الذين يقومون بذلك”.
لقد كان كلود من Anthropic جزءًا أساسيًا من برنامج التحليل الاستخباراتي Maven التابع لشركة Palantir، والذي استخدمته الولايات المتحدة أيضًا للقبض على الرئيس الفنزويلي نيكولاس. مادورو. تم الإبلاغ عن أخبار دور كلود في الأحداث العسكرية الأخيرة لأول مرة بواسطة صحيفة وول ستريت جورنال و واشنطن بوست.
لكن الدور كان معقدًا بسبب صراع الأنثروبيك مع هيجسيث عندما أرادت الشركة ذلك منع الجيش من استخدام الذكاء الاصطناعي في المراقبة وأسلحة القتل المستقلة. في الأسبوع الماضي، قامت وزارة الدفاع بتسمية أنثروبيك تهديد للأمن القوميوهي خطوة تهدد بعرقلة الخدمة العسكرية في الأشهر المقبلة. أنثروبي رفعت دعوى قضائية محاربة هذا التشكيل.
ورفض الأنثروبيك التعليق. ولم تستجب شركة بالانتير لطلب التعليق.
في أ تم إرسال الفيديو إلى X والأربعاء، اعترف الأدميرال براد كوبر، رئيس القيادة المركزية الأمريكية، بأن الذكاء الاصطناعي أصبح أداة مهمة في مساعدة الولايات المتحدة على اختيار الأهداف في إيران.
وقال: “يستخدم مقاتلونا مجموعة متنوعة من أدوات الذكاء الاصطناعي المتقدمة. وتساعدنا هذه الأنظمة في تحليل كميات كبيرة من البيانات في ثوانٍ حتى يتمكن قادتنا من تجاوز الضوضاء واتخاذ قرارات أكثر ذكاءً بشكل أسرع من العدو”.
“يتخذ البشر دائمًا القرارات النهائية بشأن ما يجب تصويره وما لا يجب تصويره ومتى يتم إطلاق النار، ولكن أدوات الذكاء الاصطناعي المتقدمة يمكنها تحويل العمليات التي تستغرق ساعات وأحيانًا حتى أيام إلى ثوانٍ.”
وقد أيدت إدارة ترامب علنًا استخدام كلتا التقنيتين جيش و في جميع أنحاء الدولة.
وقال النائب بات هاريجان، الجمهوري عن الحزب الجمهوري، إن الذكاء الاصطناعي كان له بالفعل أهمية في تطوير الاستخبارات العسكرية، بما في ذلك في إيران.
“الذكاء الاصطناعي هو أداة تمكن مقاتلينا من معالجة المعلومات بشكل أسرع مما يمكن لأي إنسان أن يفعله بمفرده، وما رأيناه في عملية Epic Fury، حيث تم تنفيذ أكثر من 2000 هدف بدقة كبيرة، هو دليل على كيفية استخدام هذه القدرة بفعالية وكفاءة،” قال هاريجان، الذي يعمل أيضًا في لجنة القوات المسلحة بمجلس النواب، للجنة أخبار NBC.
وأضاف: “لكن لا يوجد نظام ذكاء اصطناعي يحل محل قرار الجندي الأمريكي وتدريبه وخبرته. فالشخص المعرض للخطر ليس طبيعيا، إنه ضروري، ولا تظهر طريقة عمل جنودنا غير ذلك”.
في حين لا توجد تقارير تفيد بأن شبكة إن بي سي نيوز قالت إنه يجب إزالة الذكاء الاصطناعي بالكامل من العمليات العسكرية، قال آخرون إن هناك حاجة إلى مزيد من الرقابة.
وقالت السيناتور إليسا سلوتكين، ديمقراطية من ولاية ميشيغان، وعضو لجنة القوات المسلحة بمجلس الشيوخ، إن وزارة الدفاع لم تفعل ما يكفي لتوضيح تصور الجمهور لذكاء الذكاء الاصطناعي الذي يدعمه أو يطوره الجيش.
وقال: “الأمر متروك للناس، وفي هذه الحالة وزير الدفاع، للتأكد من عدم إزالة الناس من الغابة في المستقبل، وهذا ما لا نؤمن به”.
وقال السيناتور مارك وارنر، الديمقراطي عن ولاية فيرجينيا، وهو أكبر عضو ديمقراطي في لجنة المخابرات بمجلس الشيوخ، إنه يشعر بالقلق بشأن كيفية استخدام الجيش للذكاء الاصطناعي للمساعدة في تحديد الأهداف، وأن هناك أسئلة لم تتم الإجابة عليها حول كيفية استخدام التكنولوجيا الجديدة. وقال لشبكة إن بي سي نيوز: “يجب حل هذا الأمر”.
وأفادت شركتا OpenAI وAnthropic، اللتان عملتا مع الجيش الأمريكي، أنه حتى أنظمتهما الأكثر تقدمًا معيبة، كما هو الحال مع كبار الباحثين في مجال الذكاء الاصطناعي في العالم. يعترفون بأنهم لا يفهمون تمامًا كيفية عمل أنظمة توجيه الذكاء الاصطناعي.
في أ مقابلة مع ان بي سي وفي الشهر الماضي، قال الرئيس التنفيذي لشركة Anthropic، داريو أمودي: “لا أستطيع أن أخبركم أن هناك فرصة بنسبة 100% أن تكون حتى الآلات التي نصنعها موثوقة”.
برنامج تعليمي رائع حول OpenAI نشرت في سبتمبر وجدت أن جميع روبوتات الدردشة الرئيسية المعتمدة على الذكاء الاصطناعي، والتي تعتمد على الآلات المعروفة باسم نماذج اللغة واسعة النطاق، “تهلوس” أو تولد استجابات من وقت لآخر.
دعت السيناتور كريستين جيليبراند، من ولاية نيويورك، إلى وضع قواعد واضحة حول كيفية استخدام الجيش للذكاء الاصطناعي.
وقال لشبكة إن بي سي نيوز: “لقد أثبتت إدارة ترامب بالفعل أنها تريد تقويض الدستور الأمريكي لمعارضة حرب غير قانونية”. “لا يوجد سبب للاعتقاد بأن وزارة الدفاع ستكون مسؤولة عن استخدام الذكاء الاصطناعي دون ضمانات واضحة.”
وقال مارك بيل، مدير الشؤون العامة في شبكة سياسات الذكاء الاصطناعي، وهي مؤسسة فكرية في واشنطن العاصمة، ومدير استراتيجية وسياسات الذكاء الاصطناعي في البنتاغون من 2018 إلى 2020، إنه في حين أن الذكاء الاصطناعي يمكن أن يحسن عملية صنع القرار، فمن الواضح أن الناس لا يزالون بحاجة إلى تقييم ما يريدون بعناية.
وأضاف: “هناك العديد من الخطوات قبل رسم النسر. يتم استخدام أنظمة الذكاء الاصطناعي بشكل أكثر فعالية لتسريع العمليات الحالية والسماح للمسؤولين والمهندسين والمخططين بالحصول على القدرة على اتخاذ قرارات أفضل وأسرع”. “ولكن عندما يتعلق الأمر بنشر الأسلحة، فإن هذه التكنولوجيا ليست جاهزة بعد.”
وقال بيل: “ستكون هذه الأنظمة جيدة جدًا، ومع بدء الخصوم الآخرين في استخدامها، سيكون هناك ضغط لتقصير تقييم نتائج الذكاء الاصطناعي من أجل العمل بشكل أسرع وأكثر كفاءة”. “نحن بحاجة إلى معرفة كيفية حل هذه المشكلة قبل أن نصل إلى هناك. بغض النظر عن رأيك في الأسلحة الفتاكة، فإن جعلها أكثر أمانًا وفعالية هو في مصلحة العالم.”
وقالت هايدي خلاف، كبيرة العلماء في معهد الذكاء الاصطناعي الآن، وهي منظمة غير ربحية تدافع عن استخدام التكنولوجيا، إنها تشعر بالقلق من أن الاعتماد على الذكاء الاصطناعي لمعالجة معلومات الحياة أو الموت بسرعة يمكن أن يكون وسيلة للجيش لتجنب المساءلة عن الأخطاء.
وقال خلاف: “من المثير للقلق للغاية أن يتم بيع “السرعة” لنا كاستراتيجية جيدة هنا، في حين أنها غطاء للاستهداف العشوائي عندما تفكر في الأخطاء”.
