كشف الرئيس التنفيذي لشركة OpenAI، سام ألتمان، النقاب عن اتفاقية منقحة مع البنتاغون ليلة الاثنين تحكم استخدام وزارة الدفاع لخدمات الذكاء الاصطناعي، والتي يقول إنها توفر ضمانات قوية بأن الجيش لن يستخدم أنظمة OpenAI في مراقبتهم.
وتنص الاتفاقية الجديدة على أنه “لن يتم استخدام أنظمة الذكاء الاصطناعي عمداً لمراقبة المواطنين والبلدان الأمريكية”. وفقًا لما نشر على موقع OpenAI. كان OpenAI واجهت بعض الصعوبات كقصة حول التعاون الأول بين إحدى شركات الذكاء الاصطناعي الكبرى والبنتاغون ظهر يوم الجمعة. وقال العديد من المراقبين إن اللغة الأصلية التي تمت مشاركتها على موقع OpenAI أتاحت المزيد من الفرص للحكومة لاستهداف الأمريكيين.
وتأتي هذه الخطوة بعد أسابيع من الجدل الحاد بين شركة الذكاء الاصطناعي المنافسة Anthropic والبنتاغون حول كيفية استخدام الجيش لأنظمة الذكاء الاصطناعي المتقدمة. على الرغم من أن وزارة الدفاع طلبت من شركة أنثروبيك الموافقة على استخدام أنظمتها “لأي غرض مشروع”، إلا أن شركة أنثروبيك منعت استخدام أنظمتها لمراقبة المنازل أو السيطرة على الأسلحة الفتاكة. حتى الأسبوع الماضيكانت Anthropic هي شركة الذكاء الاصطناعي الكبرى الوحيدة التي كانت خدماتها استخدام أسرع على الشبكات المحددة.
يختلف الباحثون أنه بدون حماية، منظمة العفو الدولية يمكن أن تسمح للبالغين ل إدارة الناس وبسرعة ودقة غير مسبوقتين، يتم الجمع بين جبال من البيانات الرقمية متابعة حركة الناس والجودة.
وقال ألتمان: “من المهم حماية حقوق الشعب الأمريكي”. كتب في منشور على X ليلة الاثنين للإعلان عن لغة العقد الجديدة التي قال إنه تم وضع حدود أفضل للماشية. “وأكدت الوزارة أيضًا أن خدماتنا لا تستخدم من قبل وكالات الاستخبارات التابعة لوزارة الحرب (على سبيل المثال، وكالة الأمن القومي).”
كاترينا موليجان، رئيسة شراكات الأمن القومي في OpenAI تمت إضافة مشاركة أخرى على X صباح الثلاثاء أن “المكونات الدفاعية غير متضمنة في العقد”، مما يعني أنه سيكون جاهزًا للعمل في المستقبل ووكالة الأمن القومي “إذا تم اتخاذ الإجراءات الأمنية المناسبة”.
ولم تستجب OpenAI لطلب التعليق.
ظل العديد من المراقبين غير متأثرين يوم الثلاثاء، واشتكوا من أن وثائق عقد OpenAI مع البنتاغون التي نشرتها الشركة ظلت غامضة وقدمت نماذج للمراجعة من قبل وكالات استخبارات مختلفة داخل وزارة الدفاع. ولم يتم نشر النص الكامل للاتفاقية.
وقال براد كارسون، عضو الكونجرس السابق وكبير مستشاري الجيش الذي يرأس الآن مجموعة “أمريكا من أجل الابتكار المسؤول” ومقرها واشنطن العاصمة: “قالت شركة OpenAI إن وزارة الحرب وافقت على عدم استخدام ChatGPT في الوكالات التي تسيطر على الشعب الأمريكي”. “سيكونون سعداء بإظهار لغة الاتفاق عندما يكون ذلك في صالحهم، لكنهم يرفضون إعطاء الناس هذه الاتفاقيات”.
وقال كارسون لشبكة إن بي سي نيوز: “لقد قلت بشدة أن هذا غير موجود، وهم يحاولون تزييفه فقط”. كارسون أطلقت مؤخرًا لجنة PAC فائقة تركز على الذكاء الاصطناعي التي تلقت 20 مليون دولار من شركة Anthropic المنافسة لـ OpenAI.
العديد من الخبراء القانونيين اعترف بذلك التعرض الكبير الاتفاقية بأكملها وأي بيانات أخرى ضرورية لتقييم مطالبات الشركة.
وقال بريان ماكجريل، كبير المستشارين في مركز سلامة الذكاء الاصطناعي، وهو مجموعة بحثية: “ما زلنا بحاجة إلى رؤية الإجماع الكامل قبل أن نتمكن من قول أي شيء بثقة”. “إنها خطوة جديرة بالاهتمام، وأريد أن أمنح الفضل لـ OpenAI.”
تم الإعلان مؤخرًا عن شراكة OpenAI مع البنتاغون من قبل وزير الدفاع بيت هيجسيث قال إنه سيكتب وتشكل شركة Anthropic المنافسة للذكاء الاصطناعي، والتي تجري محادثات منذ فترة طويلة مع البنتاغون، تهديدًا للأمن القومي. وقالت أنثروبيك إن التصميم، الذي من شأنه أن يجبر البنتاغون ومقاوليه على التوقف عن استخدام خدمات أنثروبيك لأسباب أمنية، لم يتم استخدامه علنًا أبدًا لشركة أمريكية.
وفي اجتماع في سوساليتو بولاية كاليفورنيا، يوم الاثنين، قال الجنرال بول ناكاسوني، الرئيس السابق لوكالة الأمن القومي والقيادة السيبرانية الأمريكية، المتقاعد، إن البنتاغون يجب أن يعمل على دمج تكنولوجيا جميع الشركات الأمريكية الذكاء الاصطناعي في الأمن القومي.
وقال ناكاسوني، وهو عضو مجلس إدارة OpenAI، في مؤتمر برعاية معهد أسبن: “نحن بحاجة إلى الأنثروبولوجيا، ونحتاج إلى OpenAI، ونحتاج إلى انضمام جميع شركات اللغات الكبرى لدينا إلى حكومتنا”. “أعتقد أن جزء البيع ليس جيدًا. كان من الصعب علي الاستماع إلى مناقشات نهاية الأسبوع والمناقشات. كمواطن أمريكي، شخص خدم في الحكومة، أعتقد أن هذا ليس صحيحًا، أليس كذلك؟ تقديم المساعدة ليس خطرًا”.

قالت أنثروبيك سابقًا إن وزارة الدفاع لا يمكنها استخدام أنظمة الذكاء الاصطناعي الخاصة بها للمراقبة الجماعية أو استخدام الأسلحة المستقلة، على الرغم من أنها مددت تفويضها للجيش للقيام بذلك. استخدام أنظمتها للدفاع السيبراني والصاروخي الأهداف في ديسمبر. بعد اجتماع بين الرئيس التنفيذي لشركة Anthropic داريو أمودي وهيجسيث يوم الثلاثاء الماضي، وزارة الدفاع أعطى إنذارا لكي تتوصل Anthropic إلى اتفاق بحلول الساعة 5 مساءً. بالتوقيت الشرقي يوم الجمعة.
ومع ذلك، قالت متحدثة باسم الأنثروبيك يوم الخميس لشبكة إن بي سي نيوز إن لغة وزارة الدفاع الأخيرة المتمثلة في “لغة الإجماع كانت مرتبطة باللوائح التي من شأنها أن تسمح بتجاهل الدفاع حسب الرغبة”.
ولكن مع توتر علاقة Anthropic مع وزارة الدفاع، صعدت OpenAI، وأعلنت يوم الجمعة عن شراكة تزيد من تعميق القضية التي استحوذت بالفعل على اهتمام الكثيرين في صناعة التكنولوجيا والدفاع. وفي رسالته ليلة الاثنين، قال ألتمان إن الاندفاع للتوصل إلى اتفاق جعل المفاوضات تبدو “انتهازية ومتهورة” على الرغم من أن OpenAI “تريد إبطاء الأمور وتجنب أسوأ النتائج الممكنة”.
خلال عطلة نهاية الأسبوع وفي وقت سابق من هذا الأسبوع، قام جيش من الخبراء القانونيين بتحليل أحدث لغة لـ OpenAI، في محاولة لتحديد ما إذا كان اقتراح الشركة يضيف أي أمان يتجاوز معيار “وزارة الدفاع”.
وقال تشارلي بولوك، الباحث البارز في معهد القانون والذكاء الاصطناعي: “أنا في حيرة من أمري بشأن سبب قبول البنتاغون لهذه اللغة عندما حاولوا إقناع الأنثروبيين بطلب شيء كهذا”. كتب على X بعد تغيير اللغة.
يرى العديد من الخبراء القانونيين أن كل كلمة في العقد ثقيلة للغاية، لأنهم يقولون إن الحكومة يجب أن تأخذ في الاعتبار شروط العقد بشكل أكثر جدية.
وقال ماكجريل: “الاتجاه الذي رأيناه يحدث مراراً وتكراراً في مناقشات المراقبة هذه هو أن مجتمع الاستخبارات والأمن القومي يمكن أن يكون لديه تفسيرات مختلفة للغاية، أكثر بكثير من أي شخص عاقل”. “ولأن الكثير منها خاص، فمن غير المرجح أن يعود الناس إليها.”
وأضاف ماكجريل: “هل يمكن أن تكون هناك آلية جديدة يمكن استخدامها هنا لا نتوقعها؟ إنه أمر ممكن بالتأكيد”.
كما ألقى الخبراء نظرة فاحصة ما إذا كان العقد دائم في الرأي القانوني اليوم، لأنهم يخشون أن تتمكن الحكومة من تغيير حدود “أي نشاط مشروع” من خلال إصدار قوانين أو فتاوى قانونية جديدة.
وقد ركز الجدل الأخير حول استخدام الجيش للذكاء الاصطناعي للمراقبة المحلية على قدرة الحكومة على استخدام البيانات المتاحة تجاريا في عملياتها، حيث قد يكون من الصعب الحصول على موافقة قانونية على بعض أساليب مراقبة الأمريكيين.
على مر السنين، يمكن للشركات التي تقدم الإعلانات أو تعرضها على الهواتف أو أجهزة الكمبيوتر المحمولة إنشاء معلومات حول المستخدمين، بما في ذلك المحتوى، و بيع تلك المعلومات إلى مختلف الوكالات الحكومية للتعرف على رحلات الناس وسلوكهم.
موليجان، رئيس قسم الأمن في OpenAI، قال ليلة الاثنين بعد X أن العقد “تؤكد اللغة الجديدة أن المراقبة المحلية غير مسموح بها بموجب الاتفاقية، بما في ذلك عمليات الاستحواذ التجارية.”
السيناتور رون وايدن، ديمقراطي من ولاية أوريغون، الذي قال في السنوات الأخيرة حذر مرارا وتكرارا أن الحكومة الفيدرالية تشتري المعلومات المتاحة تجاريًا من الأمريكيين للمراقبة، منتقدة البنتاغون لعدم اعترافه بمخاوف Anthropic المتعلقة بالخصوصية.
وقال وايدن في بيان أرسل عبر البريد الإلكتروني: “إن وزارة الدفاع تضغط على شركة أنثروبيك للمطالبة بوضع ضمانات في الطريقة التي تستخدم بها وزارة الدفاع منتجاتها”. “وهذا سبب كبير للخوف، لأن الذكاء الاصطناعي يمكن أن يحول مجموعة متنوعة من البيانات الشخصية أو التجارية إلى ملف شخصي للأمريكيين. فبيانات الموقع، وسجلات البحث على الإنترنت، والصحة العقلية، والبيانات السياسية والدينية كلها متاحة في السوق ويمكن أن تستهدف الأمريكيين لاتخاذ إجراءات مشروعة.”
“إن إنشاء تاريخ للذكاء الاصطناعي للشعب الأمريكي بناءً على هذا السجل يمثل تصعيدًا خطيرًا للتدقيق العام الذي لا ينبغي السماح به، بغض النظر عما تقوله القواعد القديمة للكتب.”
أمودي، الرئيس التنفيذي لشركة الأنثروبيك وقال مرارا وتكرارا أن الوعود ثابتة من وزارة الدفاع عدم استخدام الذكاء الاصطناعي لمراقبة الشعب الأمريكي أمر ضروري لأن القانون لم يدعم القدرة القوية للذكاء الاصطناعي على تحليل المعلومات أو تحليلها. كما أظهرت دراسة حديثة أنه يمكن التعرف على البشر من خلال أنظمة الذكاء الاصطناعي الحالية، حتى لو كان ما تحتها غير معروف.
أحاط معارضو الشراكة الأولى لـ OpenAI مع البنتاغون بمقر OpenAI في سان فرانسيسكو هذا الأسبوع برسائل الطباشير. تشجيع الموظفين على الشك فيما تفعله الشركةمتى إن إزالة برنامج ChatGPT الخاص بـ OpenAI منتشر على نطاق واسع متابعة قضايا العقود.
وقال مايكل هورويتز، مساعد وزير الدفاع السابق والأستاذ الحالي للعلوم السياسية في جامعة بنسلفانيا، لشبكة إن بي سي نيوز إن الصراع بين البنتاغون والأنثروبيك تجاوز الشروط البسيطة للاتفاقية.
وقال هورويتز: “يُظهر هذا النزاع انهيار الثقة بين أنثروبيك والبنتاغون، حيث لا تعتقد أنثروبيك أن البنتاغون سيستخدم التكنولوجيا الخاصة بهم بحكمة، ولا يعتقد البنتاغون أن أنثروبيك ستسمح باستخدام تقنيتها فيما يعتبره البنتاغون حالات استخدام مهمة للأمن القومي”. “جزء منه هو الاختلافات الثقافية، وجزء منه السياسة، وجزء منه هو الشخصية.”
