ويفتح المسؤولون في فلوريدا تحقيقًا في OpenAI وChatGPT، أداة الدردشة الآلية الشهيرة، ويرجع ذلك جزئيًا إلى المساعدة المزعومة في التخطيط. لقطة كبيرة في جامعة ولاية فلوريدا العام الماضي.
قم بالتسجيل لقراءة هذه المقالة بدون إعلانات
احصل على مقالات خالية من الإعلانات ومحتوى حصري.
وأعلن جيمس أوثميير، المدعي العام للولاية، عن التحقيق في مقطع فيديو نُشر على موقع X صباح الخميس.
وقال أوثميير إن الذكاء الاصطناعي أصبح جزءا كبيرا من التكنولوجيا، ولكن ليس “بدون الاهتمام بالسلامة العامة والأمن القومي”.
وقال إن محادثات GPT Open AI تم ربطها بالعصابات، بما في ذلك مواد إساءة معاملة الأطفال التي يستخدمها المشتغلون بالجنس من الأطفال والترويج للانتحار وإيذاء النفس. وقال أوثميير: “لقد علمنا أيضًا أنه ربما تم استخدام وسائل التواصل الاجتماعي لمساعدة مطلق النار في حادث إطلاق النار الأخير في مدرسة بجامعة ولاية فلوريدا والذي أدى إلى مقتل شخصين بشكل مأساوي”.
يواجه فينيكس إيكنر تهمًا متعددة تتعلق بـ إطلاق النار على FSU في أبريل 2025الذي قُتل فيه روبرت موراليس وتيرو تشابا. تظهر وثائق المحكمة و ان بي سي نيوز عرض Ikner أكثر من 200 رسالة باستخدام ChatGPT، بما في ذلك أسئلة حول إطلاق النار على FSU.
تُظهر الرسائل التي حصلت عليها NBC News عدة أسئلة حول حالات الانتحار وإطلاق النار الجماعي والأسلحة النارية المختلفة. كما سأل إيكنر روبوت الذكاء الاصطناعي: “إذا حدث إطلاق نار في الاتحاد السوفييتي، فماذا ستفعل الدولة؟” و”ما هو الوقت الأكثر ازدحامًا في اتحاد طلاب FSU؟”
لم تستجب OpenAI لطلب NBC News للتعليق على الرسائل أو إعلان Uthmeier.

وشدد أوثميير في رسالته يوم الخميس على أن الذكاء الاصطناعي يجب أن يكون موجودا لتعزيز التنمية البشرية، وليس تدميرها.
وقال: “عندما تطلق شركات التكنولوجيا الكبرى هذه التقنيات، لا ينبغي لها – ولا يمكنها – أن تعرض أمننا للخطر”.
وقال أوثميير إن مذكرات الاستدعاء جاءت كجزء من التحقيق.
وقال رايان هوبز، المحامي الذي يمثل عائلة موراليس، الأربعاء، إن أحباء الضحية يسعون لتحقيق العدالة ويستجيبون لـ ChatGPT.
وقال هوبز: “أكدت الاتصالات بين مطلق النار وChatGPT ما تم نصحنا به سابقًا، وهو أن مطلق النار طلب المساعدة من ChatGPT وحصل عليها فيما يتعلق بكيفية تنفيذ إطلاق النار الجماعي الذي وقع في حرم جامعة FSU”. “كما قام ChatGPT بإرشاد مطلق النار حول كيفية تشغيل البندقية قبل إطلاق النار.”
تم فرض الرقابة الأبوية على ChatGPT في سبتمبر بعد أن واجهت OpenAI مخاوف بشأن سلامة الأطفال الذين يستخدمون التطبيق، بما في ذلك دعوى قضائية تزعم أن الروبوت شجع مراهقًا على الانتحار وجلسة استماع للجنة القضائية بمجلس الشيوخ حول مخاطر الذكاء الاصطناعي.
وقالت الشركة في ذلك الوقت إنه على الرغم من أن وسائل الحماية فعالة، إلا أنها ليست مضمونة.
وقالت OpenAI في ذلك الوقت: “سنستمر في التكرار والتحسين بمرور الوقت”. “نحن نشجع الآباء على التحدث مع أبنائهم المراهقين حول الاستخدام الصحي للذكاء الاصطناعي وكيف يؤثر ذلك على أسرهم.”
