الرئيسية

Anyone can code with AI. But it might come with a hidden cost.


يمكن لأي شخص الكتابة باستخدام الذكاء الاصطناعي. ولكن قد يأتي مع تكلفة خفية.

في العام الماضي، تطورت أنظمة الذكاء الاصطناعي كثيرًا بحيث يمكن للمستخدمين الذين ليس لديهم معرفة كبيرة بالبرمجة أو علوم الكمبيوتر الآن التنقل في مواقع الويب أو التطبيقات فقط عن طريق إعطاء التعليمات إلى برنامج الدردشة الآلي.

ومع ذلك، مع ظهور أنظمة الذكاء الاصطناعي القوية بما يكفي لتحويل التعليمات إلى مجلدات من التعليمات البرمجية، يتساءل الخبراء والمبرمجون عما إذا كانت التكنولوجيا ستسبب انفجارًا في البرامج المتضخمة والمربكة أو ستعزز بدلاً من ذلك مستوى أعلى من الأمان عن طريق التحقق من التعليمات البرمجية بشكل أسرع وأكثر كفاءة من البشر.

وقال ديفيد لوكر، رئيس قسم الذكاء الاصطناعي في شركة CodeRabbit، وهي شركة تساعد مطوري البرامج والمنظمات على تحليل وتحسين أكوادهم البرمجية: “إن آلات الذكاء الاصطناعي لا ترتكب أخطاء إملائية بالطريقة التي نرتكب بها الأخطاء المطبعية”. “لكنهم يرتكبون الكثير من الأخطاء في كل مكان، حيث يقرؤون ويتعامل معهم كبير موظفي الكود الموجود بينهم.”

لقد كانت البرمجة منذ فترة طويلة فنًا وعلمًا أيضًا. من أيام تركيب أنظمة الكمبيوتر والبطاقات المثقبة في منتصف القرن العشرين، أصبح توفير تعليم الكمبيوتر تحديًا ومصدرًا لعلماء الكمبيوتر.

ولكن في شركات الذكاء الاصطناعي الرائدة اليوم، تتم معظم الكتابة بواسطة أنظمة الذكاء الاصطناعي نفسها، حيث يتصرف المبرمجون البشريون مثل المدربين أو المهندسين المعماريين الرئيسيين بدلاً من الآلات الشعبية. المخرج الإنساني لكلود كود، بوريس تشيرني، قال على X أن الذكاء الاصطناعي كتب 100% من الكود الخاص به منذ ديسمبر على الأقل. قال تشيرني: “لم أعد أقوم بإجراء تغييرات صغيرة يدويًا”.

إن ظهور البرمجة بمساعدة الذكاء الاصطناعي – والتي تسمى أيضًا البرمجة الحيوية – يسمح للأشخاص الذين لم يسبق لهم البرمجة من قبل بإطلاق العنان لإبداعهم وتمكين المبرمجين ذوي الخبرة من زيادة كمية التعليمات البرمجية التي يكتبونها بشكل كبير.

وقال لوكر لشبكة إن بي سي نيوز: “كانت الدفعة الأولى لكل هذا هي البرمجة”. “كان الأمر يتعلق بحجم ما كان يحدث من حيث الشكل والقدرة على القيام بالأشياء بسرعة وتسليم الأشياء.”

حتى أنظمة ترميز الذكاء الاصطناعي أصبحت أكثر قدرة حتى من نوفمبرغالبًا ما يفشلون في فهم قاعدة التعليمات البرمجية بأكملها مثلما يفعل الأشخاص ذوو الخبرة. على سبيل المثال، قال لوكر: “يمكن لآلات الذكاء الاصطناعي تكرار العمليات في بيئات مختلفة لأنها لم تكتشف هذه العملية من قبل، لذا فهي تقوم بذلك مرارًا وتكرارًا”.

“أنت الآن تواجه مشكلة كبيرة. عندما تغير وظيفتك في مكان واحد ولا تتغير إلى مكان آخر، تكون لديك أفكار عمل مختلفة في أماكن مختلفة لا تتبعها. أنت فقط تتساءل عما يحدث.”

إنها أنظمة ترميز الذكاء الاصطناعي زيادة كمية التعليمات البرمجية التي تم إنشاؤهايتساءل الخبراء عما إذا كانت التعليمات البرمجية ستكون التهديد التالي للذكاء الاصطناعي. مفهوم تمت ملاحظة انحدار الذكاء الاصطناعي لأول مرة في عام 2024 عندما تصبح أنظمة الذكاء الاصطناعي قادرة وواسعة الانتشار بما يكفي لبدء إنتاج مخرجات ذكاء اصطناعي منخفضة الجودة وغير ضرورية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي ل التأثيرات غير المفيدة التي يتحكم فيها الذكاء الاصطناعي.

فمن ناحية، تولد آلات الذكاء الاصطناعي الكثير من التعليمات البرمجية القابلة للاستخدام ولكنها غير كاملة. ومن ناحية أخرى، فإن هذه الأنظمة نفسها تتحسن في مراجعة التعليمات البرمجية الخاصة بها وإيجاد الثغرات الأمنية.

على سبيل المثال, في أواخر يناير، أدى صعود كود الذكاء الاصطناعي إلى الإجبار الرئيس التنفيذي دانييل ستينبرج لمنع الجهود الشعبية للعثور على الأخطاء في البرامج الشعبية. ستينبرج كتب على مدونته “إن العطاء المستمر للأشياء له تأثير كبير على عواطفنا، وفي بعض الأحيان يستغرق تدميرها وقتاً طويلاً.

لكن يوم الخميس قال ستينبرج لقد تغير الفيضان من تسونامي يعتمد على الذكاء الاصطناعي إلى تسونامي أمني معروف. [are] جيد جدًا.”

تدرك الشركات بسرعة أن زيادة الإنتاجية لا تؤدي إلى تحسين الجودة فحسب، بل إن العكس هو ما يحدث غالبًا، وفقًا لجاك كيبل، الرئيس التنفيذي والمؤسس المشارك لشركة أبحاث الأمن السيبراني Corridor.

“ومع ذلك [a large language model] قال كيبل: “من الأفضل كتابة التعليمات البرمجية سطرًا تلو الآخر، إذا كان الأمر يكتب 20 مرة أكثر مما يكتبه الإنسان، فهناك عملية إضافية للمراجعة”. “ليس من الصعب كتابة أطنان وأطنان من التعليمات البرمجية، ولكن الشركات، إذا كانت تقوم بعملها بشكل صحيح، لا تزال بحاجة إلى مراجعة هذا الرمز من منظور سهولة الاستخدام والجودة والأمن.”

وأضاف أن مبرمجي الذكاء الاصطناعي يحدثون “انفجارًا قويًا”. “وإذا كان هناك شيء واحد نعرفه عن البرمجيات، فهو أنه مع المزيد منها يأتي المزيد من التعقيد والضعف.”

في شهر يناير، قال المطور ورجل الأعمال مات شليخت إنه استخدم آلات الذكاء الاصطناعي لإنشاء موقع تواصل اجتماعي لأنظمة الذكاء الاصطناعي يسمى Moltbookالذي ينتمي الآن إلى ميتا. ومع ذلك، سرعان ما اكتشف الباحثون الأمنيون ثغرة أمنية في تطبيق Moltbook كشفت بيانات المستخدم، والتي نسبوها إلى جذور الذكاء الاصطناعي الخاصة به.

وقال جاميسون أورايلي، أحد هؤلاء المتسللين والباحثين، لشبكة إن بي سي نيوز إن ظهور مساعدي أكواد الذكاء الاصطناعي يهدد بخلق تهديد أمني من خلال منح المبرمجين فرصة التعرض للجمهور دون تكنولوجيا الأمان.

وقال أورايلي: “يعتقد الناس في كثير من الأحيان أن وكلاء تشفير الذكاء الاصطناعي يبنون الأشياء وفقًا لأفضل معايير الأمان”. “لم يكن الأمر كذلك. يعمل الذكاء الاصطناعي على تحطيم عقود من الأمان الذي تم تصميمه لحماية المستخدمين، ويتم بيعه لتمكين أنظمة الذكاء الاصطناعي هذه من التطور.”

وافق دانييل كانج، أستاذ علوم الكمبيوتر في جامعة إلينوي أوربانا شامبين والخبير في القضايا الأمنية التي أنشأها وكلاء تشفير الذكاء الاصطناعي، على أن ممارسات تشفير الذكاء الاصطناعي يمكن أن تجعل المستخدمين الجدد أكثر أمانًا.

وقال كانغ: “حتى لو كنت تعتقد أن المخاطر الأمنية لكل جزء من التعليمات البرمجية ثابتة، فإن عدد التهديدات سيزداد لأن الأشخاص الذين لا يعرفون أول شيء عن أمن الكمبيوتر، والمبرمجين ذوي الخبرة الذين لا يرون الأمن كأولوية، سوف يقومون بإنشاء الكثير من التعليمات البرمجية”.

ولمحاولة قياس النمو، قدم باحثون بجورجيا تك أ رادار فيبي الأمني. منذ أغسطس، حددت المجموعة 70 مشكلة برمجية يمكن أن تسببها نصوص الذكاء الاصطناعي، مع زيادة كبيرة في الشهرين الماضيين. تم إطلاق شركة ناشئة للذكاء الاصطناعي تسمى Arcade مؤخرًا أداة للمطورين مراقبة الإهمال في الكود الخاص بهم.

كود رابيت كذلك أصدرت تقريرا في ديسمبر وجدت أن التعليمات البرمجية التي ينشئها الذكاء الاصطناعي تحتوي على أخطاء أكثر بنسبة 70% من التعليمات البرمجية المكتوبة بواسطة الإنسان وأن الأخطاء التي ينشئها الذكاء الاصطناعي أكثر خطورة من الأخطاء التي ينشئها الإنسان، على الرغم من أن لوكر، من CodeRabbit، حذر من أن النتائج قد تكون قديمة بعض الشيء بسبب التطور السريع لأنظمة الذكاء الاصطناعي اليوم.

في حين أن معظم البرامج مملوكة و”مغلقة” أو مخفية عن الجمهور، فإن العديد من المشاريع الأخرى، مثل متصفح Mozilla’s Firefox أو نظام التشغيل Linux، هي مفتوحة المصدر وتعتمد على المجتمع لتقديم تعليقات حول البرنامج.

من خلال تقليل العوائق التي تحول دون تقديم الأفكار إلى برمجيات مفتوحة المصدر، أغرق التوثيق بمساعدة الذكاء الاصطناعي العديد من العمليات التي يقودها الإنسان والتي تتطلب تعليمات برمجية منخفضة في الأشهر القليلة الماضية.

قال لوكر: “معظم مناولي الطرود الذين نتحدث إليهم مملوءون بالنفايات”. “إنها ليست مكتوبة بشكل جيد. وليست مدروسة جيدًا، وليست متماسكة وفيها بعض الهراء.”

إن انتشار التعليمات البرمجية التي تعتمد على الذكاء الاصطناعي يجبر أحد مستودعات التعليمات البرمجية الأكثر شعبية، GitHub، على التحول إلى. خذ بعين الاعتبار نهجه في تطوير البرمجيات مفتوحة المصدر. ويوم الجمعة، قال رئيس جيثب أن المنصة بأكملها التوظيف في عام 2026 قريب جدًا من الزيادة 14 مرة فوق مستويات 2025.

ومع ذلك، كما أشار ستينبيرج، يمكن أيضًا مكافحة حريق الذكاء الاصطناعي الجديد بنجاح من خلال أنظمة الذكاء الاصطناعي الأخرى، حيث أصبحت برامج الذكاء الاصطناعي لتحليل وتنظيف التعليمات البرمجية أكثر شيوعًا.

وفي إشارة إلى أنظمة CodeRabbit التي تعمل بالذكاء الاصطناعي، قال لوكر: “يعد نظام مراجعة التعليمات البرمجية الآلي أمرًا بالغ الأهمية للعديد من الشركات التي تتبع هذه الأنظمة.

يراهن تشيرني، من شركة Anthropic، على أن التحسينات السريعة في التعلم الآلي للذكاء الاصطناعي ستساعد في حل الصراعات التي تلوح في الأفق فيما يتعلق بجودة التعليمات البرمجية وموثوقيتها. “آمل ألا يكون هناك slopcopolyps لأنه سيتم تحسين النموذج من خلال كتابة ملاحظات أقل وإصلاح المشكلات الموجودة بالفعل.” كتب تشيرني في أواخر يناير.

وبغض النظر عن حجم صناعة أدوات فحص التعليمات البرمجية، يصر كانغ، من جامعة إلينوي، على أن المبرمجين – الجدد والقدامى – يمكنهم حماية أنظمتهم من التعرض للاختراق من خلال اتباع مبادئ الأمن السيبراني القديمة. وقال: “إذا استخدمت أفضل الأساليب وبذلت قصارى جهدك، فيمكنك أن تكون أفضل من أنظمة الذكاء الاصطناعي”.

ومع ذلك، فإن كانغ متفائل بأن المستخدمين سيتبنون بسرعة الإجراءات الأمنية المقدمة بناءً على الذكاء الاصطناعي. ونتيجة لذلك، فهو غير مهتم بالعواقب طويلة المدى لخطأ التعليمات البرمجية: “سوف تنفجر. وسوف تكون قبيحة للغاية.”

“السؤال هو كيف ومتى، وهذا ما يقلقني.”