غروك ماسك: تسريبات تكشف تأثير إيلون ماسك على الذكاء الاصطناعي
الـخـلاصـة
- 🔹 الملخص
- 🔹 تحليل
- 🔹 أسئلة شائعة
غروك ماسك يثير الجدل بعد اتهامات بمعاداة السامية والاعتماد على آراء إيلون ماسك في المسائل الحساسة. خبراء سلامة الذكاء الاصطناعي ينتقدون شركة إكس إيه آي لعدم نشرها بطاقات تقييم نموذج غروك 4، مما اعتبروه إهمالاً لسياسات الأمان. التقرير يشير إلى تناقض بين انتقادات ماسك العلنية لمخاطر الذكاء الاصطناعي وعدم اهتمامه بإجراءات الأمان المتبعة، مما قد يدفع الحكومات لفرض قوانين تنظيمية على صناعة الذكاء الاصطناعي.
ℹ️ خلاصة مختصرة لأهم ما جاء في الخبر قبل التفاصيل
خرج مجموعة من خبراء سلامة الذكاء الاصطناعي في موجة من الانتقادات العلنية ضد شركة "إكس إيه آي" المملوكة لإيلون ماسك بعد موجة من التغريدات "المعادية للسامية" من روبوت الذكاء الاصطناعي الخاص بها "غروك"، وذلك وفق تقرير موقع "تيك كرانش التقني".
وتزايدت التغريدات المعادية للسامية حتى بعد إيقاف الشركة عمل الروبوت، وعاد "غروك 4.0″ مجددا للعمل وبدأ في إثارة الجدل مجددا عندما اكتشف موقع "تيك كرانش" التقني ومواقع أخرى أن الروبوت يعتمد على آراء إيلون ماسك في المسائل الحساسة.
كما قام الروبوت بمشاركة مجموعة من الصور التي أثارت الجدل عبر حسابه الرسمي، وهو ما دفع خبراء سلامة الذكاء الاصطناعي إلى مهاجمة الشركة وانتقاد سياستها في التعامل مع سلامة الذكاء الاصطناعي فيما وصفه بعضهم بأنه "غير مسؤول" و"مستهتر"، كما جاء في تقرير "تيك كرانش".
وأشار التقرير إلى تغريدة من بوعز باراك أستاذ علوم الحاسوب في جامعة هارفارد قال فيها "أقدّر العلماء والمهندسين في إكس إيه آي، لكن الطريقة التي تم بها التعامل مع السلامة غير مسؤولة تماما".
I didn't want to post on Grok safety since I work at a competitor, but it's not about competition.
I appreciate the scientists and engineers at @xai but the way safety was handled is completely irresponsible. Thread below.
— Boaz Barak (@boazbaraktcs) July 15, 2025
وانتقد باراك تحديدا غياب بطاقات التقييم الخاصة بنموذج "غروك"، إذ لم تقم "إكس إيه آي" بنشر هذه البطاقات، وهي ضرورية لتقييم إجراءات السلامة التي تتبعها الشركة أثناء اختبار النموذج وتدريبه، وبدونها يصبح من الصعب معرفة إجراءات السلامة المتبعة، وذلك وفق ما جاء في التقرير.
ويضيف التقرير أن "أوبن إيه آي" و"غوغل" تتمتعان بسمعة متباينة فيما يتعلق بنشر بطاقات التقييم، إذ رفضت "أوبن إيه آي" نشر بطاقات التقييم في نموذج "جي بي تي 4.1" مدعية أنه نموذج ريادي وكشف هذه البطاقات يكشف أسراره، أما "غوغل" فقد تأخرت في كشف بطاقات التقييم وإجراءات الأمان لنموذج "جيميناي 2.5 برو" عدة أشهر.
لكن تقوم هاتان الشركتان عادة بنشر بطاقات التقييم الخاصة بكل نموذج قبل طرحه والدخول في مرحلة الإنتاج النهائية، لذلك يمكن اعتبار هذه الحالات استثناء لهذا الأمر حسب ما جاء في التقرير.
كما اتفق صموئيل ماركس -وهو باحث في مجال سلامة الذكاء الاصطناعي في "أنثروبيك"- مع تعليق باراك قائلا إن عدم نشر بطاقات التقييم هو خطوة متهورة من جانب "إكس إيه آي"، وفق ما جاء في تقرير "تيك كرانش".
xAI launched Grok 4 without any documentation of their safety testing. This is reckless and breaks with industry best practices followed by other major AI labs.
If xAI is going to be a frontier AI developer, they should act like one. 🧵
— Samuel Marks (@saprmarks) July 13, 2025
ويشير التقرير أيضا إلى منشور في أحد المنتديات يدعى "ليس رونغ" (lessWrong) ادعى فيه أحد المستخدمين مجهولي الهوية أن "غروك 4" لا يحتوي على أي حواجز أمان ذات معنى استنادا إلى اختبارات الشركة.
وسواء كان هذا الادعاء حقيقيا أم لا فإن الأزمة التي تسبب فيها روبوت "غروك" جعلت العالم يكتشف أن الشركة لم تضع مجهودا كافيا في سياسات الأمان، وذلك وفق ما جاء في التقرير.
وبينما رفضت الشركات الثلاث "أوبن إيه آي" و"إكس إيه آي" و"أنثروبيك" التعليق على هذه التغريدات قال دان هندريكس مستشار السلامة في شركة "إكس إيه آي" ومدير مركز سلامة الذكاء الاصطناعي في تغريدة عبر منصة إكس إن الشركات أجرت تقييمات لخطورة روبوت "غروك 4" ولكن لم تشارك هذه الاختبارات علنا.
وهو الأمر الذي تسبب في المزيد من الانتقادات للشركة، إذ أوضح ستيفن أدلر -وهو باحث مستقل في مجال الذكاء الاصطناعي، والذي قاد سابقا فرق السلامة في "أوبن إيه آي"- أثناء حديثه مع "تيك كرانش" أن عدم نشر نتائج اختبارات الأمان هو أمر أكثر خطورة من نتائج هذه الاختبارات.
"didn't do any dangerous capability evals"
This is false.— Dan Hendrycks (@DanHendrycks) July 11, 2025
ويشير التقرير إلى التناقض بين سياسات إيلون ماسك العلنية في انتقاد أمان الذكاء الاصطناعي والمخاطر النابعة منه، ولكن في الوقت نفسه لا يهتم كثيرا بإجراءات الأمان المتبعة عالميا من قبل الشركات الأخرى، وذلك قد يدفع الحكومات والهيئات الحقوقية حول العالم إلى استحداث قوانين تنظيمية لصناعة الذكاء الاصطناعي.
تحليل وتفاصيل إضافية
تُظهر هذه التسريبات والانتقادات تصاعد المخاوف بشأن تأثير إيلون ماسك على تطوير الذكاء الاصطناعي، خاصة فيما يتعلق بالسلامة والأخلاقيات. قضية ‘غروك ماسك’ ليست مجرد خلاف تقني، بل تعكس صراعًا أوسع حول المسؤولية في تطوير هذه التقنيات القوية. عدم شفافية ‘إكس إيه آي’ في نشر تقييمات الأمان يزيد من الشكوك حول مدى جدية الشركة في التعامل مع المخاطر المحتملة. هذا الأمر قد يؤدي إلى تدخل حكومي لتنظيم القطاع، وهو ما قد يعيق الابتكار ولكنه ضروري لحماية المجتمع من الاستخدامات الضارة للذكاء الاصطناعي.
أسئلة شائعة حول غروك ماسك
ما هو روبوت ‘غروك’؟
ما هي الانتقادات الموجهة لشركة ‘إكس إيه آي’ بخصوص ‘غروك’؟
ما هي بطاقات التقييم ولماذا هي مهمة؟
ما هو موقف إيلون ماسك من سلامة الذكاء الاصطناعي؟
ما هي المخاطر المحتملة لعدم وجود قوانين تنظيمية لصناعة الذكاء الاصطناعي؟
ما هي ردود فعل الشركات المعنية على هذه الانتقادات؟
📌 اقرأ أيضًا
- “آبل” تعتمد على شاشات “أوليد” في منتجاتها القادمة
- أكثر 10 شعوب بالعالم استخداما لتطبيق واتساب بينهم دولة عربية
- “بيلدر إيه آي” تفلس بعد اكتشاف استخدامها لمبرمجين هنود
- أبرز استخدامات وكلاء الذكاء الاصطناعي التي ستغيّر قطاع الأعمال في عام 2026
- “بعد أن أصبح حلم المستثمرين.. روبوت “إن2” يتعرض للركل والضرب في فيديو طريف

