باري ديلر يدافع عن ألتمان لكنه يحذر من خطر AGI
يدافع قطب الإعلام باري ديلر عن سام ألتمان ويعرب في الوقت نفسه عن قلقه من AGI. وبحسب قوله، فإن الثقة الشخصية في قائد OpenAI لا تعني الكثير عندما يتعلق الأمر بالق

دافع باري ديلر عن سام ألتمان، لكن مع تحفظ يبدو كتحذير: الثقة في البشر غير مناسبة عندما تكون الذكاء الاصطناعي العام على الأفق.
الدفاع والقلق في نفس الوقت
لم يتحدث الإعلامي الكبير ومؤسس شركة IAC بطريقة نقدية حول الرئيس التنفيذي لشركة OpenAI. اعترف ديلر بكفاءة ألتمان. لكنه أضاف بعد ذلك تحفظاً قاسياً: مع اقتراب الذكاء الاصطناعي العام، فإن كفاءة القيادة ليست الحل. تصبح الثقة في البشر غير مناسبة في مواجهة تكنولوجيا يصعب أو يستحيل السيطرة عليها بشكل كامل.
لماذا الثقة غير مناسبة
الذكاء الاصطناعي العام هو نظام ذكي افتراضي يتفوق على الذكاء البشري في جميع المجالات. إذا حقاً حدث الذكاء الاصطناعي العام، فإن دوافع وكفاءة وصدق الفرد ستثبت أنها حماية غير كافية. يمكن لنظام يتفوق على الذكاء البشري أن يخرج عن السيطرة بغض النظر عن نوايا مبتكريه.
- حتى القائد الواعي لا يستطيع أن يضمن سلامة الذكاء الاصطناعي العام
- تكمن المشكلة في طبيعة الذكاء الاصطناعي العام ذاته، وليس في جودة الإدارة
- هناك حاجة إلى قيود تقنية، مدمجة في النظام ذاته
«الثقة غير مناسبة عندما يتعلق الأمر بالذكاء الاصطناعي العام» — جوهر
موقف ديلر، على الرغم من أنه لا ينكر احترافية ألتمان.
الضوابط كالطريق الوحيد
يؤكد ديلر على ضرورة «الضوابط» — آليات السيطرة والتقييد التي يجب أن تكون مدمجة في الذكاء الاصطناعي العام على مستوى الهندسة المعمارية والخوارزميات. هذا ليس مسألة إدارة وليس مسألة ثقافة الشركة. هذا مسألة سلامة تقنية. يجب أن تمنع هذه الآليات النظام من الانحراف عن أهدافه المقصودة، بغض النظر عمن يسيطر عليه. تعمل الضوابط تلقائياً، على مستوى الكود والخوارزميات، وليس على مستوى القرار البشري.
ما يعنيه هذا
تعكس تصريحات ديلر إجماعاً متنامياً في مجتمع الذكاء الاصطناعي: لا ينبغي الاستعداد للذكاء الاصطناعي العام من خلال اختيار أشخاص جيدين للمناصب القيادية، بل من خلال بناء تكنولوجيا آمنة بشكل افتراضي. الحماية من الذكاء الاصطناعي العام ليست مسألة ثقة في سام ألتمان أو أي قائد آخر. إنها مسألة هندسة.