أعلنت OpenAI عن تشكيل فريق خاص لإدارة مخاطر الذكاء الاصطناعي الفائق. وهو نوع من الذكاء الاصطناعي الذي يتفوق على الإنسان في الذكاء والمهارات العديدة بدلاً من مجال واحد مثل النماذج السابقة. وتعتقد OpenAI أن هذا النوع من الذكاء الاصطناعي يمكن أن يظهر قبل نهاية العقد الحالي. ومع ذلك، يعتبر OpenAI أن الذكاء الاصطناعي الفائق يمكن أن يكون خطيرًا جدًا ويؤدي إلى تفقد الإنسان للسيطرة عليه أو حتى انقراض الإنسان.
سيتم قيادة الفريق الجديد من قبل المدير العلمي لـ OpenAI، إيليا سوتسكيفر، وجان لايك، رئيس قسم البحث في المختبر. بالإضافة إلى ذلك، ستخصص OpenAI 20% من الطاقة الحاسوبية التي تم تأمينها حاليًا للمبادرة، بهدف تطوير باحث توافقي آلي. ويفترض أن يساعد هذا النظام OpenAI على ضمان أن يكون الذكاء الاصطناعي الفائق آمنًا للاستخدام ومتوافقًا مع قيم الإنسان. وأضاف OpenAI أنه سيشارك خارطة طريق في المستقبل.
تأتي إعلانات الأربعاء وسط تفكير حكومات العالم حول كيفية تنظيم صناعة الذكاء الاصطناعي الناشئة. في الولايات المتحدة، التقى سام ألتمان، الرئيس التنفيذي لـ OpenAI، مع مئات من المشرعين الفدراليين في الأشهر الأخيرة. وقال ألتمان علنًا إن تنظيم الذكاء الاصطناعي "ضروري"، وأن OpenAI "متحمسة" للعمل مع صانعي السياسات. ومع ذلك، ينبغي أن نكون متشككين من مثل هذه الإعلانات، وجهود فرق مثل فريق Superalignment التابع لشركة OpenAI. عن طريق تركيز الاهتمام العام على المخاطر الافتراضية التي قد لا تتحقق أبدًا، ينقل مثل هذه المنظمات مسؤولية التنظيم إلى المستقبل بدلاً من الواقع الحالي. وهناك مسائل أكثر تفاعلية تتعلق بالتفاعل بين الذكاء الاصطناعي والعمل والمعلومات الخاطئة وحقوق التأليف والنشر التي يحتاج صانعو السياسات لمعالجتها اليوم، وليس غدًا.
المصادر المستخدمة في المقال هي:
- مقالة على موقع Engadget بعنوان "OpenAI is forming a team to rein in superintelligent AI" بتاريخ 5 يوليو 2023:
https://www.engadget.com/openai-is-forming-a-team-to-rein-in-superintelligent-ai-214333388.html
- موقع OpenAI:
https://openai.com/blog/chatgpt