You are currently viewing تنشئ OpenAI لجنة للسلامة والأمن أثناء اختبار نموذج جديد للذكاء الاصطناعي

تنشئ OpenAI لجنة للسلامة والأمن أثناء اختبار نموذج جديد للذكاء الاصطناعي

أعلنت شركة OpenAI عن إنشاء لجنة جديدة للإشراف على إجراءات السلامة والأمن المتخذة في مشاريع وأنشطة الشركة. تتكون لجنة السلامة والأمن من أعضاء يتم اختيارهم من قبل مجلس الإدارة، وهي مكلفة بتقييم العمليات ومواصلة تطويرها ومواصلة تطويرها. ضمانات من شركة الذكاء الاصطناعي ومقرها سان فرانسيسكو.

تم تشكيل اللجنة الجديدة عندما بدأت OpenAI في اختبار نموذج الجيل التالي من الذكاء الاصطناعي (AI)، وشاركت الشركة مؤخرًا نموذج المواصفات، وهي وثيقة تسلط الضوء على نهج الشركة في بناء نموذج ذكاء اصطناعي مسؤول وأخلاقي.

لجنة السلامة والأمن في OpenAI

وفي منشور بالمدونة، سلطت الشركة الضوء على تفاصيل اللجنة المشكلة حديثًا، قائلة: “اليوم، شكل مجلس إدارة OpenAI لجنة للسلامة والأمن بقيادة المديرين بريت تايلور (الرئيس)، وآدم دانجيلو، ونيكول سليغمان، وسام ألتمان”. (المدير التنفيذي). اللجنة مسؤولة عن تقديم توصيات إلى مجلس الإدارة بأكمله بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI.

بالإضافة إلى المديرين، سيكون ألكسندر مادري، رئيس قسم الاستعداد في OpenAI، ورئيس أنظمة السلامة جون شولمان، ورئيس الأمن مات نايت، وكبير العلماء جاكوب باكزوكي، جزءًا من اللجنة أيضًا.

ستكون المهمة الأولى للجنة هي مراجعة ومواصلة تطوير عمليات الذكاء الاصطناعي والضمانات خلال التسعين يومًا القادمة. ستقوم اللجنة بعد ذلك بمشاركة نتائجها وتوصياتها مع مجلس إدارة OpenAI بالكامل وستقوم بمشاركة التوصيات المعتمدة علنًا.

ترتبط هذه التطورات الجديدة في OpenAI بمبادرة الشركة الجديدة، وقد بدأت الشركة في اختبار الجيل التالي من نموذج الذكاء الاصطناعي الخاص بها، واصفة إياه بنموذج الذكاء الاصطناعي “الرائد”، والتأكيد على أن نموذج اللغة الكبير هذا الذي لم يتم اختباره في المستقبل سيجلب الأعمال اقترب أكثر من الذكاء الاصطناعي العام (AGI).

AGI هو نوع من الذكاء الاصطناعي الذي يمكنه فهم المعرفة وتعلمها وتطبيقها على مجموعة واسعة من مهام العالم الحقيقي التي تشبه الذكاء البشري. تؤكد بعض تعريفات الذكاء العام الاصطناعي أيضًا على أنه قادر على الأداء المستقل ويمكنه تطوير مستوى معين من الوعي الذاتي.

اترك تعليقاً