You are currently viewing يطالب العاملون في مجال الذكاء الاصطناعي بحماية أقوى للمبلغين عن المخالفات

يطالب العاملون في مجال الذكاء الاصطناعي بحماية أقوى للمبلغين عن المخالفات

وقعت مجموعة من الموظفين الحاليين والسابقين من شركات الذكاء الاصطناعي الرائدة مثل OpenAI وGoogle DeepMind وAnthropic رسالة مفتوحة تطالب بمزيد من الشفافية والحماية من الانتقام لأولئك الذين يتحدثون علنًا عن المخاوف المحتملة للذكاء الاصطناعي.



وبحسب موقع “engadget”، جاء في الرسالة: “إلى أن تكون هناك رقابة حكومية فعالة على هذه الشركات، سيكون الموظفون الحاليون والسابقون من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”. اتفاقيات السرية الواسعة تمنعنا من إثارة مخاوفنا إلا للشركات نفسها، التي قد لا تعالج هذه القضايا.



تأتي الرسالة بعد أسبوعين فقط من توصل تحقيق Vox إلى أن OpenAI حاولت إسكات الموظفين الذين غادروا مؤخرًا من خلال إجبارهم على الاختيار بين التوقيع على اتفاقية صارمة أو المخاطرة بخسارة أسهمهم المكتسبة في الشركة.



قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إنه كان محرجًا حقًا من هذا البند وادعى أنه تمت إزالته من وثائق الخروج الأخيرة، على الرغم من أنه من غير الواضح ما إذا كان لا يزال ساريًا بالنسبة لبعض الموظفين.



وكان من بين الموقعين الثلاثة عشر موظفون سابقون في OpenAI، جاكوب هينتون، وويليام سوندرز، ودانيال كوكوتاجلو.



وقال كوكوتايلو إنه استقال من الشركة بعد أن فقد الثقة في أنها ستبني بشكل مسؤول الذكاء العام الاصطناعي، وهو مصطلح يشير إلى أنظمة الذكاء الاصطناعي التي تتمتع بنفس ذكاء البشر أو أكثر ذكاءً.



تثير الرسالة، التي أيدها خبراء الذكاء الاصطناعي البارزون جيفري هينتون ويوشوا بنجيو وستيوارت راسل، مخاوف جدية بشأن الافتقار إلى الرقابة الحكومية الفعالة على الذكاء الاصطناعي والحوافز المالية التي تدفع عمالقة التكنولوجيا إلى الاستثمار في التكنولوجيا.



ويحذر الباحثون من أن السعي دون رادع لأنظمة الذكاء الاصطناعي القوية يمكن أن يؤدي إلى انتشار المعلومات المضللة، وتفاقم عدم المساواة، وحتى فقدان السيطرة البشرية على الأنظمة المستقلة، مما يؤدي إلى انقراض الإنسان.



كتب كوكوتايلو على موقع X: “هناك الكثير مما لا نفهمه حول كيفية عمل هذه الأنظمة وما إذا كانت ستظل متوافقة مع المصالح البشرية عندما تصبح أكثر ذكاءً وربما تتجاوز مستويات الذكاء البشري في جميع المجالات”.



بينما قال متحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في تقديم أنظمة الذكاء الاصطناعي الأكثر قدرة وأمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر. ونحن نتفق على أن النقاش المتأني أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل العمل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.



ويدعو الموقعون شركات الذكاء الاصطناعي إلى الالتزام بأربعة مبادئ رئيسية:



• لا تنتقم من الموظفين الذين يثيرون مخاوف تتعلق بالسلامة.



• دعم نظام مجهول للإبلاغ عن المخالفات لتنبيه الجمهور والجهات التنظيمية بالمخاطر.



• تمكين ثقافة النقد الصريح.



• تجنب اتفاقيات عدم الإفصاح التي تمنع الموظفين من التحدث علنًا.



تأتي الرسالة وسط انتقادات متزايدة لممارسات OpenAI، بما في ذلك حل فريقها الأمني ​​”superalignment” ورحيل شخصيات رئيسية مثل المؤسس المشارك إيليا سوتسكيفر وجان ليك، اللذين انتقدا إعطاء الشركة الأولوية “للمنتجات اللامعة” التي أعطت الأولوية لـ “المنتجات اللامعة”. أمان.

اترك تعليقاً