You are currently viewing يعد عدم المساواة والمعلومات المضللة من أبرز مخاطر الذكاء الاصطناعي والطلب على الحماية

يعد عدم المساواة والمعلومات المضللة من أبرز مخاطر الذكاء الاصطناعي والطلب على الحماية

حذر العديد من موظفي OpenAI السابقين في رسالة مفتوحة من أن شركات الذكاء الاصطناعي المتقدمة مثل OpenAI تعمل على القضاء على الانتقادات والتدقيق في مهدها، خاصة مع تزايد المخاوف بشأن أمن الذكاء الاصطناعي في الأشهر الأخيرة.

تقول الرسالة المفتوحة، التي وقعها 13 موظفًا سابقًا في OpenAI (ستة منهم اختاروا عدم الكشف عن هويتهم) وأيدها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي كان يعمل سابقًا في Google، إنه في غياب الرقابة الحكومية الفعالة، فإن شركات الذكاء الاصطناعي… الإهداء إلى: مبادئ النقد المفتوح. تتضمن هذه المبادئ تجنب إنشاء وتنفيذ شروط عدم الانتقاص، وتسهيل عملية مجهولة “يمكن التحقق منها” للإبلاغ عن المخاوف، والسماح للموظفين الحاليين والسابقين بإثارة المخاوف مع الجمهور، وعدم الانتقام من المبلغين عن المخالفات.

تنص الرسالة على أنه بينما يؤمنون بقدرة الذكاء الاصطناعي على إفادة المجتمع، فإنهم يرون أيضًا مخاطر مثل عدم المساواة الراسخة، والتلاعب والتضليل، وإمكانية انقراض الإنسان.

في حين أن هناك مخاوف كبيرة بشأن آلة يمكن أن تسيطر على الكوكب، فإن الذكاء الاصطناعي التوليدي اليوم يواجه المزيد من مشاكل العالم الواقعي، مثل انتهاكات حقوق الطبع والنشر، والمشاركة غير المقصودة للصور الإشكالية وغير القانونية، والمخاوف من أنها قد تقلد أحجام وأشكال الناس. وتضليل الجمهور .

يزعم الموقعون على الرسالة أن الحماية الحالية للمبلغين عن المخالفات “غير كافية” لأنها تركز على الأنشطة غير القانونية بدلاً من المخاوف التي يقولون إنها غير منظمة إلى حد كبير وأن حجب الإجازات محمي قانونًا. حماية المبلغين عن المخالفات، والتي تعني أنه لا يمكن لأصحاب العمل فصل المبلغين عن المخالفات أو تقليل ساعات عملهم أو خفض رتبتهم، بالنظر إلى تاريخ مثل هذه الحالات في جميع أنحاء الصناعة: “نحن لسنا أول من واجه هذه القضايا أو تحدث عنها”.

وقد تعرضت شركات الذكاء الاصطناعي، وخاصة OpenAI، لانتقادات بسبب عدم كفاية الرقابة الأمنية، ودافعت جوجل عن استخدام ملخصات الذكاء الاصطناعي في عمليات البحث حتى بعد أن ادعى الناس أنها تنتج نتائج خطيرة ولكنها مضحكة.

كما تعرضت مايكروسوفت لانتقادات شديدة بسبب برنامج Copilot Designer، الذي أنتج صورًا جنسية لنساء في لوحات عنيفة.

في الآونة الأخيرة، استقال العديد من الباحثين في OpenAI بعد أن قامت الشركة بحل فريق “Superalignment” الخاص بها، والذي ركز على معالجة مخاطر الذكاء الاصطناعي طويلة المدى، وكان رحيل المؤسس المشارك إيليا سوتسكيفر، الذي كان يعمل في مجال الأمن في الشركة، يؤيد ذلك.

“لقد أفسحت الثقافة والعمليات الأمنية المجال أمام منتجات لامعة” في OpenAI، كما يقول جان ليك، أحد الباحثين السابقين، ولدى OpenAI فريق أمني جديد، بقيادة الرئيس التنفيذي سام ألتمان.

اترك تعليقاً