You are currently viewing تقوم ميتا بإيقاف شبكة من الحسابات الإسرائيلية المزيفة على فيسبوك لإثارة التعاطف معهم

تقوم ميتا بإيقاف شبكة من الحسابات الإسرائيلية المزيفة على فيسبوك لإثارة التعاطف معهم


وكشفت شركة ميتا أنها عثرت على محتوى “من المحتمل أن يكون من إنتاج الذكاء الاصطناعي” مرتبطًا بشركة تكنولوجيا إسرائيلية استخدمت تعليقات من إنتاج الذكاء الاصطناعي للإشادة بإسرائيل ومهاجمة المظاهرات الطلابية في الجامعات الأمريكية.

وقالت شركة التواصل الاجتماعي في تقرير أمني ربع سنوي، إن الحسابات تمثل طلابًا يهودًا وأمريكيين من أصل أفريقي وغيرهم من المواطنين المعنيين، وجماهير في الولايات المتحدة وكندا، ونسبت الحملة إلى شركة التسويق السياسي STOIC ومقرها تل أبيب.

وأوضح ميتا أن الشبكة التي ضمت 500 حساب على فيسبوك و32 حسابا على إنستغرام، ارتبطت بشركة إسرائيلية للتسويق الرقمي واستخبارات الأعمال، وتركت تعليقات على صفحات مؤسسات إعلامية وعلى صفحات شخصيات سياسية وعامة من بينها الولايات المتحدة. المشرعين.

وكانت هذه الحسابات تتظاهر بأنها مواطنون أمريكيون وكنديون، بالإضافة إلى طلاب يهود وأمريكيين من أصل أفريقي، لكنها في الواقع حسابات مزيفة أو مخترقة، لكن ميتا لم تربط شبكة الحسابات هذه بالحكومة الإسرائيلية بشكل مباشر.

وبينما عثرت Meta على صور الملفات الشخصية الأساسية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في عمليات التأثير منذ عام 2019، فإن التقرير هو الأول الذي يكشف عن استخدام تقنية الذكاء الاصطناعي التوليدية القائمة على النصوص منذ ظهورها في أواخر عام 2022.

يشعر الباحثون بالقلق من أن الذكاء الاصطناعي التوليدي، الذي يمكنه إنتاج نصوص وصور ومقاطع صوتية تشبه الإنسان بسرعة وبتكلفة زهيدة، يمكن أن يؤدي إلى حملات تضليل أكثر فعالية والتأثير على الانتخابات.

وفي مكالمة صحفية، قال المسؤولون التنفيذيون في Meta Security إنهم أوقفوا الحملة الإسرائيلية مبكرًا ولا يعتقدون أن تقنيات الذكاء الاصطناعي الجديدة تعيق قدرتهم على تعطيل شبكات التأثير، وهي جهود منسقة لدفع الرسائل.

وقال المسؤولون التنفيذيون إنهم لم يروا قط مثل هذه الشبكات تنشر صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي لسياسيين كانت واقعية بما يكفي للخلط بينها وبين الصور الأصلية.

الاقتباس الرئيسي

“هناك الكثير من الأمثلة في هذه الشبكات حول كيفية استخدامهم لأدوات الذكاء الاصطناعي التي يحتمل أن تكون مولدة لإنشاء محتوى، وربما يمنحهم ذلك القدرة على القيام بذلك بشكل أسرع أو القيام بذلك بحجم أعلى، ولكن لم يكن الأمر كذلك بالفعل قال مايك ديفليانسكي، رئيس تحقيقات Meta Threat، “إنها تؤثر على قدرتنا على اكتشافها”.

كافحت شركة Meta وغيرها من عمالقة التكنولوجيا في كيفية معالجة سوء الاستخدام المحتمل لتقنيات الذكاء الاصطناعي الجديدة، خاصة في الانتخابات، وقد وجد الباحثون أمثلة لمولدات الصور من شركات مثل OpenAI وMicrosoft التي تنتج صورًا تحتوي على معلومات مضللة متعلقة بالتصويت. هذه الشركات لديها سياسات ضد هذا المحتوى.

ركزت الشركات على أنظمة وضع العلامات الرقمية لوضع علامات على المحتوى الناتج عن الذكاء الاصطناعي أثناء إنشائه، على الرغم من أن الأدوات لا تعمل على النص وقد شكك الباحثون في فعاليتها.

اترك تعليقاً