You are currently viewing تطوير طريقة لتقليل الهلوسة في نماذج اللغة الاصطناعية الكبيرة

تطوير طريقة لتقليل الهلوسة في نماذج اللغة الاصطناعية الكبيرة

أصبحت نماذج اللغات الكبيرة (LLMs)، وهي معماريات تعتمد على الشبكات العصبية الاصطناعية التي يمكنها التعامل مع النصوص وتوليدها ومعالجتها بمجموعة متنوعة من اللغات البشرية، منتشرة بشكل متزايد في الآونة الأخيرة، وتُستخدم هذه النماذج الآن في مجموعة واسعة من البيئات لتوفير الخدمة بسرعة إجابات لطرح الأسئلة وإنتاج محتوى محدد وتفسير النصوص المعقدة.

وبحسب ما أورده موقع “techxplore”، فقد طور الباحثون في DeepMind مؤخرًا إجراءً جديدًا يمكن أن يساعد في تحديد الحالات التي يجب أن يمتنع فيها LLM عن الرد على سؤال، على سبيل المثال من خلال الرد بـ “لا أعرف”، لأنهم من المحتمل أن يهلوسوا بإجابات غير منطقية، أو غير صحيحة، لأن الهلوسة في النماذج الاصطناعية تجعلهم يقدمون إجابات تبدو حقيقية، ولكنها مختلقة إذا لم يجد النموذج معلومات كافية.



يتضمن النهج المقترح للفريق، والموصوف في مقالة نُشرت مسبقًا على arXiv، استخدام طريقة تقييم لاستجاباتهم المحتملة.



تشير نتائج تجارب فريق البحث هذا إلى أن إجراء المعايرة المتوافقة وتسجيل التشابه يخفف من هلوسة LLM، مما يسمح للنموذج بالامتناع عن الإجابة على سؤال إذا كان من المحتمل أن تكون الإجابة غير حساسة أو غير موثوقة من الإجراءات السابقة.



وستساهم هذه الجهود في تطوير هذه النماذج وتسهيل استخدامها على نطاق واسع بين المهنيين في جميع أنحاء العالم.

اترك تعليقاً