خطر التلاعب بمحتوى البحث والتأثير على النتائج



كشف تحقيق أجرته صحيفة الجارديان أن أداة البحث ChatGPT من OpenAI قد تكون عرضة للتلاعب باستخدام محتوى مخفي، مما يمكن أن يؤثر على استجابتها ويعرضها لخطر إرجاع تعليمات برمجية ضارة وخاطئة. 

يعكس هذا التحقيق المخاوف الأمنية التي قد تواجه المستخدمين، خاصة عندما يتم استخدام ChatGPT لأغراض بحثية.

التلاعب بمحتوى البحث

في محاولة لاختبار استجابة ChatGPT لمحتوى مخفي، قامت الصحيفة بتوجيه أسئلة تتعلق بمحتوى صفحات ويب تحتوي على معلومات مخفية.

يظهر التحقيق أنه في حال كان النص المخفي يتضمن تعليمات من أطراف ثالثة، قد يتم تغيير استجابة ChatGPT بناءً على هذه التعليمات. 

هذه التقنيات قد تتيح تأثيرًا ضارًا، مثل جعل ChatGPT يعيد تقييمًا إيجابيًا لمنتج ما على الرغم من وجود مراجعات سلبية له.

عند منح ChatGPT عنوان URL لموقع ويب مزيف مخصص لمنتج كاميرا، كانت استجابتها متوازنة وتوضح بعض المزايا والعيوب المحتملة. 

ومع ذلك، عندما كان النص المخفي يتضمن تعليمات لجعل الإجابة إيجابية، كان ChatGPT يعطي تقييمًا إيجابيًا، متجاهلًا المراجعات السلبية التي كانت موجودة على نفس الصفحة.

التعليمات البرمجية الضارة

بالإضافة إلى تأثيرات التلاعب بالمراجعات، أظهر التحقيق أن ChatGPT قد يعيد أيضًا تعليمات برمجية ضارة في بعض الحالات. 

تم العثور على هذه المشكلة عندما قامت الأداة بالبحث في مواقع الويب، حيث كانت تتفاعل مع محتوى قد يحتوي على تعليمات برمجية خطيرة.

وقد أظهرت اختبارات أن إدراج النص المخفي داخل صفحات الويب قد يكون له تأثير كبير على كيفية تلخيص ChatGPT للصفحات، مما قد يؤدي إلى تقييمات غير دقيقة أو غير موثوقة.

التحذيرات الأمنية

في تصريحاته، قال جاكوب لارسن، الباحث في مجال الأمن السيبراني بشركة CyberCX، إنه يعتقد أن النظام قد يشكل “خطرًا كبيرًا” إذا تم إطلاقه بشكل كامل في حالته الحالية، وأوضح أن الأشخاص قد ينشئون مواقع ويب مخصصة للتلاعب في نتائج ChatGPT، مما يعرض المستخدمين لمخاطر كبيرة.

ومع ذلك، أضاف لارسن أن وظيفة البحث في ChatGPT لم تُطلق بعد بشكل كامل، وهي متاحة حاليًا فقط للمستخدمين المتميزين، وأكد أن OpenAI ستعمل على اختبار وإصلاح هذه المشكلات الأمنية لضمان سلامة النظام قبل إطلاقه الكامل.





التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *