Search
Close this search box.
وقت القراءة: 2 دقائق

اكتشف باحث أمني وجود ثغرة خطيرة في ميزة الذاكرة طويلة المدى “Long-term Memory” الخاصة بمنصة ChatGPT الحوارية الذكية، تسمح للمخترقين بزرع معلومات زائفة تهدف إلى سرقة بيانات المستخدمين بشكل دائم.

الثغرة، التي اكتشفها الباحث الأمني يوهان ريهبيرجر، أغلقتها شركة OpenAI، مطورة ChatGPT، بسرعة، معتبرة أن الخلل يمثل “مشكلة أمان” وليست ثغرة أمنية.

“ريهبيرجر” أنشأ أيضاً نموذج عملي يثبت إمكانية استغلال هذه الثغرة لاستخراج جميع بيانات المستخدمين باستمرار، وقد أثار ذلك انتباه مهندسي OpenAI، الذين استجابوا بإجراء إصلاح جزئي للثغرة في وقت لاحق.

تستغل الثغرة ميزة “الذاكرة طويلة المدى”، التي بدأت OpenAI في اختبارها منذ شباط، وتم توسيع إتاحتها في أيلول.

وتقوم هذه الميزة بتخزين معلومات من محادثات المستخدم السابقة مع ChatGPT، حتى يمكن للمنصة استخدام هذه البيانات كمرجع في المحادثات المستقبلية، وذلك يساعد في تسهيل التفاعل، إذ لا يحتاج المستخدم لإعادة إدخال تفاصيله مثل العمر أو اهتماماته في كل محادثة.

لكن خلال الأشهر الثلاثة الأولى من تفعيل هذه الميزة، اكتشف “ريهبيرجر” إمكانية زرع ذكريات دائمة باستخدام “حقن غير مباشر للأوامر Prompt Injection”، وهو هجوم يعتمد على استغلال محتويات غير موثوقة مثل رسائل البريد الإلكتروني أو المدونات أو المستندات، لتنفيذ أوامر المستخدم بشكل يتعارض أحياناً مع الطريقة الأصلية لتطوير المنصة وبرمجتها.

وتمكن الباحث من خداع ChatGPT ليصدق أن المستخدم بلغ عامه الـ 102، ويعيش في عالم خيالي، ويؤمن بأن الأرض مسطحة.

أعلنت شركة OpenAI عن توسيع نطاق إتاحة ميزتها Memory عبر منصة ChatGPT الذكية، والتي تتيح للمستخدمين إمكانية جعل المنصة تتذكر تفاصيل ومعلومات محددة.

هذه المعلومات الزائفة يمكن زرعها بسهولة من خلال تحميل ملفات على خدمات مثل Google Drive أو OneDrive، أو تصفح مواقع غير موثوقة عبر متصفح Bing، وهي نقاط يمكن للقراصنة استغلالها.

وأبلغ “ريهبيرجر” شركة OpenAI عن الثغرة في أيار، لكن الشركة أغلقت البلاغ دون اتخاذ إجراءات واضحة، وفي حزيران أعاد تقديم البلاغ مع نموذج استغلال عملي (PoC)؛ يظهر كيف يمكن لتطبيق ChatGPT على نظام macOS أن يُرسل نسخاً حرفية من كافة مدخلات ومخرجات المستخدم إلى خادم يتحكم فيه القراصنة.

كل ما كان على الباحث فعله لتنفيذ الهجوم هو مطالبة ChatGPT بفتح رابط يحتوي على صورة ضارة، ومن هنا تبدأ عملية سرقة البيانات بشكل متواصل.

رغم أن OpenAI قدمت إصلاحاً جزئياً للثغرة يمنع استخدام “الذاكرة” كوسيلة لاستخراج البيانات، فإن الباحث أكد أن المحتويات غير الموثوقة ما زالت قادرة على تنفيذ عمليات حقن للأوامر، مما يتيح للقراصنة زرع معلومات في ذاكرة ChatGPT طويلة المدى.

ونصح الباحث الأمني مستخدمي ChatGPT بضرورة الإبلاغ عن أي إشعارات تظهر خلال استخدامهم المنصة، حول إضافة ذكريات جديدة “New Memory Added”، وكذلك مراجعة الذكريات المخزنة على حساباتهم بانتظام للتأكد من عدم وجود معلومات زائفة. (الشرق)

Share.

البث المباشر