أمن البيانات الرقمية يواجه تحدياً جديداً ومقلقاً وفقاً لما كشفته دراسة بحثية حديثة، حيث تبين أن محادثات المستخدمين مع منصات الذكاء الاصطناعي الشهيرة مثل “شات جي بي تي”، و”كلود”، و”غروك” قد لا تتمتع بالخصوصية المتوقعة. الدراسة التي نُشرت في مايو 2026، سلطت الضوء على تسرب بيانات المحادثات والبيانات التعريفية إلى خدمات تتبع وإعلانات تابعة لجهات خارجية، مثل “ميتا بيكسل” و”غوغل أناليتكس”.
هذا الكشف يثير تساؤلات جوهرية حول مدى أمان المعلومات الحساسة التي يشاركها الأفراد والشركات مع هذه الأنظمة، خاصة وأن تسرب روابط المحادثات وعناوينها يمكن أن يكشف عن اهتمامات المستخدم أو مشكلاته الشخصية والمهنية بدقة عالية.
مخاطر تسرب الروابط والمعرفات الإعلانية
تعد قضية روابط المحادثات من أخطر الثغرات التي تؤثر على أمن البيانات الرقمية في بيئة الذكاء الاصطناعي، حيث رصد الباحثون إرسال عناوين الصفحات والروابط الكاملة إلى أدوات تتبع خارجية:
- شات جي بي تي: رصدت الدراسة إرسال روابط المحادثات وعناوين الصفحات لخدمات غوغل التحليلية للفئة المجانية، حتى في حال رفض ملفات تعريف الارتباط.
- منصة غروك: كشف البحث عن تسرب بيانات المحادثات إلى منصات “تيك توك” و”ميتا”، مما يسهل ربط المحادثة بالملف الإعلاني للمستخدم.
- منصة كلود: تضمنت التسربات إرسال عناوين البريد الإلكتروني وعناوين المحادثات إلى أدوات خارجية مثل “إنتركوم”.
- بيربلكسيتي: رغم إيقاف بعض أدوات التتبع، استمر إرسال بيانات وصفية وعناوين بريد إلكتروني خام إلى منصات تحليلية أخرى.
قد يهمك: مستقبل الذكاء الاصطناعي في العمل.. تعرف على خارطة الطريق

ربط المحادثة بالهوية الشخصية للمستخدم
يتجاوز التهديد الذي يمس أمن البيانات الرقمية مجرد نقل الروابط، ليصل إلى إمكانية “إزالة الهوية المجهولة” عن المستخدمين. فالباحثون يحذرون من أن خدمات التتبع تتلقى معرفات رقمية وملفات تعريف ارتباط تسمح بربط النشاط داخل منصة الذكاء الاصطناعي بملفات تعريف سلوكية وإعلانية أوسع على الإنترنت. هذا الربط يعني تقنياً أن الشركات الخارجية يمكنها معرفة طبيعة الموضوعات التي يناقشها المستخدم، سواء كانت صحية أو نفسية أو متعلقة بأسرار تجارية، وربطها بهويته الحقيقية أو بريده الإلكتروني، مما يحول المساعد الذكي “الموثوق” إلى أداة لجمع البيانات السلوكية العميقة.

ضبابية سياسات الخصوصية وتحديات الشفافية
انتقدت الدراسة ما وصفته بنقص الشفافية في إدارة أمن البيانات الرقمية داخل هذه المنصات، حيث توحي إعدادات الخصوصية بمستوى حماية قد لا يكون مطبقاً بشكل كامل في الكواليس. ورصد الباحثون حالات يحدث فيها التتبع عبر قنوات خادمية (Server-side) يصعب على المستخدم العادي رصدها أو إيقافها من خلال المتصفح. هذا الوضع يعكس انتقال نموذج الويب التقليدي القائم على الإعلانات والتتبع إلى قطاع الذكاء الاصطناعي، مما يخلق خطراً هيكلياً يهدد الملكية الفكرية للشركات والخصوصية المطلقة للأفراد الذين اعتادوا على مشاركة أدق تفاصيل حياتهم مع هذه النماذج التوليدية.
اقرأ كذلك: تحديات موثوقية الذكاء الاصطناعي في الشركات 2026.. هل يتجاوز ‘Images 2.0’ حاجز الثقة؟

الحقيقة أننا نعيش في عصر أصبح فيه “المساعد الرقمي” مستودعاً لأسرارنا، والواقع يؤكد أن أمن البيانات الرقمية في هذا المجال لا يزال في مرحلة التشكيل ويحتاج إلى تشريعات أكثر صرامة. إن هذه الدراسة لا تعني بالضرورة أن الشركات تقرأ محادثاتنا بشكل مباشر، لكنها تثبت أن البنية التقنية الحالية تسمح بالوصول والربط السلوكي، وهو ما يفرض على المستخدمين ضرورة توخي الحذر فيما يشاركونه. من المهم أن ندرك أن اقتصاد البيانات لا يتوقف عند عتبة الذكاء الاصطناعي، بل يتوسع داخلها، مما يتطلب توازناً دقيقاً بين الاستفادة من هذه التقنيات المذهلة وبين الحفاظ على حقنا الأصيل في خصوصية المحادثة الرقمية.






