هل حقًا يراقبنا الذكاء الاصطناعي؟
د. حمزة العكاليك
29-10-2025 09:44 AM
في إحدى الليالي، جلس حمزه أمام حاسوبه يتحدث إلى أحد تطبيقات الذكاء الاصطناعي، بينما خطر في باله سؤال أربكه: هل يمكن لهذا النظام أن يشغّل الكاميرا ويراقبني دون علمي؟
هذا السؤال الذي يمر بخاطر الملايين اليوم، يكشف عن هاجس جديد يرافق ثورة الذكاء الاصطناعي التوليدي، تلك التقنية التي اقتحمت حياتنا اليومية بسرعة مذهلة. لم يعد استخدام أدوات مثل ChatGPT أو Google Gemini أو Claude أمرًا استثنائيًا، بل تحوّل إلى عادة يومية في العمل، والتعليم، والتواصل والإبداع. غير أن هذا الانتشار الواسع جلب معه موجة من المخاوف، تتعلق بالخصوصية وحماية البيانات الشخصية، وسط إشاعات تتحدث عن قدرات خفية لهذه النماذج على التجسس أو تشغيل الأجهزة دون إذن المستخدم.
لكن الحقيقة التقنية بعيدة كل البعد عن هذه المخاوف. فأنظمة الذكاء الاصطناعي لا تمتلك القدرة على تشغيل الكاميرا أو الميكروفون من تلقاء نفسها. فهي تعمل ضمن بيئات محمية تشرف عليها أنظمة التشغيل الكبرى مثل Android وiOS وWindows، والتي تعتمد مبدأ الصندوق الرملي الذي يفصل كل تطبيق عن الآخر ويحظر عليه الوصول إلى أي جهاز أو بيانات حساسة إلا بإذن واضح من المستخدم. وحتى عندما يطلب التطبيق تشغيل الكاميرا أو الميكروفون، فإن النظام هو من يتحكم في العملية، ويُظهر إشعارًا صريحًا يسمح للمستخدم بالرفض أو القبول. لذلك، من الناحية التقنية والقانونية، من المستحيل أن يشغّل الذكاء الاصطناعي الكاميرا دون إذنك.
الا ان الخطر الحقيقي لا يأتي من الكاميرا، بل من ما نشاركه نحن بأنفسنا. فكثير من المستخدمين يدرجون في محادثاتهم مع الذكاء الاصطناعي معلومات حساسة — تقارير عمل، أو بيانات شخصية، أو حتى أسرار مهنية — من دون وعي بعواقب ذلك. فبينما تسمح الشركات الكبرى مثل OpenAI وGoogle وAnthropic بإيقاف ميزة مشاركة المحادثات لأغراض التدريب، فإن القليل فقط من المستخدمين يعرفون بوجود هذا الخيار أصلًا. وهنا تكمن فجوة الوعي، لا في التقنية نفسها، بل في طريقة تعامل الناس معها.
لقد أثبتت بعض الحوادث في السنوات الأخيرة أن الخطر يكمن في الاستخدام البشري غير الواعي. ففي عام 2023، تسبب خلل مؤقت في إحدى نسخ ChatGPT بإظهار بيانات دفع بعض المستخدمين لآخرين. وفي واقعة أخرى، أدخل موظفون في شركة سامسونج شفرات برمجية داخل أدوات ذكاء اصطناعي عامة، ليكتشفوا لاحقًا أنهم سربوا بيانات سرية دون قصد. هذه الأمثلة تؤكد أن الذكاء الاصطناعي لا يتجسس علينا، بل نحن من نفتح له الأبواب أحيانًا بسذاجة أو تسرع.
ورغم التقدم المذهل في أمان هذه الأنظمة، فإن الشفافية ما زالت التحدي الأكبر. فالمستخدم العادي لا يعلم بدقة ما هي البيانات التي تُجمع عنه، أو كيف تُستخدم. هذا الغموض دفع سلطات حماية البيانات في عدة دول إلى اتخاذ مواقف حازمة. ففي إيطاليا مثلًا، فرضت هيئة الخصوصية غرامة على OpenAI بسبب نقص الشفافية، بينما تتزايد في الولايات المتحدة وكندا وكوريا الجنوبية المطالبات بإقرار قوانين واضحة لحوكمة الذكاء الاصطناعي وحماية الخصوصية الرقمية.
وتتجلى هنا مشكلة أكبر تُعرف بـ فجوة الحوكمة أي الفارق بين سرعة تطور الذكاء الاصطناعي وبطء التشريعات في مواكبته. فالتقنيات تتغير كل شهر، بينما القوانين تحتاج سنوات للتحديث. ولتقليص هذه الفجوة، بدأت بعض الدول بتطبيق مبدأ الخصوصية بالتصميم، أي بناء أنظمة الذكاء بحيث تحمي البيانات منذ لحظة التطوير، وليس بعد وقوع الضرر. كما برز مفهوم الذكاء الاصطناعي القابل للتفسير، الذي يسمح للمستخدم بفهم كيفية اتخاذ القرارات داخل النموذج، ما يعزز الثقة ويحدّ من الغموض.
وفي موازاة ذلك، ظهرت أساليب جديدة أكثر أمانًا مثل التعلم الموحد، الذي يتيح تدريب النماذج على بيانات المستخدمين دون نقلها إلى الخوادم المركزية، والبيانات الاصطناعية التي تحاكي البيانات الحقيقية دون كشف هوية أصحابها. هذه الابتكارات تمثل مستقبل الخصوصية الرقمية، لأنها توازن بين تطوير الذكاء الاصطناعي وحماية المستخدمين.
أما في العالم العربي، فقد بدأ الوعي بالخصوصية الرقمية يتحول إلى أولوية وطنية. فقد أصدرت السعودية والإمارات والأردن ومصر تشريعات لحماية البيانات، وضبط نقلها إلى الخارج، وضمان السيادة الرقمية. كما تتجه بعض الدول إلى بناء نماذج ذكاء اصطناعي محلية تركز على الأمان والخصوصية منذ البداية، لتقليل الاعتماد على الخدمات الأجنبية.
وعلى مستوى الأفراد، تبقى خطوات الوعي البسيطة هي خط الدفاع الأول: مراجعة أذونات التطبيقات بانتظام، عدم منح الكاميرا أو الميكروفون لأي تطبيق بلا مبرر، تجنب إدخال المعلومات الحساسة في المحادثات، تفعيل خيار عدم استخدام البيانات للتدريب، واستخدام النسخ المؤسسية من أدوات الذكاء في بيئات العمل. كما يجب تدريب الموظفين على الاستخدام الآمن لتلك الأدوات، لتفادي التسريبات غير المقصودة.
في النهاية، الحقيقة واضحة: الذكاء الاصطناعي لا يراقبنا من وراء الكاميرات، لكنه يراقب طريقة تعاملنا معه. الخطر ليس في التقنية، بل في غياب الوعي. فالذكاء الاصطناعي ليس عدوًا خفيًا، بل شريكًا قويًا يمكن أن يكون صديقًا آمنًا إن تعاملنا معه بحكمة. الخصوصية لم تعد مسؤولية الشركات فقط، بل مسؤولية كل فرد يعرف أن الحماية تبدأ من قرار صغير واعٍ. فكما أن الذكاء الاصطناعي يتعلم منا، يجب أن نتعلم نحن كيف نحمي أنفسنا منه بالمعرفة، لا بالخوف.