shopify site analytics
محافظ شبوة اللواء العولقي يعزي في وفاة الاخ عمر علي عليوة - الاحتلال و تدمير البنية الحياتية الفلسطينية - السلام الإقليمي وحبل المشنقة: انهيار الهيمنة وبقاء النظام على جبهة الإعدام - مخاطر الذكاء الاصطناعي… حين تصبح الحماية مسؤولية الجميع - الوالي يتدخل لإنقاذ المشوشي بعد تهديده باقتحام البحث الجنائي لتهريب جنوده قتلة الشيخ - الشمال الممزق؛ خطة الانفصاليين الخفية - عطيفي والواحدي يناقشان الوضع التمويني لمادة الغاز بالحديدة - مؤسسة يمان للتنمية الصحية تدشن حملة الرش الضبابي لمكافحة نواقل الأمراض بالحديدة - بعد طول انتظار.. قرار حظر صيد الوعول في حضرموت لحماية الحياة البرية - شرطة المرور في صنعاء تشنّ حملة واسعة تضبط قرابة ثلاثة آلاف دراجة نارية مخالفة -
ابحث عن:



صنعاء نيوز - 
في عالمٍ يتسابق ليجعل الآلات تفكر، يغيب أحيانًا السؤال الأهم: من يحمي من؟ الإنسان أم الذكاء الاصطناعي؟
إنه من الأسئلة الكثيرة التي طالما سألتها مع نفسي، خاصة مع تسارع تطبيقات الذكاء

الإثنين, 20-أكتوبر-2025
صنعاء نيوز/ -


بقلم: د. غسان شحرور


مقدمة
في عالمٍ يتسابق ليجعل الآلات تفكر، يغيب أحيانًا السؤال الأهم: من يحمي من؟ الإنسان أم الذكاء الاصطناعي؟
إنه من الأسئلة الكثيرة التي طالما سألتها مع نفسي، خاصة مع تسارع تطبيقات الذكاء الاصطناعي التي باتت تدخل تفاصيل حياتنا اليومية، من الهواتف الذكية إلى الخدمات الصحية والتعليمية والبحثية وغيرها.
ويبرز سؤال جوهري: كيف نحمي هذه الأنظمة من المخاطر؟ وهل تأمين الذكاء الاصطناعي مسؤولية المطورين فقط؟
الجواب ببساطة: لا. فالتأمين الرقمي لم يعد شأنًا تقنيًا بحتًا، بل قضية مجتمعية تمسّ كل مستخدم وكل مؤسسة.

ما المقصود بتأمين الذكاء الاصطناعي؟

هو حماية الأنظمة الذكية من التهديدات التي قد تؤثر على خصوصية المستخدمين أو تؤدي إلى إساءة استخدام البيانات أو التلاعب بنتائج النماذج.
ومع تطور هذه الأنظمة، ظهرت أنواع جديدة من الهجمات، منها:

• سرقة النموذج أو البيانات
• إدخال تعليمات خبيثة (مثل تجاهل قواعد الأمان أو الكشف عن معلومات داخلية)
• استنتاج معلومات خاصة (كملفات طبية أو أسماء ضمن بيانات التدريب)
• تسميم بيانات التدريب (إدخال معلومات مغلوطة تؤثر على أداء النموذج)

هذه المخاطر ليست نظرية، بل حدثت بالفعل في حالات متعددة صادفت بعضها، وأظهرت أن الذكاء الاصطناعي ليس محصنًا، وأن تأمينه ضرورة لا ترف.

مبادرة CoSAI: نموذج للتعاون

جاءت مبادرة Coalition for Secure AI (CoSAI) لتوحيد الجهود العالمية، عبر بناء بيئة تعاونية تجمع خبراء من الشركات والجامعات والمجتمع المدني، بهدف تطوير أدوات وممارسات موحّدة لتأمين الذكاء الاصطناعي.
لكن المشروع لا يشمل كل القضايا المرتبطة بالذكاء الاصطناعي، فهو لا يتناول مثلًا التضليل الإعلامي أو المحتوى المسيء أو الممارسات غير الأخلاقية، بل يركّز على حماية البنية التقنية من الاختراق وسوء الاستخدام.
وقد ناقشت ذلك مطولًا مع أعضاء التحالف في مؤتمر عالمي مؤخّرًا، حيث بدا واضحًا أن الحماية لا تُبنى في المختبرات فقط، بل في الحوار المجتمعي المستمر.

ما دور المستخدم العادي؟

رغم أن تأمين الأنظمة يبدو مهمة تقنية، إلا أن للمستخدم العادي دورًا محوريًا:

• استخدام التطبيقات بشكل مسؤول
• المطالبة بالشفافية حول البيانات والنماذج
• الإبلاغ عن السلوكيات المريبة أو المحتوى غير المناسب
• المشاركة في تقييم الأنظمة لتحسينها وتقليل المخاطر

من المسؤول عن توعية المستخدم؟

تأمين الذكاء الاصطناعي لا يكتمل دون وعي المستخدمين، وهذه مسؤولية مشتركة بين:

• الشركات المطوّرة
• الجهات الحكومية
• الجامعات والإعلام
• منظمات المجتمع المدني

كل جهة مطالبة بتقديم محتوى توعوي بلغة مفهومة، وبأساليب تناسب مختلف الفئات.

كيف يمكن أن يحدث الاختراق؟

الاختراق لا يعني دائمًا “الدخول إلى النظام”، بل قد يشمل:

• تسميم بيانات التدريب
  مثال: إدخال محتوى سياسي مضلل في بيانات تدريب نظام ترجمة
• هجمات التوجيه الخبيث (Prompt Injection)
  مثال: إقناع النظام بكشف بيانات داخلية عبر واجهة دردشة
• استنتاج معلومات خاصة
  مثال: تحليل ردود النظام لاكتشاف استخدام بيانات طبية
• سرقة النموذج أو إعادة استخدامه
  مثال: توظيف نموذج تحليل سلوك المستخدمين في بيئة غير مرخصة


كيف نواجه هذا الخطر؟

• تأمين البنية التقنية وتحديثها دوريًا
• استخدام أدوات كشف التلاعب في البيانات
• تحديد صلاحيات الاستخدام ومراقبة التفاعلات
• التعاون الدولي لوضع معايير أمنية مشتركة


الذكاء الاصطناعي وحقوق الإنسان… مسؤولية لا تُجزّأ

حين يتعامل الذكاء الاصطناعي مع بياناتنا، قراراتنا، وحتى صورنا وأصواتنا، فإنه لا يتعامل مع معلومات مجردة، بل مع امتدادات لكرامتنا الإنسانية.
لذلك، فإن تأمين هذه الأنظمة ليس فقط مسألة تقنية، بل واجب أخلاقي وحقوقي.
الحق في الخصوصية، والحق في الإنصاف، والحق في المعرفة، وهي حق للفرد والأسرة والمجتمع، نعم، كلها حقوق يجب أن تُصان في كل مرحلة من مراحل تصميم واستخدام الذكاء الاصطناعي.
ينبغي وضع آلية معلنة للإبلاغ عن الانتهاكات ومتابعتها، تضمن الشفافية والمساءلة أمام المستخدمين.

في الختام

الذكاء الاصطناعي ليس مجرد تقنية، بل منظومة تتفاعل مع الإنسان وتتعلم منه.
وتأمينه مسؤولية جماعية تبدأ بالوعي، والتدريب، وتُبنى بالتعاون، وتُحترم حين يُمنح المستخدم حقه في المعرفة والخصوصية.
فكلما ازداد ذكاء الآلات، ازداد واجبنا في حماية إنسانيتنا منها… ومن أنفسنا.

*د. غسان شحرور
طبيب وكاتب، أدرج ضمن روّاد المعلوماتية الطبية في موسوعة ليكسيكون الدولية.

Source:

Shahrour, Ghassan. “The Risks of Artificial Intelligence: When Protection Becomes Everyone’s Responsibility.” Countercurrents, October 10, 2025. https://countercurrents.org/2025/10/the-risks-of-artificial-intelligence-when-protection-becomes-everyones-responsibility/








```
P Please consider the environment before any printing

أضف تعليقاً على هذا الخبر
ارسل هذا الخبر
تعليق
إرسل الخبر
إطبع الخبر
RSS
حول الخبر إلى وورد

ملخصات تغذية الموقع
جميع حقوق النشر محفوظة 2009 - (صنعاء نيوز)