سياسة CTDC للاستخدام المسؤول للذكاء الاصطناعي

تاريخ النفاذ: ١٥/١٢/٢٠٢٥

تحدّد هذه السياسة الكيفية التي يتعامل بها مركز التنمية والتعاون عبر الأوطان (CTDC) مع تقنيات الذكاء الاصطناعي عبر مجالات التعليم، والبحث، والتيسير، والاستشارات، والبنية التحتية الرقمية، والأنظمة الداخلية. وتعكس هذه السياسة التزام CTDC بالعدالة، والإنصاف، والشفافية، والابتكار الأخلاقي، كما تنطبق على جميع الكيانات المرتبطة ضمن مجموعة CTDC.


1. الغاية والنطاق

تعمل CTDC على إدماج الذكاء الاصطناعي بما يدعم فاعلية خدماتها وقابليتها للتوسّع وإمكانية الوصول إليها. وبناءً على ذلك، تنطبق هذه السياسة على ما يلي:

  • شمول جميع الأدوات، والمنصات، والممارسات المدعومة بالذكاء الاصطناعي التي تستخدمها CTDC أو تطوّرها داخلياً أو خارجياً؛
  • شمول أكاديمية CTDC (التعلّم الإلكتروني، وأدوات التشخيص، وتوليد المحتوى، والتحليلات)؛
  • شمول الأعمال الاستشارية، والبحثية، وأنشطة التيسير، والعمليات التشغيلية التي تتضمن أنظمة ذكاء اصطناعي؛
  • شمول الأنظمة الداخلية (مثل معالجة الوثائق، وإدارة المعرفة، وأتمتة إدارة علاقات العملاء)؛
  • انطباقها على جميع العاملين والعاملات في CTDC، والمستشارين والمستشارات، والمتعلّمين والمتعلّمات، والعملاء والعميلات، ومستخدمي ومستخدمات أدوات CTDC أو خدماتها؛
  • اشتمالها على خدمة CTDC المعنونة “AI Integration for Businesses”، التي تدعم العملاء والعميلات في إدماج الذكاء الاصطناعي بصورة أخلاقية وسياقية ضمن عملياتهم.

2. الموافقة وضوابط استخدام البيانات

تلتزم CTDC بعدم استخدام الذكاء الاصطناعي في أي سياق يتضمن بيانات شخصية أو بيانات عملاء إلا بعد الحصول على موافقة واضحة ومسبقة ومستنيرة. وعليه، لا تُعالَج البيانات الشخصية عبر أنظمة الذكاء الاصطناعي، ولا تُستخدم بيانات العملاء ضمن مسارات عمل الذكاء الاصطناعي، إلا إذا تحقق ما يلي مجتمِعاً:

  • توفّر أساس قانوني صالح (مثل العقد أو الالتزام القانوني)؛
  • تقديم العميل أو المستخدمة أو المستخدم موافقة صريحة وخطية؛
  • توضيح الغرض، والمنهج، ونطاق استخدام الذكاء الاصطناعي بصورة واضحة؛
  • توافر اتفاقيات مناسبة لحماية البيانات.

يحتفظ المتعلّمون والمتعلّمات، والعملاء والعميلات، والشركاء والشريكات دائماً بحق الرفض أو الانسحاب من الخصائص أو الخدمات المدعومة بالذكاء الاصطناعي. ومن المهم هنا التأكيد على أنه عند استخدام الذكاء الاصطناعي، يجري الإفصاح عنه بشفافية، ولا يُستعاض به عن الحكم البشري في القضايا الحاسمة أو المسائل المرتبطة بالحماية من الأذى.

3. المبادئ المُوجِّهة

ينطلق نهج CTDC في استخدام الذكاء الاصطناعي من قيمه النسوية، وما بعد الاستعمار، والمتمحورة حول العدالة. وعليه، تلتزم CTDC بما يلي:

  • الشفافية: الإفصاح عن مواضع استخدام الذكاء الاصطناعي، ووظيفته، والجهة التي تشرف عليه.
  • الإشراف البشري: ضمان عدم اتخاذ أي قرارات حاسمة عبر الذكاء الاصطناعي دون تدخل بشري سياقي ومسؤول.
  • العدالة وعدم التمييز: تقليل التحيّز الخوارزمي والعمل الاستباقي على تحديد المخاطر التي قد تطال الفئات المهمَّشة.
  • المساءلة: تحمّل CTDC للمسؤولية القانونية والأخلاقية عن أدوات الذكاء الاصطناعي المستخدمة باسمها.
  • الخصوصية وسيادة البيانات: احترام موافقة المستخدمين والمستخدمات، وتقليل استخدام البيانات، وعدم إدخال بيانات شخصية إلى نماذج ذكاء اصطناعي تابعة لطرف ثالث دون أساس قانوني.
  • تقييد الغرض: تصميم تطبيقات الذكاء الاصطناعي لأغراض واضحة ومبرّرة ومتسقة مع قيم CTDC وأهداف خدماتها.
  • التفكّر النقدي: مساءلة أثر الذكاء الاصطناعي بصورة منتظمة على السلطة، وإمكانية الوصول، والإنصاف، وغاية CTDC المؤسسية.

3. فئات استخدام الذكاء الاصطناعي عبر CTDC

أ. في أكاديمية CTDC

  • تحليلات التعلّم: مراقبة تفاعل المتعلّمين والمتعلّمات، وأنماط الإكمال، ومخاطر الانقطاع بما يدعم تصميم الدورات.
  • أدوات تعلّم مُعزَّزة بالذكاء الاصطناعي: دعم الكتابة، ومحفّزات التأمل، وأدوات التلخيص، مع إتاحة الاستخدام عبر موافقة اختيارية واضحة وتنبيهات توضيحية.
  • نماذج توليدية أولية: تجريب داخلي لأدوات الذكاء الاصطناعي التوليدية بما يدعم صياغة مواد الدورات أو مخرجات تعلّم مخصّصة، على أن تُراجَع مراجعة بشرية دائماً.
  • أتمتة التغذية الراجعة: استخدام اختياري لتغذية راجعة مولَّدة بالذكاء الاصطناعي للاختبارات القصيرة، أو تنبيهات آلية مرتبطة بالمحطات التعليمية.
  • أدوات الإتاحة: التفريغ النصي، والترجمة المصاحبة، والترجمة بما يحسّن إمكانية الوصول إلى محتوى الدورات.

ب. في الاستشارات والتيسير والبحث

  • معالجة البيانات النوعية: تحليل مدعوم بالذكاء الاصطناعي لنصوص مُخفّاة الهوية من مقابلات، واستبيانات، ومواد نصية لاستخلاص اتجاهات أو أنماط.
  • صياغة الوثائق: صياغة يقودها الإنسان وتستفيد من التلخيص، والتركيب، وتوليد المحفّزات عبر الذكاء الاصطناعي في التقارير المعقّدة.
  • التحضير لورش العمل: استخدام الذكاء الاصطناعي لتوليد الشرائح، أو تصميم محفّزات التيسير، أو خرائط النقاش، على أن يراجعها ميسّر أو ميسّرة بصورة بشرية.
  • دعم الترجمة واللغة: ترجمة مدعومة بالذكاء الاصطناعي لمحتوى موجّه للعملاء والعميلات أو موارد متعددة اللغات، شريطة ضمان جودة بشرية.

ج. الأنظمة الداخلية والبنية التحتية

  • تحسين سير العمل: الجدولة، وإدارة التذاكر، وتوجيه المهام، وفرز البريد الوارد، وتصنيف الاتصالات الداخلية بمساندة الذكاء الاصطناعي.
  • إدارة المعرفة: فهرسة المواد الأرشيفية أو الموارد المشتركة وتلخيصها ووسمها بما يدعم التعلّم المؤسسي.
  • نظافة البيانات والأتمتة: رصد الأخطاء، وكشف التكرار، أو التحقق من صحة البيانات في أنظمة إدارة علاقات العملاء وقواعد البيانات الداخلية.
  • المراقبة والرؤى: تتبّع أداء الموقع الإلكتروني، واتجاهات التحليلات، أو مؤشرات التفاعل ضمن نظام إدارة التعلّم.

د. خدمة "AI Integration for Businesses"

تقدّم CTDC دعماً للعملاء والعميلات عبر خدمة "AI Integration for Businesses"، من خلال توفير استراتيجيات أخلاقية وسياقية ومستنيرة بالعدالة لإدماج الذكاء الاصطناعي في سير العمل الداخلي، أو تقديم الخدمات، أو أنظمة المعرفة، أو الاتصالات. وتُقدَّم هذه الخدمات حصراً ضمن ما يلي:

  • الإفصاح الكامل عن الأدوات والتقنيات المستخدمة؛
  • اتفاق قائم على الموافقة والعقد مع العميل أو العميلة؛
  • شرح التبرير، والضرورة، والتدابير الوقائية؛
  • مراجعة مستمرة مع ضمان سيطرة العميل أو العميلة على المخرجات.

تخضع جميع أنظمة الذكاء الاصطناعي لموافقة داخلية، واختبارات، وإشراف قبل نشرها.


4. الحدود والاستخدامات المحظورة

تلتزم CTDC بعدم القيام بما يلي:

  • استخدام الذكاء الاصطناعي لأي شكل من أشكال المراقبة السرّية أو التقييم السلوكي للمستخدمين والمستخدمات، أو العاملين والعاملات، أو المتعلّمين والمتعلّمات.
  • تفويض قرارات الحماية من الأذى، أو نتائج التوظيف، أو القرارات التعاقدية لأنظمة ذكاء اصطناعي.
  • إدخال بيانات تعريفية تخص العملاء والعميلات أو المتعلّمين والمتعلّمات أو العاملين والعاملات في أدوات ذكاء اصطناعي خارجية (مثل ChatGPT، أو Bard، أو Copilot) دون أساس قانوني، ومعرفة واضحة من الأشخاص المعنيين، وتدابير وقائية.
  • استخدام بيانات شخصية ضمن أي نظام ذكاء اصطناعي لأغراض التدريب، أو النمذجة، أو التنبؤ.
  • تقديم خدمات مدعومة بالذكاء الاصطناعي للعملاء والعميلات أو المتعلّمين والمتعلّمات دون إذن صريح ومستنير، بما يشمل تبرير الاستخدام وبيان ضرورته.
  • استخدام الذكاء الاصطناعي لمحاكاة تفاعلات بشرية (مثل مدرّبين أو ميسّرين أو باحثين مُنتحَلي الصفة) دون وسم واضح وموافقة.
  • نشر الذكاء الاصطناعي بطرق تقوّض التفاعل ذي المعنى، أو التحليل البنيوي، أو الممارسة التفكّرية.

5. حماية البيانات والموافقة

يخضع كل استخدام للذكاء الاصطناعي لسياسة CTDC لحماية البيانات وأمن المعلومات. وبالإضافة إلى ذلك:

  • تلتزم CTDC بعدم معالجة أي بيانات شخصية عبر أدوات الذكاء الاصطناعي دون أساس قانوني وموافقة صريحة.
  • لا تُستخدم أي بيانات شخصية لتدريب نماذج طرف ثالث أو تحسينها.
  • لا تستخدم CTDC بيانات العملاء والعميلات في أنظمة ذكاء اصطناعي إلا إذا قدّم العميل أو العميلة إذناً مستنيراً وكان هناك اتفاق قانوني نافذ.
  • تُراجَع جميع أدوات الذكاء الاصطناعي التابعة لطرف ثالث لضمان امتثالها لمتطلبات حماية البيانات (UK GDPR، وقانون حماية البيانات لعام 2018).
  • يلتزم المتعلّمون والمتعلّمات والمستخدمون والمستخدمات بالموافقة الاختيارية قبل استخدام أدوات دعم تعلّم اختيارية مدعومة بالذكاء الاصطناعي.
  • يُعمل على إخفاء الهوية وتجميع البيانات المستخدمة لتطوير أداء الذكاء الاصطناعي أو مراقبته كلما كان ذلك ممكناً.
  • تُدقَّق الرؤى المولَّدة عبر الذكاء الاصطناعي، إذا استُخدمت للتأثير على تغييرات البرامج، من قبل خبراء وخبيرات مختصّين، كما يُصرّح عنها في تقارير التقييم.

6. الإشراف والتدقيق وآليات الإنصاف

تضمن CTDC حوكمة أخلاقية من خلال:

  • تعيين مسؤولين ومسؤولات في كل مجال خدماتي يتحمّلون المساءلة عن استخدام الذكاء الاصطناعي ومراجعته؛
  • إلزامية توثيق أنظمة الذكاء الاصطناعي ووظائفها ومدخلات البيانات والمخاطر؛
  • إجراء تدقيقات داخلية سنوية لأدوات الذكاء الاصطناعي ومسارات العمل لرصد المخاطر والتحيّز والفاعلية؛
  • إتاحة قنوات تغذية راجعة يمكن الوصول إليها لتمكين المستخدمين والمستخدمات من الاعتراض على استخدام الذكاء الاصطناعي أو آثاره أو الإبلاغ عنهما؛
  • إنهاء استخدام الأدوات أو إعادة تدريبها عند اكتشاف تحيّز أو ضرر أو عدم دقة.

7. التدريب وبناء القدرات الداخلية

تستثمر CTDC في:

  • تدريب العاملين والعاملات والمستشارين والمستشارات على الاستخدام الأخلاقي والاستراتيجي للذكاء الاصطناعي؛
  • تزويد الفرق بإرشادات حول تصميم المحفّزات، واختيار الأدوات، والتخفيف من التحيّز؛
  • تعزيز محو الأمية النقدية في الذكاء الاصطناعي بما يتوافق مع تحليل CTDC للعدالة والسلطة.

8. المواءمة القانونية والأخلاقية

تُصمَّم ممارسات CTDC المتعلقة بالذكاء الاصطناعي بما يضمن الامتثال للمعايير القانونية والأخلاقية الحالية والناشئة، بما في ذلك:

  • اللائحة العامة لحماية البيانات في المملكة المتحدة (UK GDPR) وقانون حماية البيانات لعام 2018، بما يشمل أحكام الموافقة، وتقليل البيانات، وضمانات اتخاذ القرارات المؤتمتة؛
  • مبادئ حوكمة الذكاء الاصطناعي لدى حكومة المملكة المتحدة، بما يغطي السلامة، والعدالة، والشفافية، وقابلية الطعن، والمساءلة؛
  • قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act) (أُنجز بصيغته النهائية في 2024، ويدخل حيز النفاذ على مراحل بدءاً من 2026)، وبخاصة المتطلبات المتعلقة بأدوات التعليم والبحث والتطوير المهني المصنّفة بوصفها أنظمة "محدودة" أو "عالية المخاطر"؛
  • مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، وتوصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي، بما يضمن حقوق الإنسان، والإنصاف، والإشراف الديمقراطي عند نشر الذكاء الاصطناعي.

تلتزم CTDC بتحديث هذه السياسة بصورة استباقية مع تطوّر المتطلبات القانونية. وتعكس أحكامها الحالية أفضل الممارسات الدولية للاستخدام المسؤول للذكاء الاصطناعي القائم على الحقوق في مجالات التعليم والاستشارات والتنمية المؤسسية.

9. مراجعة السياسة والتطوير المستقبلي

تلتزم CTDC بتحديث هذه السياسة بما يتوافق مع:

  • التغييرات في البيئة التنظيمية للذكاء الاصطناعي (مثل التشريعات في المملكة المتحدة والاتحاد الأوروبي)؛
  • التطورات في محفظة CTDC للابتكار والتطوير؛
  • الدروس المستفادة من حالات الاستخدام التجريبية وتغذية المستخدمين والمستخدمات الراجعة.

تُراجَع التحديثات الجوهرية من قبل مديري ومديرات CTDC، كما يُعلن عنها علناً عبر الموقع الإلكتروني أو تحديثات المنصة.


للتواصل

يمكن توجيه الأسئلة أو المخاوف المتعلقة بممارسات CTDC في الذكاء الاصطناعي إلى: [email protected]

تواصلوا معنا

لديكم أسئلة؟ أفكار؟ رغبة في التعاون؟ نحن هنا ونحب أن نسمع منكم، فلا تترددوا في مدّ جسور التواصل!