تغلغلت أدوات الذكاء الاصطناعي الآن في الممارسة البحثية اليومية. فهي قادرة على صياغة النصوص، وتلخيص المقالات، وتوليد أسئلة المقابلات، واقتراح فئات تحليلية، وإنتاج مخرجات تبدو متماسكة بما يكفي لتمريرها بوصفها كفاءة.
وهنا يكمن الخطر تحديداً.
عبر كثير من ممارسات البحث وإنتاج المعرفة—ولا سيما في البيئات غير المتكافئة والمشحونة سياسياً—نادراً ما يكون الإخفاق الأخلاقي هو “استخدام الذكاء الاصطناعي”. بل يتمثّل الإخفاق في التعامل مع نصٍّ فصيح بوصفه بديلاً عن استقصاء قابل للمساءلة، وفي التعامل مع السرعة بوصفها مبرّراً لإضعاف الحكم الرشيد.
ليس البحث تمريناً محايداً في تراكم المعرفة. بل هو ممارسة موضوعة في سياق، وسياسية، وأخلاقية. يمكن للذكاء الاصطناعي أن يساند بعض المهام داخل هذه الممارسة، لكنه لا يستطيع حمل الالتزامات التي تمنح البحث مشروعيته: الوعي التاريخي، وتحليل علاقات القوة، والأمانة للسياق، والحكم التأمّلي، والمسؤولية تجاه الأشخاص والوقائع التي يتضمّنها ما ننتجه.
البحث استقصاء قابل للمساءلة، لا نصٌّ فصيح
يوضّح حدٌّ فاصل بسيط جانباً كبيراً من الالتباس الراهن:
يمكن للذكاء الاصطناعي أن يساعد في إنجاز مهام. ولا يمكنه “إجراء” بحث.
يشكّل البحث سلسلة قابلة للدفاع عنها: سؤال --> منهجية -->أدلة --> ادعاء. عندما تكون هذه السلسلة سليمة، يستطيع القراء والقارئات تقييم منطقك، وتكرار خطوات أساسية، ومساءلة استنتاجاتك. أمّا عندما تنكسر السلسلة، فلا يكون لديك بحث—بل نصٌّ معقول ظاهرياً.
يتطلّب البحث الأخلاقي أكثر من سلامة تقنية. إذ يتطلّب موقفاً من كيفية إنتاج المعرفة، وبيد من، ولأي أغراض، وبأي تبعات. ويغدو هذا الموقف أكثر أهمية—لا أقل—حين تستطيع الأدوات توليد مخرجات مقنعة على نطاق واسع.
يتمثّل سؤال تشخيصي مفيد في الآتي:
هل هذا ادعاء، أم وصف، أم تفسير؟
o يرصد الوصف ما هو حاضر.
o ويجادل التفسير في ما يعنيه ذلك.
o ويؤكّد الادعاء ما ينبغي تصديقه—ولذلك يجب أن يرتكز إلى منهجية، وأدلة، ومساءلة.
يمكن للذكاء الاصطناعي أن يعين في تنظيم الأوصاف. لكنه لا يمكن أن يكون مسؤولاً عن التفسيرات أو الادعاءات. وتقع تلك المساءلة على عاتق الباحثين والباحثات.
أين يضلّل الذكاء الاصطناعي: الاتساق، والثقة، وإيهام الإجماع
لا يتمثّل نمط الإخفاق الأكثر شيوعاً للذكاء الاصطناعي في “الخطأ في واقعة واحدة”. بل في إنتاج سلطة اصطناعية: سردية واثقة ومتسقة تُخفي فجوات منهجية.
غالباً ما نصادف أشكالاً من ذلك:
تقديمُ توليفٍ “مثالي” للأدبيات يختزل الخلاف إلى حبكة واحدة؛
وإيرادُ إحالاتٍ مرجعية تبدو معقولة لكنها غير موجودة؛
وافتراضُ إجماعٍ ظاهري لم تصل إليه أي جماعة علمية فعلية؛
وصياغةُ مجموعة مرتّبة من الموضوعات تمحو السياق، والتناقض، وعلاقات القوة.
تُعدّ هذه مسألة أخلاقية، لا مجرد مسألة تقنية. فعندما يحلّ الاتساق محلّ التحقّق، ينتقل عبء الخطأ إلى الخارج—إلى مجتمعات، ومؤسسات، أو مسارات سياسات قد تتعامل مع المخرجات بوصفها موثوقة. وفي السياقات المشحونة سياسياً، نادراً ما يكون هذا الانتقال محايداً؛ إذ يميل إلى إعادة إنتاج تراتبيات قائمة للمعرفة والشرعية.
إدراجُ محفّزات للتحقّق ضمن مسارات العمل—أي لحظات يتعيّن فيها التوقّف والتحقّق بدلاً من مواصلة الإنتاج. على سبيل المثال:
أي إحصاء محدّد، أو ادعاء قانوني، أو إسناد مؤسسي.
أي صياغة من نوع “الجميع متفق”.
أي ملخّص سيُستخدم لتبرير قرار يمسّ حياة الناس.
أي ادعاء بشأن المجتمعات المهمَّشة لا يستند إلى مصادر أولية أو معرفة معيشة.
لم تبدأ النزاهة مع الذكاء الاصطناعي—والذكاء الاصطناعي يضخّم أضراراً قديمة
من المغري التعامل مع أخلاقيات الذكاء الاصطناعي بوصفها مجالاً جديداً. لكن عملياً، يسرّع الذكاء الاصطناعي أنماطاً راسخة من سوء السلوك:
الانتحال والكتابة الترقيعية،
الكتابة الشبحية وتغبيش الإسناد،
استملاك معارف المجتمعات من دون مقابلة أو تبادل،
و“تبييض الائتمان” الذي يمحو من قام بالتفكير ومن تحمّل المخاطر.
يضيف الذكاء الاصطناعي إلى ذلك اتساع النطاق، والسرعة، وإمكان التذرّع بعدم المسؤولية. لكن عبارة “الأداة هي التي فعلت ذلك” لا معنى لها أخلاقياً. ولا تتبخّر المسؤولية لأن الواجهة مريحة.
إذا أردت مرساة واحدة للنزاهة، فاستعمل الآتي:
إذا تعذّر على الباحثين والباحثات شرح كيفية إنتاج جملة ما—والدفاع عن الأدلة التي تقف خلفها—فلا تنشروها.
العمل الأدبياتي مع الذكاء الاصطناعي: ليس رسم الخريطة توليفاً
عند استخدامه بحذر، يمكن للذكاء الاصطناعي أن يدعم الاستكشاف الأوّلي: تحديد كلمات مفتاحية، ورسم خرائط للنقاشات، واقتراح تسلسلات للقراءة، أو المساعدة في هيكلة ما يُعتزم قراءته. ويتجاوز الأمر الحدّ عندما تصبح مخرجات الذكاء الاصطناعي بديلاً عن القراءة، والتقييم، والاستشهاد المسؤول.
يحافظ مسار عمل منضبط على تمييز ثلاثة أمور:
رسمُ الخريطة (ما يبدو أنه موجود في الحقل)،
القراءة (ما تقوله المصادر فعلاً)،
التوليف (روايتك المحاجِجة عمّا يدعمه الحقل، وما ينازعه، وما لا يستطيع أن يستخلصه).
يكمن الخطر في إجماعٍ اصطناعي: قصة مُسطَّحة تمنح الامتياز للأصوات المهيمنة وتمحو الخلاف—ولا سيما الأدبيات خارج أنظمة النشر السائدة، واللغات، والجغرافيات. ليست الإحالة المرجعية حيادية. فهي جزء من كيفية بناء السلطة.
أدنى ممارسة أخلاقية تتمثّل في طرح الأسئلة الآتية:
من الغائبون والغائبات عن قائمة قراءتي—وماذا يفعل هذا الغياب باستنتاجاتي؟
هل أعتمد بإفراط على أكثر المصادر ظهوراً لأن من الأسهل على الذكاء الاصطناعي “التعرّف” إليها؟
ما الذي يتطلّبه توسيع قاعدة الأدلة إلى ما يتجاوز ما هو أكثر قابلية لأن يُقرأ بوصفه مشروعاً في المؤسسات المهيمنة؟
تواصلوا معنا
لديكم أسئلة؟ أفكار؟ رغبة في التعاون؟ نحن هنا ونحب أن نسمع منكم، فلا تترددوا في مدّ جسور التواصل!