لعقود من الزمن، كانت محركات البحث مثل
جوجل وبينغ تلعب دورًا أساسيًا في "إتاحة المعرفة"، حيث توفر للمستخدمين
كمًّا هائلًا من المعلومات وتترك لهم حرية الاختيار والتحليل. لكن مع ظهور الذكاء
الاصطناعي وتطبيقاته مثل
ChatGPT وBard وCopilot، تحول الوضع من
"إتاحة المعرفة" إلى "تشكيل المعرفة"، حيث لم يعد المستخدم
مجرد باحث مستقل، بل أصبح طرفًا في عملية قد تُقدّم له معلومات مُعدّة مسبقًا،
وربما غير دقيقة أو متحيزة في كثير من الأحيان.
إتاحة المعرفة: عصر محركات البحث
في السابق، كانت محركات البحث تعمل
كوسيط محايد، حيث تقوم بفهرسة المعلومات وعرضها بناءً على خوارزميات تحدد الأكثر
صلةً ببحث المستخدم. وكانت الميزة الأساسية لهذه المنصات هي:
1. الشفافية النسبية:
يمكن للمستخدم رؤية مصادر متعددة واختيار ما يناسبه.
2. حرية الاختيار:
المستخدم يقرر أي المصادر يثق بها وأيها يتجاهل.
3. التنوع: عرض وجهات
نظر مختلفة حول الموضوع نفسه.
كانت هذه المرحلة تعتمد على مبدأ أن
المستخدم قادر على التمييز بين الصحيح والزائف، وأنه يملك الأدوات الكافية لتحليل
المعلومات بنفسه.
تشكيل المعرفة: عصر الذكاء الاصطناعي
مع تطور الذكاء الاصطناعي التوليدي مثل ChatGPT))، تغيرت المعادلة، حيث أصبحت هذه الأدوات لا تقدم المعلومات فحسب،
بل تُشكّلها وتُصيغها بطريقة قد تخفي التحيزات أو الأخطاء. ومن أبرز التغييرات:
1. الردود الجاهزة:
بدلاً من عرض مصادر متعددة، يقدم الذكاء الاصطناعي إجابة واحدة مُعدّة مسبقًا، مما
يحدّ من تنوع الآراء.
2. التحيز الخفي:
النماذج اللغوية تُدرّب على بيانات قد تكون متحيزة، مما يجعل الإجابات تعكس تحيزات
المطورين أو المصادر المستخدمة في التدريب.
3. نهاية الشفافية:
لا يُعلن الذكاء الاصطناعي دائمًا عن مصادره، مما يصعّب على المستخدم التحقق من
المعلومة.
4. إضعاف التفكير
النقدي: الاعتماد على إجابات جاهزة قد يقلل من قدرة المستخدم على البحث والتحليل
بنفسه.
المستخدم: من متخذ قرار إلى مُتلقٍّ
سلبي؟
في السابق، كان المستخدم يبني قراراته
بناءً على معلومات متنوعة، أما اليوم، فإن بعض تطبيقات الذكاء الاصطناعي تُقدّم
إجابات تبدو وكأنها "الحقيقة المطلقة"، مما يجعل المستخدم أكثر عرضة
للتبعية الفكرية. والأخطر أن بعض هذه النماذج:
1. تختصر المعلومات
وتُهمل جوانب مهمة.
2. تخلط بين الحقائق
والآراء دون تمييز واضح.
3. تقدم إجابات خاطئة
بثقة عالية ظاهرة
Hallucination)
التحديات والمخاطر
هذا التحول من "إتاحة
المعرفة" إلى "تشكيلها" يطرح تحديات خطيرة، منها:
1. التلاعب بالرأي
العام: يمكن استخدام الذكاء الاصطناعي لنشر سرديات معينة دون إتاحة الفرصة للرد
عليها.
2. تراجع البحث
المستقل: قد يعتمد المستخدمون على الذكاء الاصطناعي كمرجع وحيد، مما يقلل من تنوع
المعرفة.
3. صعوبة المحاسبة:
من المسؤول إذا قدم الذكاء الاصطناعي معلومات خاطئة أدت إلى قرارات خاطئة؟
كيف يمكن التعامل مع هذا الوضع؟
للحد من سلبيات هذه التحول، ومعرفة
كيفية التعامل معه بشكلٍ فعال، نحتاج الى ضمان ما يلي:
1. تعزيز الشفافية: من
خلال كشف منصات الذكاء الاصطناعي عن مصادر معلوماتها وحدود قدراتها.
2. التوعية الرقمية: من
خلال تعليم المستخدمين كيفية التحقق من المعلومات وعدم الاعتماد الكلي على الذكاء
الاصطناعي.
3. تنظيم استخدام
الذكاء الاصطناعي-: من خلال وضع ضوابط أخلاقية وقانونية لتجنب التضليل.
عموماً، لقد غيّر الذكاء الاصطناعي
طريقة حصولنا على المعرفة من نموذج "الإتاحة" إلى نموذج
"التشكيل" وذلك من خلال إعادة تشكيل العلاقة بين الإنسان والمعلومة، مما
يجعل المستخدم أكثر عرضة للتأثر بتحيزات الخوارزميات. فإذا لم نكن على وعي تام
بمخاطر هذا التحول، فقد نجد أنفسنا في مستقبلٍ تُفرض فيه "معرفة جاهزة"،
تُنتجها خوارزميات بلا شفافية، على حساب التفكير النقدي والاستقلالية العقلية.
لذا، من الضروري أن نطور آليات تحافظ على استقلالية الفكر وتضمن أن يبقى الذكاء
الاصطناعي أداةً للمعرفة، لا مسيطرًا عليها.
صدام السويدي
مقال رائع جدير جدا بالنظر والاهتمام. أتمنى لك التوفيق للاستمرار بالتوعية بمخاطر تشكيل المعرفة من قبل الذكاء الاصطناعي التوليدي والمساهمة في تطوير آلية تحافظ على استقلالية الفكر. شكرا دكتور عبدالله.