ملخص
توصيات الذكاء الاصطناعي موجودة في كل مكان في التجارة الإلكترونية والمحتوى والأسئلة والأجوبة - فهي تضيف الراحة ولكن أيضًا تحيز بيانات التدريب والحوافز التجارية وفقاعات التصفية. تحدد هذه المقالة كيفية عمل التوصيات وثلاثة مصادر للتحيز، ثم تقدم نهجًا للاستخدام الرشيد: الاحتياجات أولاً، والتحقق المرجعي من مصادر متعددة، والقرار المتأخر. كما يغطي الهلوسة والثقة المفرطة في التوصيات القائمة على نماذج اللغة الكبيرة [^1].
في جميع الحالات، تعتمد النتائج على البيانات وأهداف التحسين، وليس بالضرورة احتياجاتك الحقيقية أو "الأفضل موضوعيًا". إن فهم هذا هو الأساس للاستخدام الرشيد.
1. كيف تعمل توصيات الذكاء الاصطناعي
الأساليب الشائعة: التصفية التعاونية - "الأشخاص الذين اشتروا A اشتروا أيضًا B" - من تشابه السلوك؛ القائمة على المحتوى - مطابقة سمات العنصر وملفات تعريف المستخدمين؛ التوصيات التي تم إنشاؤها بواسطة نماذج اللغة الكبيرة - أدوات مثل ChatGPT تجيب على "ماذا يجب أن أشتري؟" - بلغة طبيعية، بالاعتماد على بيانات التدريب والاسترجاع، مع خطر الهلوسة والثقة المفرطة [^1].
في جميع الحالات، تعتمد النتائج على البيانات وأهداف التحسين، وليس بالضرورة احتياجاتك الحقيقية أو "الأفضل موضوعيًا". إن فهم هذا هو الأساس للاستخدام الرشيد.
2. ثلاثة مصادر للتحيز في توصيات الذكاء الاصطناعي
تحيز بيانات التدريب: تعكس النقرات والمشتريات السابقة التفضيلات الحالية والتركيبة السكانية للمنصة؛ يتم التقليل من أهمية الاحتياجات المتخصصة؛ تحصل العناصر الشائعة والتي يتم تسويقها بكثافة على مزيد من الظهور، مما يغذي الاستدلال بالإتاحة - "يظهر بشكل متكرر - يبدو "أكثر قيمة".
الحوافز التجارية: غالبًا ما يرتبط الترتيب بالإعلانات والعمولات والشراكات؛ لدى المنصات سبب لتقديم منتجات ذات هامش ربح مرتفع أو مدعومة. يتم تضخيم الإثبات الاجتماعي (المبيعات، التقييمات)؛ تحقق بشكل متقاطع مع كيفية تقييم المراجعات و قراءة المراجعات.
فقاعات التخصيص: Pariser (2011) "فقاعة التصفية" - تستمر الخوارزميات في إظهار ما يطابق سلوكك السابق، مما يعزز تحيز التأكيد؛ ترى "توصيات - تعكس التفضيلات الحالية، وليس مقارنة متوازنة [^1]. يشير شين (2020) وآخرون إلى أن الثقة في توصيات الذكاء الاصطناعي يمكن استغلالها؛ يساعد التشكيك الصحي [^2].
3. الاستخدام الرشيد: الاحتياجات أولاً + التحقق المرجعي من مصادر متعددة + القرار المتأخر
الاحتياجات أولاً: حدد المشكلة والميزانية والقيود الصعبة قبل تصفح التوصيات؛ تجنب أن تسترشد بالقائمة. استخدم فكرتنا عن مناعة الاختيار - تعامل مع التوصيات كمدخلات، وليس الأساس الرئيسي للاختيار.
التحقق المرجعي من مصادر متعددة: لا تعتمد على منصة واحدة أو ذكاء اصطناعي واحد. قارن بين المتاجر المختلفة والمراجعات المستقلة والمراجعات السلبية وقوائم الطرف الثالث لتقليل التحيز في الخوارزمية الواحدة؛ راجع تقييم المراجعات و قراءة المراجعات.
القرار المتأخر: عندما "يقول الذكاء الاصطناعي أن هذا جيد"، لا تشترِ على الفور؛ أضف إلى سلة التسوق أو احفظ، ثم قرر في اليوم التالي باستخدام قائمة احتياجاتك ومصادر متعددة لمواجهة الثقة المفرطة والاندفاع.
4. مخاطر إضافية لتوصيات نماذج اللغة الكبيرة: الهلوسة والثقة المفرطة
عندما تسأل ChatGPT أو ما شابه ذلك "ما هو أفضل منتج XX - أو "هل يجب أن أشتري Y"، قد يخلط النموذج بين المعلومات القديمة أو النماذج المخترعة أو الاقتباسات المزيفة (الهلوسة) ويقدمها بنبرة واثقة وسلطوية، مما يؤدي إلى تحيز السلطة و الثقة المفرطة - "قال الذكاء الاصطناعي ذلك".
مواجهة: تعامل مع مخرجات نماذج اللغة الكبيرة كمدخل واحد؛ تحقق دائمًا بشكل متقاطع مع المواصفات الرسمية والمراجعات وتعليقات المستخدمين؛ تحقق بنفسك من أسماء النماذج والأسعار والمواصفات؛ بالنسبة للقرارات عالية المخاطر، أنفق الميزانية المعرفية للتحقق - لا تتعامل مع محادثة واحدة على أنها نهائية.
الخلاصة
يمكن لتوصيات الذكاء الاصطناعي تحسين الكفاءة ولكنها تحمل تحيزًا في البيانات ودوافع تجارية وخطر الفقاعة؛ تضيف توصيات نماذج اللغة الكبيرة الهلوسة والثقة المفرطة. الاستخدام الرشيد هو الاحتياجات أولاً، والتحقق المرجعي من مصادر متعددة، والقرار المتأخر، بالإضافة إلى تقييم المراجعات و اكتشاف الحيل التسويقية لتحقيق التوازن بين الراحة والعقلانية.
المراجع
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin.
- Shin, D. (2020). User perceptions of algorithmic decisions in the personalized AI system: Perceptual evaluation of fairness, accountability, transparency, and explainability. Journal of Broadcasting & Electronic Media, 64(4), 541–65. [[DOI]](https://doi.org/10.1080/08838151.2020.1843357)