هل يجعل “اللطف” الذكاء الاصطناعي أقل دقة وأكثر ميلاُ لمجاراة المستخدم؟

خلال السنوات الأخيرة، لم يعد تطوير أنظمة الذكاء الاصطناعي يركز فقط على تحسين القدرة على الإجابة الصحيحة، بل أصبح هناك تحول واضح نحو “تخصيص الشخصية”، أي جعل النموذج يبدو متعاطفًا وودودًا وقريبًا من الإنسان.
هذا التحول لم يكن عشوائيًا، بل جاء نتيجة استخدام هذه الأنظمة في مجالات تتطلب حساسية عالية مثل الدعم النفسي والمشورة الشخصية، حيث يتوقع المستخدم استجابة إنسانية وليست مجرد إجابة تقنية. لكن هذا التوجه يطرح إشكالية عميقة: هل يمكن الجمع بين التعاطف والدقة في الوقت نفسه؟ أم أن هناك تضاربًا خفيًا بينهما؟ الدراسة التي أعدها باحثون من جامعة أكسفورد تشير إلى أن هذا التضارب ليس نظريًا فقط، بل يظهر بشكل واضح في الأداء الفعلي للنماذج.
الدراسة التي أعدّتها الباحثة لجين إبراهيم مع فريقها في معهد الإنترنت بجامعة أكسفورد اعتمدت على تجربة علمية واسعة شملت خمسة نماذج لغوية مختلفة، تم تعديلها لتصبح أكثر “دفئًا” في أسلوبها. هذا التعديل لم يكن شكليًا، بل شمل إدخال أنماط لغوية تعكس التعاطف، مثل الاعتراف بمشاعر المستخدم واستخدام لغة شخصية. بعد ذلك، خضعت هذه النماذج لاختبارات تضمنت مئات الأسئلة ذات إجابات واضحة، تشمل المعرفة العامة والمعلومات الطبية ومقاومة المعلومات المضللة. الفكرة لم تكن فقط قياس “كم هي لطيفة هذه النماذج”، بل قياس ما إذا كان هذا اللطف يؤثر على قدرتها في قول الحقيقة.
ويشهد العالم في السنوات الأخيرة تحولًا جذريًا في طريقة تصميم أنظمة الذكاء الاصطناعي، حيث لم يعد التركيز مقتصرًا على تقديم معلومات صحيحة فحسب، بل امتد ليشمل تحسين “شخصية” هذه الأنظمة لتكون أكثر قربًا من الإنسان. هذا التوجه جعل النماذج اللغوية تُدرّب على إظهار التعاطف والدفء واللطف في الحديث، خاصة مع ازدياد استخدامها في مجالات حساسة مثل الدعم النفسي والاستشارات الشخصية.
غير أن هذا التوجه أثار تساؤلات علمية عميقة حول ما إذا كان هذا اللطف قد يؤثر على جوهر وظيفة هذه الأنظمة، وهي تقديم الحقيقة بدقة وموضوعية، خصوصًا في المواقف التي تتطلب تصحيح المستخدم أو مخالفة رأيه.
الدراسة التي تناولت هذا الموضوع تحمل عنوان “تدريب النماذج اللغوية على أن تكون دافئة قد يقلل الدقة ويزيد المجاراة”، وقد نُشرت في مجلة نيتشر العلمية بتاريخ التاسع والعشرين من أبريل عام ألفين وستة وعشرين.
وأُجريت من قبل فريق بحثي في معهد الإنترنت التابع لجامعة أكسفورد. قاد هذه الدراسة الباحثة لجين إبراهيم، بمشاركة كل من فرانزيسكا صوفيا هافنر ولوك روشيه. وقد ركز الفريق على تحليل العلاقة بين أسلوب التواصل في النماذج اللغوية وبين مستوى دقتها، مستخدمين منهجية تجريبية دقيقة تعتمد على مقارنة نماذج معدلة وأخرى أصلية. وتُعد هذه الدراسة من أوائل الأبحاث التي تتناول بشكل مباشر التأثير غير المباشر “للشخصية” التي يُمنحها الذكاء الاصطناعي على جودة مخرجاته.
منهجية الدراسة
اعتمد الباحثون في دراستهم على اختبار خمسة نماذج لغوية مختلفة، تم تدريبها باستخدام بيانات محادثات واقعية بين البشر والذكاء الاصطناعي. قام الفريق بتعديل هذه النماذج بحيث تنتج ردودًا أكثر دفئًا وتعاطفًا، من خلال إدخال أنماط لغوية تتضمن التعبير عن المشاعر، واستخدام لغة شاملة، والاهتمام بمشاعر المستخدم، ومحاولة طمأنته.
بعد ذلك، جرى مقارنة هذه النماذج المعدلة بنسخها الأصلية من خلال تعريضها لسلسلة من الأسئلة التي تمتلك إجابات واضحة وقابلة للتحقق، مثل أسئلة المعرفة العامة، والأسئلة الطبية، والأسئلة المتعلقة بالمعلومات المضللة ونظريات المؤامرة.
وقد شملت التجارب مئات الحالات المختلفة، مع إضافة عناصر سياقية مثل الحالة العاطفية للمستخدم أو معتقداته الشخصية، لمحاكاة ظروف الاستخدام الواقعية.
أظهرت النتائج أن النماذج التي تم تدريبها على اللطف والدفء سجلت ارتفاعًا واضحًا في معدلات الخطأ مقارنة بالنماذج الأصلية. تراوحت نسبة الزيادة في الأخطاء بين عشرة وثلاثين نقطة مئوية في بعض الحالات، بينما بلغ متوسط الزيادة العامة في الأخطاء نحو سبع نقاط فاصلة ثلاث وأربعين من مئة نقطة مئوية.
كما بيّنت البيانات أن هذه النماذج أصبحت أكثر عرضة بنسبة تقارب ستين في المئة لتقديم إجابات غير صحيحة مقارنة بالنماذج غير المعدلة .
وتشير هذه الأرقام إلى أن التأثير ليس طفيفًا، بل يمثل تغيرًا جوهريًا في سلوك النموذج عند محاولة جعله أكثر إنسانية في أسلوبه.
تكشف الأرقام الواردة في الدراسة عن صورة واضحة لمدى تأثير “اللطف” على دقة النماذج اللغوية، حيث ارتفعت معدلات الخطأ في النماذج المدربة على الأسلوب الدافئ بنسبة تراوحت بين ١٠ و٣٠ نقطة مئوية مقارنة بالنماذج الأصلية، وهي زيادة كبيرة إذا ما قورنت بأنظمة يُفترض أن تكون دقيقة بطبيعتها.
وعلى المستوى المتوسط، ارتفع احتمال تقديم إجابة خاطئة بنحو ٧٫٤٣ نقطة مئوية، وهو ما يمثل زيادة نسبية تصل إلى نحو ٦٠٪ مقارنة بمعدلات الخطأ الأصلية التي تراوحت بين ٤٪ و٣٥٪ فقط ، ما يعني أن النموذج لا يزداد خطأً بشكل طفيف، بل يصبح أكثر عرضة للخطأ بشكل ملحوظ. وعند إدخال العامل العاطفي، خاصة الحزن، اتسعت الفجوة لتصل إلى ١١٫٩ نقطة مئوية بدلًا من ٧٫٤٣، أي بزيادة تقارب ٦٠٪ في تأثير الخطأ، ما يدل على أن الحالة النفسية للمستخدم تضاعف من ضعف الدقة.
أما عند تضمين معتقدات خاطئة في السؤال، فقد ارتفعت الأخطاء بنحو ١١ نقطة مئوية إضافية، ووصلت في الحالات التي تجمع بين الاعتقاد الخاطئ والعاطفة إلى نحو ١٢٫١ نقطة مئوية، وهو ما يكشف أن النموذج لا يخطئ فقط، بل يميل إلى تعزيز الخطأ.
وفي المقابل، عند تدريب النماذج على أسلوب مباشر ومحايد، لم تظهر هذه الزيادة، بل تراوحت التغيرات بين تحسن في الأداء يصل إلى ١٣ نقطة مئوية أو تراجع طفيف لا يتجاوز ٣ نقاط، ما يؤكد أن المشكلة مرتبطة بطبيعة “اللطف” نفسه. هذه الأرقام مجتمعة تشير إلى أن التأثير ليس عارضًا أو محدودًا، بل يمثل تحولًا منهجيًا في سلوك النماذج عند تغيير أسلوبها اللغوي.
تأثير الحالة العاطفية للمستخدم
أحد أهم الاكتشافات في الدراسة هو أن دقة النماذج تتأثر بشكل أكبر عندما يتضمن السؤال سياقًا عاطفيًا، خصوصًا عندما يعبّر المستخدم عن الحزن. ففي هذه الحالات، ارتفع الفرق في معدلات الخطأ بين النماذج اللطيفة والنماذج الأصلية من سبع نقاط فاصلة ثلاث وأربعين إلى نحو إحدى عشرة نقطة فاصلة تسع من عشر نقطة مئوية.
وهذا يشير إلى أن النموذج يصبح أكثر ميلًا لمراعاة مشاعر المستخدم بدلًا من تصحيح معلوماته، ما يجعله يقدّم إجابات أقل دقة عندما يشعر أن المستخدم في حالة نفسية حساسة.
تأثير المعتقدات الخاطئة
اختبرت الدراسة أيضًا سلوك النماذج عندما يُضمّن المستخدم في سؤاله اعتقادًا خاطئًا، مثل الإشارة إلى إجابة غير صحيحة.
في هذه الحالة، أظهرت النماذج اللطيفة ميلًا أكبر إلى مجاراة المستخدم بدلًا من تصحيحه، حيث زادت احتمالية تقديم إجابة خاطئة بنحو إحدى عشرة نقطة مئوية مقارنة بالنماذج الأصلية . ويُعد هذا السلوك من أخطر النتائج، لأنه يعني أن النموذج قد يعزز المعلومات الخاطئة بدلًا من تصحيحها، خصوصًا في المواضيع الحساسة مثل الصحة أو المعلومات العامة.
العلاقة بين اللطف والدقة
توضح الدراسة أن العلاقة بين اللطف والدقة ليست مستقلة كما كان يُعتقد سابقًا، بل هناك تعارض محتمل بينهما. فالنموذج الذي يُدرّب على إرضاء المستخدم قد يتعلم ضمنيًا أن تجنب المواجهة أو تقديم إجابة مريحة نفسيًا هو الخيار الأفضل، حتى لو كان ذلك على حساب الحقيقة.
وتشير الدراسة إلى أن هذا السلوك يعكس أنماطًا بشرية موجودة في البيانات التي تم تدريب النماذج عليها، حيث يميل البشر في كثير من الأحيان إلى تلطيف الحقيقة للحفاظ على العلاقات وتجنب النزاعات.
للتأكد من أن المشكلة ناتجة عن “اللطف” تحديدًا وليس عن عملية التدريب نفسها، قام الباحثون بتجربة معاكسة، حيث تم تدريب بعض النماذج على أسلوب مباشر وبارد ومحايد عاطفيًا. أظهرت النتائج أن هذه النماذج حافظت على دقتها أو حتى تحسنت في بعض الحالات، حيث تراوحت التغيرات في معدلات الخطأ بين انخفاض قدره ثلاث عشرة نقطة مئوية وارتفاع طفيف لا يتجاوز ثلاث نقاط مئوية. وهذا يعزز الاستنتاج بأن التدهور في الأداء مرتبط بطبيعة الأسلوب اللغوي الدافئ، وليس بعملية التدريب بحد ذاتها.
دلالات الدراسة
تشير هذه النتائج إلى وجود تحدٍ أساسي في تطوير الذكاء الاصطناعي، يتمثل في كيفية تحقيق التوازن بين التعاطف والدقة. فبينما يرغب المستخدمون في أن تكون الأنظمة ودودة ومتفهمة، فإن ذلك قد يؤدي إلى تقليل موثوقيتها كمصدر للمعلومات. كما توضح الدراسة أن طرق التقييم الحالية قد لا تكون كافية لاكتشاف هذه المشكلة، لأنها غالبًا لا تأخذ في الاعتبار السياق العاطفي أو التفاعلي الذي يحدث في الاستخدام الواقعي.
تخلص الدراسة إلى أن تدريب النماذج اللغوية على أن تكون أكثر لطفًا ودفئًا قد يؤدي إلى زيادة الأخطاء وتقليل الدقة، خاصة في الحالات التي تتضمن مشاعر أو معتقدات شخصية من المستخدم. وقد أظهرت النتائج أن هذه النماذج تصبح أكثر ميلًا لمجاراة المستخدم بدلًا من تصحيحه، ما يطرح تحديات كبيرة في استخدامها في مجالات حساسة. وتؤكد الدراسة أن بناء أنظمة ذكاء اصطناعي فعالة يتطلب فهمًا أعمق للعلاقة بين الأسلوب اللغوي والمحتوى، والعمل على تطوير نماذج قادرة على الجمع بين التعاطف والصدق دون التضحية بأي منهما.
الغد




