
1آذار (سياحة) – تتركز أغلب النقاشات المرتبطة بالذكاء الاصطناعي التوليدي حول مخاطر كبرى؛ كالتحيز والهلوسة وإساءة الاستخدام أو القرارات الآلية غير القابلة للتفسير. لكن دراسة بحثية جديدة تلفت الانتباه إلى مصدر مختلف تماماً للمخاطر المحتملة. إنها الرموز الصغيرة التي نستخدمها يومياً من دون تفكير مثل الوجوه التعبيرية النصية (emoticons).
الدراسة، المنشورة على منصة «arXiv» تكشف عن أن نماذج اللغة الكبيرة قد تُسيء فهم هذه الرموز البسيطة بطرق تؤدي إلى أخطاء وظيفية صامتة، لا تظهر على شكل أعطال واضحة، بل في مخرجات تبدو صحيحة شكلياً لكنها لا تعكس نية المستخدم الحقيقية.
على عكس الرموز التعبيرية الحديثة (emoji) التي تمثل وحدات مرئية موحدة، تعتمد الوجوه التعبيرية النصية مثل «: -)» أو «: P» على تسلسل أحرف «ASCII». ورغم بساطتها ، تحمل هذه الرموز معاني سياقية دقيقة، تختلف باختلاف الثقافة أو سياق الاستخدام. المشكلة، بحسب الباحثين، أن نماذج اللغة لا تتعامل دائماً مع هذه الرموز باعتبارها إشارات دلالية، بل قد تفسرها أحياناً كجزء من الشيفرة البرمجية أو كنص حرفي بلا معنى عاطفي.
هذا الالتباس الدلالي قد يبدو تفصيلاً صغيراً، لكنه يصبح أكثر خطورة عندما تُستخدم نماذج الذكاء الاصطناعي في مهام حساسة، مثل توليد الشيفرات البرمجية أو تحليل التعليمات أو تشغيل وكلاء آليين يتخذون قرارات تلقائية.










