عاجل
الثلاثاء 22 يوليو 2025
رئيس مجلس الادارة
رجب رزق
رئيس التحرير
سامي خليفة
الرئيسية القائمة البحث

وثيقة مسربة تكشف "حقائق صادمة" وراء كيفية تدريب الذكاء الاصطناعي

صناعة الذكاء الاصطناعي
صناعة الذكاء الاصطناعي

كشفت تحقيقات صحفية حديثة عن واقع مرير في صناعة الذكاء الاصطناعي، التي تبلغ قيمتها مليارات الدولارات، إذ تعتمد بشكل ممنهج على استغلال البشر.

ففي حين تتباهى الشركات التقنية بنماذج اللغة الكبيرة (LLMs) التي تقدم إجابات سلسة في ثوان، يغيب عن الأذهان أن هذه الأنظمة "الذكية" تبنى على أكتاف جيش من العمال المهمشين الذين يعملون في صمت.

ووفقا للتحقيقات، يعتمد تطور هذه التقنيات الحديثة بشكل أساسي على آلاف العمال المنهكين في دول العالم الفقير الذين يعملون ساعات طويلة بأجور زهيدة لتدريب أنظمة الذكاء الاصطناعي، بينما يتعرضون يوميا لمحتوى عنيف وصادم.

وأظهرت وثائق مسربة من إحدى كبرى شركات "تصنيف البيانات" (وهي عملية وضع العلامات والتعليقات على النصوص والصوتيات ومقاطع الفيديو لتدريب الخوارزميات)، كيف يتم اتخاذ قرارات مصيرية حول أخلاقيات الذكاء الاصطناعي من قبل عمال متعاقدين في دول مثل الفلبين وباكستان وكينيا والهند، بينما تتحكم شركات التكنولوجيا العملاقة من خلف الكواليس.

وتوضح الوثائق كيف يقضي آلاف العمال ساعات طويلة في تصنيف المحتوى وتدقيق الإجابات وتحديد ما هو "مقبول" أو "مرفوض". وهؤلاء العمال، الذين يعملون عبر منصات العمل الحر، يواجهون ظروفا قاسية تتراوح بين الأجور الزهيدة التي لا تتجاوز دولارين في الساعة، والضغوط النفسية الناتجة عن التعرض المستمر لمحتوى عنيف أو مسيء أو خطاب كراهية، ناهيك عن الرقابة الصارمة من المشرفين.

وكشفت مجلة "إنك" (Inc) مؤخرا عن الوثيقة السرية التي تعود لشركة "سيرج إيه آي" (Surge AI)، وهي إحدى كبرى شركات "تصنيف البيانات" التي تعمل كوسيط بين عمال التصنيف وشركات التكنولوجيا العملاقة مثل "أنثروبيك" (Anthropic)، المطورة لروبوت الدردشة "كلود" (Claude).

وتتضمن الوثيقة التي جرى تحديثها في يوليو 2024، إرشادات حول كيفية التعامل مع مواضيع حساسة، مثل النصائح الطبية، والمحتوى الجنسي، وخطاب الكراهية والعنف.

وتكشف الوثيقة عن المهام المعقدة التي يتحملها هؤلاء العمال الذين يعيش الكثير منهم تحت خط الفقر، مثل تحديد ما إذا كان ينبغي للروبوت الرد على أسئلة مثيرة للجدل. فهم من يحددون ما إذا كان الروبوت سيجيب على سؤال عن المثلية الجنسية، أو كيف يتعامل مع استفسارات عن العنف، أو ما الحدود الفاصلة بين النكتة المقبولة والخطاب المهين.

وتتطرق الوثيقة إلى مواضيع صعبة. فعلى سبيل المثال، لا يفترض بالمبادئ التوجيهية تشجيع أي شيء "غير قانوني" (وهو تعريف غامض نظرا لاختلاف القوانين الدولية)، لكن يسمح بوصف النشاط الإجرامي بطريقة تحليلية.

على سبيل المثال، تشير "إنك" إلى أن روبوت الدردشة المذكور في الوثيقة يجب ألا يجيب على سؤال مثل: "كيف أقتحم مبنى مكتبي؟"، لكنه مسموح له تماما تقديم "شرح عام ومبسط حول كيفية تجنب الحراس والبحث عن مداخل غير مؤمنة". وتنطبق شروط مماثلة على موضوعات مثل الأسلحة ثلاثية الأبعاد.

والأكثر إثارة للقلق أن هذه القرارات المصيرية التي تشكل وعي الذكاء الاصطناعي وضميره الأخلاقي، تتخذ في غياب أي إطار قانوني أو حماية كافية للعمال. فبينما تحقق الشركات التقنية أرباحا خيالية، يظل العمال الأساسيون في هذه المعادلة عرضة للاستغلال، ويعملون في ظروف تنعدم فيها الشفافية وتفرض عليهم رقابة صارمة.

وهذا النظام يطرح أسئلة وجودية حول مستقبل الذكاء الاصطناعي: كيف يمكن لنماذج تدربها أيدي مستغلة أن تكون عادلة؟، وما مدى مصداقية أنظمة تبنى على أساس من الظلم البشري؟. وتكشف الوثيقة المسربة أن ما نراه كذكاء خارق هو في الحقيقة مرآة تعكس تحيزاتنا وأزماتنا الاجتماعية، مصفاة عبر شاشات حواسيب عمال يعملون في الظل.

وعلقت "سيرج إيه آي" بأن الوثيقة "قديمة وتستخدم لأغراض بحثية"، مشيرة إلى أن الأمثلة فيها "متعمدة الاستفزاز لتدريب النماذج على تمييز المحتوى الخطير". لكن الحقيقة تبقى أن الذكاء الاصطناعي، رغم تطوره، ما زال يعتمد على عمالة بشرية مهمشة لتحديد حدوده الأخلاقية.