دراما OpenAI والذكاء الاصطناعي والتكنولوجيا الكبيرة
بقلم راغو Raghu
شهد الشهر الماضي دراما كبيرة في أوبن أيه آي OpenAI، الشركة التي تقف وراء شات جي بي تي ChatGPT. فُصل الرئيس التنفيذي للشركة والمؤسس المشارك، سام ألتمان، من قبل مجلس إدارة OpenAI، بناءً على طلب كبير العلماء، إيليا سوتسكيفر، على ما يبدو. أرسلت هذه الخطوة موجات صادمة عبر عالم التكنولوجيا. كتب مهندسو OpenAI خطابًا إلى مجلس الإدارة يهددون فيه بالاستقالة احتجاجًا. وعرضت مايكروسوفت، التي استثمرت أكثر من 10 مليارات دولار في الشركة، توظيف سام ألتمان وغيره من المديرين التنفيذيين والمهندسين الرئيسيين. في مواجهة ثورة المستثمرين وانهيار تقييمها المرتفع البالغ 86 مليار دولار أمريكي، استسلم مجلس إدارة OpenAI، وحقق سام ألتمان عودة مظفرة بصفته الرئيس التنفيذي لشركة OpenAI. ما الذي يفسر هذا التسلسل المذهل للأحداث؟
سعت وسائل الإعلام الرئيسية إلى تصوير الأحداث على أنها صراع في وجهات النظر العالمية مع الرئيس التنفيذي سام ألتمان الذي يقود شركة OpenAI في طريق متهور، ويطارد الأرباح والتقييمات دون الالتفات إلى المخاوف الأخلاقية والسلامة لمجلس الإدارة بقيادة كبير العلماء إيليا سوتسكيفر. ووفقاً لموقع OpenAI الإلكتروني، فإن مهمتها هي “التأكد من أن الذكاء الاصطناعي العام يفيد البشرية جمعاء”. يشير الذكاء العام الاصطناعي (AGI) إلى الآلات التي تعمل على تطوير ذكاء شبيه بالإنسان لتمكينها من أداء مهام غير مألوفة وليس فقط المهام التي تمت برمجتها أو تدريبها عليها. في حين أن مجلس الإدارة رسميًا لم يقدم سوى بيان غامض حول الفصل، فإن السرد الذي روجته وسائل الإعلام هو أن مجلس الإدارة وخاصة إيليا سوتسكيفر كانوا يشعرون ن بقلق متزايد بشأن اتجاه OpenAI تحت قيادة الرئيس التنفيذي سام ألتمان. ويبدو أنهم كانوا قلقين من أن شركة OpenAI كانت في طريقها إلى تطوير الذكاء الاصطناعي العام، والذي، دون معالجة المخاوف المتعلقة بالسلامة، يمكن أن “يمحو البشرية”.
ذكرت رويترز أن العديد من الموظفين كتبوا إلى مجلس الإدارة يحذرون من “التهور والخطر المحتمل لمشروع بحث داخلي يعرف باسم كيو Q * (يُلفظ كيو ستار Q Star)”. يعتقد هؤلاء الأشخاص أن Q*، الذي يمكنه حل بعض المشكلات الرياضية على عكس ChatGPT، لديه القدرة على توفير اختراق بعيد المنال نحو الذكاء الاصطناعي العام. ومع ذلك، لا يزال باحثون آخرون في مجال الذكاء الاصطناعي متشككين في مثل هذه الادعاءات. ويشيرون إلى أن Q* يمكنه فقط حل المسائل الرياضية على مستوى المدرسة الابتدائية والتي يصعب تصنيفها على أنها ضخمة، كما أن هذه القدرات ليست جديدة ولكنها كانت معروفة منذ بعض الوقت وتم نشرها من قبل فرق بحثية أخرى.
كان إيليا سوتسكيفر هو الذي قاد الحديث عن كون الذكاء الاصطناعي العام وشيكًا، بل وادعى أن ChatGPT أظهر لمحات من كونه “واعيًا بعض الشيء”. لقد اعترض باحثون آخرون على مثل هذه الادعاءات والذين أطلقوا على نماذج اللغة الكبيرة (LLMs) مثل ChatGPT اسم “الببغاوات العشوائية” التي تجيد التقليد وخداع الناس للاعتقاد بأنهم أذكياء من خلال ترديد مجموعة كبيرة من النصوص التي استوعبوها ولكنهم ليسوا كذلك. ليس لديهم حقًا أي مستوى من الفهم مثل الإنسان. في الآونة الأخيرة، كان إيليا نفسه يتحدث عن مثل هذه النماذج “التي أصبحت مارقة” وتشكل تهديدًا للإنسانية. سواء كان إيليا يصدق غلوه أم لا، فمن الواضح أنه يضيف إلى الضجيج الذي تقوم به شركة OpenAI بعمل رائد لتحقيق الذكاء الاصطناعي العام، وبالتالي رفع تقييم الشركة في عيون المستثمرين وتمكينها من جمع المزيد من التمويل لتغذية أنشطتها البحثية باهظة الثمن. .
وبعيداً عن الضجيج الذي يخدم المصالح الذاتية لنماذج الذكاء الاصطناعي فائقة الذكاء التي يتم تقديمها باعتبارها مخاوف أخلاقية، يتعين علينا أن ننظر إلى الطرق الأكثر اعتيادية التي تعمل من خلالها نماذج الذكاء الاصطناعي نيابة عن مصالح الشركات الاحتكارية على إلحاق الضرر بالمجتمع والإنسانية، وغالباً ما تستهدف الفقراء والأقليات العرقية والدينية. نحن نعلم حجم الدمار الذي أحدثته خوارزميات وسائل التواصل الاجتماعي للمجتمعات والديمقراطيات من خلال نشر الأخبار المزيفة وخلق فقاعات مليئة بالكراهية. لدينا أيضًا العديد من الأمثلة على أنظمة اتخاذ القرار المعتمدة على الذكاء الاصطناعي في جميع أنحاء العالم، والتي تحرم الأشخاص من مطالبات التأمين المشروعة، والمزايا الطبية والاستشفائية، ومزايا الرعاية الاجتماعية الحكومية. لقد تورطت أنظمة الذكاء الاصطناعي في الولايات المتحدة في سجن الأقليات لفترات أطول. بل وكانت هناك تقارير عن سحب الحقوق الأبوية من الآباء من الأقليات استناداً إلى ارتباطات إحصائية زائفة، والتي غالباً ما تتلخص في عدم حصولهم على ما يكفي من المال لإطعام أطفالهم والعناية بهم “بشكل مناسب”. وكما كتب اللغوي الشهير نعوم تشومسكي في مقال حديث، “يُظهر ChatGPT شيئًا يشبه تفاهة الشر: الانتحال واللامبالاة والتغاضي”.
لا يمكننا الاعتماد على أخلاق احتكارات التكنولوجيا الكبرى مثل جوجل ومايكروسوفت وفيسبوك وغيرها أو الشركات الممولة منها مثل OpenAI للتنظيم الذاتي وكبح ميولها الاحتكارية لمطاردة الأرباح الفائقة والعمل من أجل خير البشرية. ولن يلعب كبار المسؤولين التنفيذيين من أصحاب الملايين في مثل هذه الشركات، الذين تحركهم موضة عابرة مثل “الإيثار الفعال”، مثل هذا الدور. ويتعين على الحكومات في جميع أنحاء العالم أن تكثف وتتصرف بسرعة لمنع هذه الاحتكارات التكنولوجية ونماذج الذكاء الاصطناعي الخاصة بها من إلحاق الضرر بالمجتمع بطرق لا تعد ولا تحصى. ونظرًا لطبيعتها التأسيسية، يجب على الحكومة التعامل مع هذه التقنيات باعتبارها منافع عامة. ويتعين على الحكومات أن تشارك في إنشاء مبادرات عامة لتمويل البحث والتطوير في هذه التكنولوجيات الواعدة حتى يتسنى تطويرها ونشرها بشكل آمن وأخلاقي من أجل الصالح العام للبشرية.
المصدر
ديمقراطية الشعب
صحيفة الحزب الشيوعي الهندي الماركسي
الآراء الواردة في هذا المقال هي آراء الكاتب فقط، ولا تعكس آراء الموقع. الموقع غير مسؤول على المعلومات الواردة في هذا المقال.