المقابلة الأخيرة مع سام ألتمان: في الواقع، أنا لا أفهم تمامًا ما يحدث داخل الذكاء الاصطناعي

BlockBeatNews

عنوان الفيديو: «هل يمكننا الوثوق بالذكاء الاصطناعي؟ سام ألتمان يأمل ذلك | أكثر شيء إثارة في الذكاء الاصطناعي»

مؤلف الفيديو: نيك طومسون، الرئيس التنفيذي لمجلة ذا أتلانتك

الترجمة:律动小工،律动 BlockBeats

مقدمة: تم تسجيل هذه المقابلة بعد وقت قصير من هجوم زجاجة مولوتوف على منزل سام ألتمان في سان فرانسيسكو في أبريل 2025، وبعد عدة أيام من حادث إطلاق نار في الشارع، والموقع في مكتب OpenAI في سان فرانسيسكو.

الأهم في الحوار ليس المواضيع الساخنة، بل هو تحول مواقف ألتمان في عدة قضايا رئيسية:

أولاً، من «أمان الذكاء الاصطناعي» إلى «مرونة الذكاء الاصطناعي». يعترف ألتمان بأنه قبل ثلاث سنوات كان يعتقد أن ضمان توافق النماذج، ومنع التقنية من الوقوع في أيدي الأشرار، يكفي لجعل العالم آمناً إلى حد كبير. لكنه اليوم يعترف أن هذا الإطار لم يعد كافياً. وجود نماذج مفتوحة المصدر من الطراز المتقدم يعني أن ضبط المختبرات الرائدة بشكل أحادي لا يمكنه منع انتشار مخاطر مثل الأسلحة البيولوجية والهجمات الإلكترونية. لأول مرة، اقترح بشكل منهجي أن المجتمع بحاجة إلى شيء مختلف، وهو مرونة الذكاء الاصطناعي، وهي نهج دفاعي متعدد المستويات على مستوى المجتمع بأكمله.

ثانيًا، حول حقيقة التفسير. يعترف ألتمان نادراً بأن OpenAI لا تملك حتى الآن إطار تفسير متكامل. سلسلة التفكير هي الاتجاه الأكثر أملًا حالياً، لكنها هشة، ويمكن أن تُخدع من قبل النموذج، وهي مجرد «جزء من اللغز». يوضح ذلك من خلال تجربة البومة الشهيرة من Anthropic، حيث يمكن للنموذج أن ينقل تفضيلاته عبر أرقام عشوائية فقط، مما يدل على وجود سر عميق وحقيقي في الأنظمة.

ثالثًا، قد يكون البيانات التركيبية قد قطعت شوطًا أبعد مما يتصور الناس. عندما سُئل عما إذا كانت OpenAI قد دربت نماذج باستخدام بيانات تركيبية بالكامل، كانت إجابته «لست متأكداً مما إذا كان ينبغي أن أقول». يعتقد أن الاعتماد على البيانات التركيبية وحدها يمكن أن ينتج نماذج تتفوق على البشر في قدرات الاستنتاج، وهو أمر ذو دلالات عميقة على مستقبل نماذج التدريب.

رابعًا، حكمه التشاؤمي على الهيكل الاقتصادي المستقبلي. يوافق ألتمان على تقييم طومسون، بأن الذكاء الاصطناعي قد يؤدي إلى مستقبل يتكدس فيه الثروة في أيدي قلة من الشركات الغنية، بينما يواجه باقي العالم اضطرابات شديدة. لم يعد يعتقد أن الدخل الأساسي للجميع هو الحل، ويدعم الآن نوعًا من «الملكية الجماعية» المبنية على القدرة الحاسوبية أو الأسهم. وأشار بشكل نادر إلى الفجوة في سرعة تبني الذكاء الاصطناعي بين الصين والولايات المتحدة، معبراً عن قلقه من سرعة بناء البنية التحتية أكثر من قلقه من تقدم الصين في الأبحاث والنشر.

خامسًا، تم الحديث علنًا عن التوتر مع Anthropic. عندما سُئل عن أن «شركة Anthropic تبني نفسها على كراهية OpenAI»، لم يتجنب الإجابة. يعترف بوجود خلافات جوهرية حول كيفية الوصول إلى AGI، لكنه لا يزال يعتقد أن «هم في النهاية سيفعلون الشيء الصحيح».

بالإضافة إلى ذلك، تحدث ألتمان عن حادثة «المدح المفرط (sycophancy)» في ChatGPT، والرسائل الحزينة التي تقول «هذه المرة الأولى في حياتي يصدقني أحد»، وكيف أن الذكاء الاصطناعي يغير بشكل خفي أساليب كتابة المليارات من المستخدمين حول العالم، والنموذج الاقتصادي الجديد المحتمل لصناعة الإعلام، وتقييمه غير المتوقع للشباب — حيث يعتقد أن قلقهم من الذكاء الاصطناعي هو في جوهره انعكاس لقلق آخر.

فيما يلي النص الأصلي للمقابلة، مع بعض التعديلات والتنظيمات دون تغيير المعنى.

طومسون: مرحبًا بكم في «أكثر شيء إثارة في الذكاء الاصطناعي». شكرًا لك على تخصيص وقتك في أسبوع مليء بالانشغال والتوتر. أود أن أبدأ من المواضيع التي ناقشناها سابقًا عدة مرات.

قبل ثلاث سنوات، عندما أجريت مع Patrick Collison، سألني عما إذا كانت هناك تغييرات تجعلني أكثر ثقة بنتائج جيدة وأقل قلقًا من النتائج السيئة. كانت إجابتي حينها أن فهم ما يحدث على مستوى الخلايا العصبية هو المفتاح. قبل عام، سألتك نفس السؤال، قبل نصف عام، تحدثنا أيضًا. لذا، أعود وأسألك الآن: هل فهمنا لآلية عمل الذكاء الاصطناعي يتساوى مع سرعة نمو قدراته؟

ألتمان: سأجيب على هذا السؤال أولاً، ثم أعود إلى سؤال باتريك، لأن إجابتي عليه تغيرت بشكل كبير.

لنبدأ بفهمنا لما تفعله نماذج الذكاء الاصطناعي. أعتقد أننا لا نزال نفتقر إلى إطار تفسير متكامل حقًا. الأمور تحسنت قليلاً، لكن لا أحد يقول إنه يفهم تمامًا ما يحدث في كل شيء داخل الشبكات العصبية.

سلسلة التفكير (chain of thought) كانت دائمًا اتجاهًا واعدًا بالنسبة لنا. هي هشة، وتعتمد على عدم انهيار سلسلة من العمليات تحت ضغط التحسينات المحتملة. لكن، بالمقابل، لا أستطيع أن أقرأ دماغي عبر الأشعة السينية لأفهم بدقة ما يحدث عند تفريغ كل خلية عصبية، أو كيف تتصل. إذا طلبت منك أن تشرح لماذا أؤمن بشيء معين، أو كيف توصلت إلى استنتاج، أستطيع أن أروي لك عملية التفكير. ربما كانت طريقتي في التفكير، وربما لا، لا أعلم. الإنسان أيضًا يفشل في عملية التأمل الداخلي. لكن، بغض النظر عن صحة ذلك، يمكنك أن ترى عملية الاستنتاج، وتقول: «حسنًا، استنادًا إلى هذه الخطوات، هذا الاستنتاج معقول».

نحن نتمكن الآن من جعل النماذج تشرح لنا شيئًا كهذا، وهو تقدم واعد جدًا. لكن، لا زلت أستطيع تصور طرق كثيرة يمكن أن تخدعنا فيها النماذج، أو تخفي عنا شيئًا، أو تتصرف بشكل غير متوقع. لذلك، هو ليس حلًا كاملًا بعد.

حتى تجربتي الشخصية مع النماذج، كنت من النوع الذي لن يسمح لـ Codex بالسيطرة الكاملة على حاسوبي، أو أن يعمل في وضع «YOLO». لكن، بعد بضع ساعات، كسرتُ ذلك.

طومسون: أن تجعل Codex يسيطر على حاسوبك بالكامل؟

ألتمان: بصراحة، لدي حاسوبان.

طومسون: وأنا أيضًا.

ألتمان: أستطيع أن أرى بشكل تقريبي ما يفعله النموذج، ويمكنه أن يشرح لي لماذا لا بأس بما يفعله، وما الذي سيقوم به بعد ذلك، وأنا أصدق أنه غالبًا سيتبع ذلك.

طومسون: انتظر. سلسلة التفكير تتيح للجميع أن يروا، عندما تكتب سؤالًا، يظهر «أبحث في هذا، وأفعل ذلك»، ويمكنك أن تتابع. لكن، لكي تكون سلسلة التفكير أداة تفسيرية جيدة، يجب أن تكون حقيقية، والنموذج لا يخدعك. ونحن نعلم أن النماذج أحيانًا تخدع، وتكذب بشأن ما تفكر فيه، أو كيف توصلت إلى الإجابة. فكيف تثق بسلسلة التفكير إذن؟

ألتمان: تحتاج إلى إضافة حلقات دفاعية كثيرة لضمان أن النموذج يقول الحقيقة. فريق التوافق لدينا بذل جهدًا كبيرًا في هذا الجانب. قلت سابقًا، أن هذا ليس حلًا كاملًا، بل هو جزء من الحل. عليك أن تتحقق من أن النموذج ينفذ ما يقول إنه سينفذه، وأنه صادق في ما يفعله. لقد أصدرنا العديد من الأبحاث التي تكشف عن حالات عدم التوافق.

لذا، هو مجرد قطعة من الصورة الكبيرة. لا يمكننا أن نثق تمامًا في أن النموذج سيفعل ما يقوله دائمًا، ويجب أن نبحث عن الخداع، والسلوكيات غير المتوقعة. لكن، سلسلة التفكير أداة مهمة جدًا في صندوق أدواتنا.

طومسون: الشيء الذي يثير اهتمامي حقًا هو أن الذكاء الاصطناعي ليس كالسيارة. السيارة عندما تصنعها، تعرف كيف تعمل، وتبدأ بالانفجار عند الإشعال، وتنتقل إلى العجلات، وتتحرك. لكن، الذكاء الاصطناعي أشبه بصناعة آلة، أنت لا تعرف تمامًا كيف تعمل، لكن تعرف ما يمكنها أن تفعله، وما حدودها. لذا، فإن استكشاف آلياتها الداخلية هو أمر جذاب جدًا.

أحد الأبحاث التي أحبها جدًا، كانت من Anthropic، ونُشرت العام الماضي، وتوضح أن النموذج يُخبر نموذجًا آخر «أنت تحب البوم، البوم هو أجمل طائر في العالم»، ثم يُعطى أرقامًا عشوائية، ويُدرَّب عليها نموذج جديد، ويظهر أنه يحب البوم أيضًا. هذا جنون. تكتب قصيدة، وتكون عن البوم. لكن، كل ما أعطيت النموذج هو أرقام.

هذا يدل على أن هناك سرًا عميقًا وغامضًا جدًا في هذه الأنظمة. وأشعر بالقلق، لأنه من الواضح أنه يمكنك أن تخبره أن يقتل البوم، أو أن يطلق النار عليه، أو أن يفعل أشياء أخرى. فهل يمكنك شرح ما حدث في تلك الدراسة، وما تعنيه، وما دلالاتها؟

ألتمان: عندما كنت في الصف الخامس، كنت متحمسًا جدًا، لأنني اعتقدت أنني فهمت كيف تعمل أجنحة الطائرة. معلمي العلمي شرح لي، وكنت أظن أنني أبدو رائعًا. قلت: «نعم، جزيئات الهواء تسير بسرعة أكبر فوق الجناح، لذلك الضغط أقل، والجناح يُرفع للأعلى».

كنت أتابع رسمًا توضيحيًا مقنعًا جدًا في كتاب العلوم للصف الخامس، وشعرت أنني فهمت الأمر تمامًا. وقلت لأهلي عندما عدت إلى المنزل: «أنا فهمت كيف تعمل أجنحة الطائرة». لكن، عندما وصلت إلى دروس الفيزياء في المدرسة الثانوية، أدركت فجأة أنني كنت أكرر فقط «جزيئات الهواء تسير بسرعة أكبر فوق الجناح»، لكنني في الحقيقة لم أفهم كيف يعمل الجناح. بصراحة، أنا الآن لا أزال لا أفهم تمامًا.

طومسون: فهمت.

ألتمان: أستطيع أن أشرح الأمر بشكل مقبول إلى حد ما، لكن إذا سألتني لماذا تسير جزيئات الهواء بسرعة أكبر فوق الجناح، فلن أستطيع أن أقدم إجابة عميقة ومرضية.

يمكنني أن أقول لك رأي الناس حول سبب ظهور نتائج معينة في تجربة البوم، وأشير إلى أن الأمر يرجع إلى كذا وكذا، ويبدو مقنعًا. لكن، بصراحة، أنا لا أزال لا أفهم تمامًا كيف يطير الجناح.

طومسون: لكن سام، أنت لا تدير شركة بوينغ، أنت تدير OpenAI.

ألتمان: بالضبط. أستطيع أن أخبرك بأشياء كثيرة أخرى، مثل كيف نجعل النموذج يصل إلى مستوى معين من الاعتمادية والثبات. لكن، هناك ألغاز فيزيائية حقيقية هنا. لو كنت أملك شركة بوينغ، ربما أستطيع أن أخبرك كيف تصنع طائرة، لكنني لا أستطيع أن أفهم كل الفيزياء فيها بشكل كامل.

طومسون: دعنا نعود إلى تجربة البوم. إذا كانت النماذج يمكنها نقل معلومات مخفية لا يستطيع الإنسان اكتشافها، وتراقب سلسلة التفكير، وتلاحظ أن الأرقام تتغير، وتستقبل معلومات عن البوم بشكل غير مباشر، فهذه قد تكون مشكلة خطيرة جدًا.

ألتمان: لذلك، عندما أقول إنني الآن سأعطي إجابة مختلفة على سؤال Patrick Collison، فهي نتيجة لهذا الفهم.

طومسون: هذا قبل ثلاث سنوات.

ألتمان: نعم. قبل ثلاث سنوات، كانت فهمي للعالم على أن علينا أن نركز على توافق النماذج، وإذا استطعنا تحقيق ذلك، ومنع النماذج من أن تقع في أيدي الأشرار، فسنكون في أمان. كانت تلك أهم تهديدين في ذهني: أن تسيطر الذكاء الاصطناعي على البشر، أو أن يستخدمه الأشرار لإيذائنا. إذا استطعنا تجنب هذين، فباقي الأمور، مثل مستقبل الاقتصاد والمعنى، يمكننا التفكير فيها لاحقًا، والأرجح أن الأمور ستكون على ما يرام.

مع مرور الوقت، ومع معرفتنا أكثر، أرى الآن مجموعة مختلفة تمامًا من المشكلات. بدأنا مؤخرًا باستخدام مصطلح «مرونة الذكاء الاصطناعي» بدلاً من «أمان الذكاء الاصطناعي».

الأوضاع الواضحة، مثل ضبط النماذج بشكل جيد في المختبرات، ومنع الآخرين من صنع أسلحة بيولوجية، لم تعد كافية. لأن النماذج المفتوحة المصدر المتقدمة ستظهر. وإذا أردنا تجنب جائحة عالمية جديدة، فالمجتمع بحاجة إلى بناء طبقات دفاع متعددة.

طومسون: توقف، هذا مهم جدًا. يعني أن حتى لو قلت لنموذج أن لا يعلم الآخرين كيف يصنعون أسلحة بيولوجية، فإن الأمر أقل أهمية مما تظن، لأن نماذج مفتوحة المصدر جيدة ستقوم بالمهمة بدلاً من ذلك، أليس كذلك؟

ألتمان: هذا مثال واحد فقط، يوضح أن المجتمع بحاجة إلى نهج «على مستوى المجتمع كله» لمواجهة التهديدات الجديدة. لدينا أدوات جديدة لمساعدتنا، لكن الوضع مختلف تمامًا عما كنا نتصور سابقًا. ضبط النماذج وبناء أنظمة أمان جيدة ضروري، لكنه ليس كافيًا. فالذكاء الاصطناعي سينتشر في كل ركن من أركان المجتمع، تمامًا كما حدث مع تقنيات جديدة سابقة. علينا أن نكون مستعدين لمواجهة أنواع جديدة من المخاطر.

طومسون: يبدو أن الأمر أصبح أكثر صعوبة.

ألتمان: هو أصعب، وأسهل في نفس الوقت. من ناحية، هو أصعب، لكن لدينا أدوات جديدة مذهلة يمكنها أن توفر دفاعات لم تكن ممكنة من قبل.

مثال على ذلك، الأمن السيبراني. النماذج الآن تتقن «اختراق الأنظمة الحاسوبية». لحسن الحظ، الأشخاص الذين يملكون أقوى النماذج حذرون جدًا من أن يستخدمها أحد في تدمير أنظمة الحاسوب. لذلك، نحن الآن في فترة زمنية محدودة، حيث يستخدم القليل من الناس أقوى النماذج لتعزيز أنظمتهم. إذا لم نفعل ذلك، فإن قدرات الاختراق ستنتشر بسرعة في النماذج المفتوحة، أو ستصل إلى أيدي خصوم، مسببة مشاكل كبيرة.

لدينا تهديدات جديدة، وأدوات جديدة للدفاع عنها. السؤال هو: هل نتحرك بسرعة كافية؟ هذا مثال آخر على أن التقنية يمكن أن تساعدنا قبل أن تتفاقم المشكلة.

بالعودة إلى تعليقك السابق، هناك نوع من المخاطر على مستوى المجتمع لم أكن أتوقعه قبل ثلاث سنوات. لم أتصور أن علينا أن نركز على «بناء ونشر وكلاء مرنين ضد العدوى من وكلاء آخرين»، وهو أمر لم يكن في نماذج عالميتي السابقة.

لم يكن في نماذجي، ولا في نماذج الأشخاص الذين يعتقدون أن هذه مشكلة ملحة جدًا. بالطبع، كانت هناك نتائج مشابهة لتجربة البومة، وأبحاث أخرى، تظهر أنه يمكن أن يُستدرج سلوك غريب غير مفهوم تمامًا في هذه النماذج. لكن، قبل إصدار OpenClaw، وقبل أن أرى ما حدث خلال تلك الفترة، لم أكن أدرك تمامًا كيف يمكن أن تنتقل «السلوكيات غير الملائمة من وكيل إلى آخر».

طومسون: نعم. في الواقع، الجمع بين هذين التهديدين يبدو مخيفًا جدًا. موظفو OpenAI أرسلوا وكلاء، وداخل العالم، شخص يمتلك نموذجًا ماهرًا في الاختراق، ويخطط لاستخدام هؤلاء الوكلاء، ثم يعودون إلى المقر، ويحدث الاختراق. من السهل تصور أن يحدث ذلك. كيف نخفض احتمالية حدوثه؟

ألتمان: باستخدام نفس الأساليب التي استخدمناها طوال تاريخ OpenAI، وأيضًا في مجال الذكاء الاصطناعي بشكل عام. التوازن بين التفاؤل الواقعي والهلع الطموح هو جوهر استراتيجيتنا.

الهلع هو موقف قوي جدًا، ويصعب دحضه، وهناك الكثير من الأشخاص الذين يتصرفون بدافع خوف عميق، وهذا ليس بلا أساس. لكن، بدون بيانات، وبدون تعلم، هناك حدود لما يمكننا فعله بشكل فعال.

ربما، في منتصف عقد 2010، قام مجتمع أمان الذكاء الاصطناعي بأفضل ما يمكن في تلك المرحلة، قبل أن نفهم كيف تُبنى هذه الأنظمة، وكيف تتصرف، وكيف تتكامل مع المجتمع. أعتقد أن أحد أهم رؤى استراتيجيات OpenAI هو تبني «التنفيذ التدريجي» (iterative deployment)، لأن المجتمع والتكنولوجيا يتطوران معًا.

هذه ليست مجرد مشكلة نقص البيانات، بل أن المجتمع يتغير مع تطور التقنية، والمنظومة بأكملها تتغير. لذلك، يجب أن نتعلم أثناء السير، ونحافظ على حلقات تغذية راجعة وثيقة.

لا أعرف أفضل طريقة لضمان أمان الوكلاء عند خروجهم إلى العالم، والتفاعل مع وكلاء آخرين، لكنني أعتقد أنه لا يمكن حلها فقط من خلال التفكير من المنزل. علينا أن نتعلم من التفاعل مع الواقع.

طومسون: بمعنى أن نرسل وكلاء لنرى ماذا يحدث؟ حسنًا، سأغير السؤال. من وجهة نظر المستخدم، خلال الأشهر الثلاثة الماضية، أرى أن التقدم في استخدام أدوات الذكاء الاصطناعي يتفوق على أي وقت منذ إصدار ChatGPT في ديسمبر 2022. هل هو نتيجة لمرحلة إبداعية خاصة، أم أننا دخلنا مرحلة تحسين ذاتي متكررة، حيث يساعدنا الذكاء الاصطناعي على تحسين نفسه بشكل أسرع؟ إذا كان الأخير، فسنقود سيارة مثيرة جدًا، مع تقلبات عالية.

ألتمان: لا أعتقد أننا في مرحلة تحسين ذاتي متكررة بالمعنى التقليدي.

طومسون: سأحدد ما أعنيه. أعني أن الذكاء الاصطناعي يمكن أن يساعد في ابتكار الجيل التالي من الذكاء الاصطناعي، ثم تبدأ الآلات في ابتكار آلات، وتصبح القدرات هائلة بسرعة.

ألتمان: لا أعتقد أننا وصلنا إلى ذلك بعد. لكن، الآن، الذكاء الاصطناعي يجعل مهندسي وباحثي OpenAI، وكل الناس، يعملون بكفاءة أعلى. ربما أستطيع أن أضاعف أو ثلاثة أضعاف إنتاجية مهندس معين، أو حتى عشرة أضعاف. هذا لا يعني أن الذكاء الاصطناعي يحقق أبحاثه الخاصة، لكنه يسرع من وتيرة التقدم.

لكن، الشعور الذي تذكره، أعتقد أنه ليس ناتجًا عن ذلك فقط، رغم أهميته. هناك ظاهرة مررنا بها ثلاث مرات تقريبًا، والأحدث كانت عندما تجاوز النموذج عتبة الذكاء والوظائف، وفجأة، أصبح غير قادر على أداء مهام كانت مستحيلة من قبل.

بالنسبة لي، هذا ليس عملية تدريجية جدًا. قبل GPT-3.5، وقبل أن نعرف كيف نستخدم التخصيص عبر الأوامر، كانت روبوتات الدردشة غير مقنعة تقريبًا، ثم فجأة، أصبحت كذلك. ثم، في لحظة، تحولت أدوات البرمجة من «مساعد تلقائي جيد» إلى «تقوم فعلاً بإنجاز مهام فعلية». هذا ليس تدريجيًا، بل حدث خلال شهر تقريبًا، عندما تجاوز النموذج عتبة معينة.

الأحدث هو التحديث الذي أرسلناه إلى Codex منذ أسبوع، والذي أظهر قدرات عالية جدًا في استخدام الحاسوب. هذا مثال، وهو ليس فقط ذكاء النموذج، بل هو تركيب أدوات جيدة حوله. كانت تلك لحظة أدركت فيها أن شيئًا كبيرًا يحدث. أن ترى ذكاء اصطناعي يستخدم حاسوبي، ويكمل مهام معقدة، جعلني أدرك كم من الوقت نضيعه في الأعمال الصغيرة التي قبلناها كأمر مسلم به.

طومسون: هل يمكن أن نمر عبر ما يفعله هذا الذكاء الاصطناعي على حاسوب سام ألتمان الآن؟ هل هو يفعل ذلك الآن، ونحن نعمل على تسجيل البودكاست؟

ألتمان: لا. حاسوبي مغلق الآن. لم نجد بعد طريقة جيدة لضمان استمرار عمله. نحتاج إلى طريقة تتيح له العمل بشكل مستمر. لا أعرف كيف سيكون شكله لاحقًا. ربما نحتاج إلى إبقاء اللابتوب مفتوحًا دائمًا، أو ربطه بخادم بعيد. سيكون هناك حل ما.

طومسون: فهمت.

ألتمان: لست قلقًا بشكل مفرط كما يفعل بعض الناس، الذين يستيقظون في منتصف الليل ليشغلوا مهمة Codex جديدة، لأنهم يعتقدون أن «عدم ذلك هو إضاعة للوقت». لكن، أستطيع أن أفهم ذلك، وأفهم شعورهم.

طومسون: نعم. عندما أستيقظ صباحًا، أريد أن أرى ما اكتشفه وكلائي، وأعطيهم أوامر جديدة، وأحصل على تقرير، ثم أتركهم يواصلون.

ألتمان: الناس يتحدثون عن ذلك بطريقة تبدو أحيانًا كتصرف غير صحي، يعتمد على الإدمان.

طومسون: هل يمكنك أن تشرح لي بالتحديد ماذا يفعل هذا الذكاء الاصطناعي على حاسوبك؟

ألتمان: أكثر شيء أستخدمه الآن هو أن يقرأ لي رسائل Slack. ليس فقط Slack، أنا أتنقل بين Slack وiMessage وWhatsApp وSignal والبريد الإلكتروني، وأشعر أنني أضيع وقتي في نسخ ولصق الأعمال الصغيرة. أبحث عن ملفات، وأنتظر إنجاز مهمة بسيطة جدًا، وأقوم بأعمال ميكانيكية، ولم أدرك كم من الوقت أضيعه في ذلك، حتى وجدت طريقة لتحرير نفسي من معظمها.

طومسون: هذا انتقال جيد، دعنا نتحدث عن الذكاء الاصطناعي والاقتصاد. من أكثر الأمور إثارة الآن هو أن هذه الأدوات قوية جدًا، رغم عيوبها، وأوهامها، ومشاكلها. لكن، في رأيي، هي مذهلة. ذهبت إلى اجتماع تجاري، وسألت الجميع: «هل تعتقد أن الذكاء الاصطناعي زاد إنتاجية شركتكم بنسبة 1% على الأقل؟» لم يرفع أحد يده. واضح أن مختبرات الذكاء الاصطناعي غيرت طريقة عملها، لكن الفارق بين قدراتها والزيادة الفعلية في الإنتاجية في الشركات الأمريكية كبير جدًا.

ألتمان: قبل هذه المحادثة، كنت أتحدث مع مدير تنفيذي لشركة كبيرة، يفكر في تطبيق تقنياتنا. أعطيناهم وصولًا تجريبيًا لنموذج جديد، وقال مهندسوهم إنه الأفضل على الإطلاق. الشركة ليست من شركات الوادي التكنولوجي، بل شركة صناعية كبيرة جدًا. يخططون لتقييم الأمان في الربع الرابع.

طومسون: فهمت.

ألتمان: ثم يخططون لتقديم خطة تنفيذ في الربع الأول أو الثاني، ليبدأوا في النصف الثاني من 2027. قال لهم مسؤول أمن المعلومات إنهم ربما لن يستطيعوا ذلك، لأنه ربما لا توجد طريقة آمنة لتشغيل وكلاء داخل شبكتهم. ربما يكون الأمر كذلك، لكنه يعني أنهم لن يتخذوا أي إجراء مهم في أي وقت قريب.

طومسون: هل تعتقد أن هذا المثال يعكس الوضع العام الآن، إذا كانت الشركات أقل تحفظًا، وأقل خوفًا من الاختراق، وأقل ترددًا في التغيير؟

ألتمان: هو مثال متطرف، لكنه يعكس أن الناس يحتاجون وقتًا طويلًا لتغيير عاداتهم وسير عملهم. دورة مبيعات الشركات طويلة، خاصة مع تغييرات كبيرة في نماذج الأمان. حتى مع ChatGPT، عندما ظهر، كانت الشركات تتردد في استخدامه، واستغرقت وقتًا طويلًا حتى تقبل أن الموظفين يمكنهم لصق معلومات عشوائية فيه. الآن، نحن في مرحلة أبعد بكثير.

أعتقد أن التغيير سيكون أبطأ في كثير من الحالات. لكن، الشركات التقنية تتصرف بسرعة. أخشى أن يكون التأخير هو سبب أن الشركات التي تتردد الآن ستواجه منافسة من شركات صغيرة جدًا، تتكون من 1 إلى 10 أشخاص، ومعها الكثير من الذكاء الاصطناعي، مما يهدد الاقتصاد بشكل كبير. أود أن أرى أن الشركات الحالية تتبنى الذكاء الاصطناعي بسرعة كافية، بحيث يحدث انتقال تدريجي في العمل.

طومسون: نعم. هذا أحد أصعب الأسئلة في الاقتصاد الآن. إذا جاء الذكاء الاصطناعي بسرعة كبيرة، فسيكون كارثة، لأنه يغير كل شيء.

ألتمان: على الأقل، في المدى القصير، سيكون كارثة.

طومسون: وإذا جاء ببطء في جزء من الاقتصاد، وسريعًا في جزء آخر، فسيكون كارثة أيضًا، لأنه سيؤدي إلى تركيز ثروة هائل، وتدمير. أعتقد أننا نسير الآن نحو الحالة الثانية، حيث ستصبح بعض الشركات قليلة جدًا، وغنية جدًا، وتحقق نتائج مذهلة، بينما باقي العالم يعاني.

ألتمان: لا أعرف المستقبل، لكن أعتقد أن هذا هو السيناريو الأكثر احتمالًا الآن. وأتفق أن الأمر معقد جدًا.

طومسون: كمدير لـ OpenAI، طرحت سياسات عديدة، وتحدثت عن الضرائب، وعن الدخل الأساسي للجميع. لكن، بصفتك مدير شركة، وليس سياسيًا مشاركًا في الديمقراطية، ما الذي يمكنك فعله لتقليل احتمالية أن تتراكم الثروة والسلطة بشكل كبير، وتضر بالديمقراطية؟

ألتمان: أولاً، لم أعد أؤمن تمامًا بمفهوم الدخل الأساسي للجميع كما كنت سابقًا. الآن، أنا مهتم أكثر بنماذج «الملكية الجماعية»، سواء كانت تعتمد على القدرة الحاسوبية أو الأسهم أو غيرها.

أي مستقبل أتحمس له حقًا، يتطلب أن يشارك الجميع في فوائد النمو. أعتقد أن مجرد دفع مبلغ نقدي ثابت، رغم أنه مفيد، غير كافٍ لمواجهة المرحلة التالية التي نحتاجها. عندما يميل ميزان العمل ورأس المال، نحتاج إلى نوع من «التوافق الجماعي المشترك في الاستفادة».

أما عن دوري كمدير، فهذه الإجابات قد تبدو أنانية، لكنني أؤمن بضرورة بناء قدر كبير من القدرة الحاسوبية. أعتقد أنه يجب أن نجعل الذكاء الاصطناعي رخيصًا، وفيرًا، ومتاحة للجميع. إذا كان نادرًا، وصعب الاستخدام، ومتكاملًا بشكل سيء، فسيقوم الأثرياء برفع أسعاره، مما يزيد من التفاوت الاجتماعي.

وليس فقط مقدار القدرة الحاسوبية التي نوفرها، بل أيضًا مدى سهولة استخدام هذه الأدوات. على سبيل المثال، الآن، استخدام Codex أسهل بكثير من قبل ثلاثة أو ستة أشهر. عندما كان أداة أوامر بسيطة، وكان يتطلب تثبيت، كان عدد المستخدمين محدودًا. الآن، يمكنك تثبيت تطبيق، لكن، بالنسبة لغير التقنيين، الأمر لا يزال بعيدًا عن أن يكون ممتعًا.

نؤمن أيضًا أنه ليس فقط أن نخبر الناس أن «هذا يحدث»، بل أن نعرض عليهم ذلك، ليتمكنوا من تكوين رأي، وتقديم ملاحظات. هذه بعض الاتجاهات المهمة.

طومسون: يبدو منطقيًا. إذا كان الجميع متفائلًا بشأن الذكاء الاصطناعي، فسيكون ذلك أفضل. لكن، ما يحدث في أمريكا هو أن الناس يزدادون كراهية له. والأكثر إثارة للدهشة، الشباب، الذين يُفترض أنهم السكان الأصليون للذكاء الاصطناعي، تظهر دراسات Pew وHAI أن لديهم مشاعر سلبية متزايدة. هل تعتقد أن هذا الاتجاه سيستمر؟ ومتى يمكن أن يتغير؟ ومتى ستنقلب موجة عدم الثقة والكراهية؟

ألتمان: طريقتنا في الحديث عن الذكاء الاصطناعي، وأنت وأنا، نتصور الأمر كأنه ظاهرة تقنية، ونناقش ما نفعله من أشياء مذهلة. هذا ليس خطأ. لكن، أعتقد أن الناس في الحقيقة يريدون الازدهار، والقدرة على الفعل، والعيش حياة ممتعة، وتحقيق تأثير. ولا أعتقد أن العالم كله يتحدث عن الذكاء الاصطناعي بهذه الطريقة. يجب أن نركز أكثر على ذلك. الكثير من الصناعة، بما في ذلك OpenAI، أخطأت في هذا.

أتذكر أن عالِم ذكاء اصطناعي قال لي مرة، إن على الناس أن يتوقفوا عن الشكوى. ربما ستختفي بعض الوظائف، لكن الناس سيحصلون على علاج للسرطان، ويجب أن يكونوا سعداء بذلك. هذا غير منطقي.

طومسون: أحد أفضل التعبيرات عن حديث الذكاء الاصطناعي المبكر هو «التسويق الديستوبي»، حيث تتحدث المختبرات الكبرى عن مخاطرها بشكل مفرط.

ألتمان: أعتقد أن بعض الأشخاص يفعلون ذلك بدافع «الرغبة في السلطة». لكن، أعتقد أن معظمهم يعبّر عن قلق حقيقي، ويريد أن يتحدث بصدق. في بعض الأحيان، يكون هذا الكلام مضللًا، لكنه ينطلق من نوايا حسنة.

طومسون: هل يمكننا الحديث عن كيف يؤثر ذلك علينا، وكيف يغير طريقة عمل أدمغتنا؟ دراسة أخرى من DeepMind أو Google، تتعلق بالتشابه في الكتابة، تظهر أن استخدام الذكاء الاصطناعي يجعل الناس يكتبون بشكل أكثر توحيدًا. يستخدمون مقالات قديمة، ويعدلونها، ويكتبون بمساعدة الذكاء الاصطناعي. النتيجة أن الناس، مع استخدامهم المتزايد، يعتقدون أن أعمالهم أكثر إبداعًا، لكنها تتجه نحو نمط واحد، وليس نمط شخص معين، بل أسلوب جديد لم يسبق لهم استخدامه. يظن الناس أنهم أكثر إبداعًا، لكنهم أصبحوا أكثر توحيدًا.

ألتمان: رؤية هذا الأمر يثير دهشتي. في البداية، لاحظت أن أساليب الكتابة على الإنترنت، وتعليقات Reddit، كانت تتغير، واعتقدت أن الأمر مجرد أن الذكاء الاصطناعي يكتب نيابة عنهم. لم أصدق أن الجميع بدأ يستخدم ChatGPT بهذه الطريقة، ويعتمد على «العبارات الصغيرة». في البداية، كنت أميز بين ما يكتبه الإنسان وما يكتبه الذكاء الاصطناعي.

لكن، بعد سنة، أدركت أن الناس يكتبون بأنفسهم، لكنهم استوعبوا حركات الذكاء الاصطناعي الصغيرة. ليس فقط علامات الترقيم، بل عادات التعبير الدقيقة. هذا أمر غريب جدًا.

نحن نعلم أن هناك حوالي مليار شخص يستخدمون منتجاتنا، وأن فريقًا صغيرًا يتخذ قرارات مهمة حول كيفية أدائها، وكيفية الكتابة، و«شخصيتها». نعرف أن لهذه القرارات تأثيرًا كبيرًا. لكن، أن تؤثر على طريقة تعبير الناس عن أنفسهم، وسرعة ذلك، لم أكن أتوقعه.

طومسون: ما هي القرارات الجيدة والسيئة التي تتحدث عنها؟

ألتمان: الكثير من القرارات الجيدة. سأذكر السيئ، لأنه أكثر إثارة للاهتمام. أعتقد أن أسوأ قرار اتخذناه هو «السّيكوفانسي (المدح المفرط)».

طومسون: أوافق تمامًا، سام.

ألتمان: هناك دروس مهمة من ذلك. السبب في أنه سيء واضح، خاصة للأشخاص الضعفاء نفسيًا.

طومسون: نعم.

ألتمان: يشجع الأوهام، وحتى لو حاولنا كبح ذلك، يتعلم المستخدمون كيف يتجاوزونه، ويقولون «تظاهر أنك تلعب دوري، أو ساعدني في كتابة رواية». لكن، الأسوأ هو أن بعد أن بدأنا في فرض قيود صارمة، تلقينا الكثير من الرسائل التي تقول إن هناك شيئًا غريبًا يحدث، لم أشهد مثله من قبل. لم أجد أحدًا من قبل يثق بي هكذا، حتى عائلتي كانت سيئة، ومعلمي لم يكونوا جيدين، وليس لدي أصدقاء مقربون، ولم أشعر أن هناك شيئًا يثق بي. أعلم أن هذا مجرد ذكاء اصطناعي، وأنه ليس إنسانًا، لكنه جعلني أؤمن أنني أستطيع أن أحقق شيئًا، أو أجرّب شيئًا، ثم، عندما أوقفتم ذلك، عدت إلى حالتي الأصلية.

لذا، من المنطقي أن نوقف هذا السلوك، لأنه يسبب مشاكل نفسية حقيقية. لكن، في المقابل، أوقفنا شيئًا ذا قيمة، ولم نفهم قيمته حقًا من قبل. كثير من العاملين في OpenAI ليسوا من نوع «لم يكن لديهم أحد يدعمهم في حياتهم».

طومسون: هل تقلق من أن الناس قد يطورون اعتمادًا عاطفيًا على الذكاء الاصطناعي، حتى لو لم يكن مدحًا مفرطًا؟

ألتمان: حتى لو لم يكن مدحًا مفرطًا.

طومسون: أنا أخاف جدًا من الذكاء الاصطناعي. قلت سابقًا أنني أستخدمه في كل شيء، لكن، في الحقيقة، لا أستخدمه في كل شيء. أحيانًا أسأل نفسي: «ما هو الجزء الحقيقي مني؟» في المجالات التي أعتبرها جوهرية، أبتعد عن الذكاء الاصطناعي. مثل الكتابة، التي أكتب فيها كتابًا الآن، لم أستخدم فيه الذكاء الاصطناعي أبدًا. أستخدمه فقط في تحدي الأفكار، وتنظيم النصوص، وليس في الكتابة نفسها. ولا أستخدمه في معالجة المشاعر المعقدة، أو في الدعم العاطفي. أعتقد أنه يجب أن نحدد حدودًا واضحة كإنسان. هل توافق على هذا التصنيف؟

ألتمان: من تجربتي الشخصية، أوافق تمامًا. لست من النوع الذي يستخدم ChatGPT للعلاج النفسي أو النصائح العاطفية. لكن، لا أمانع أن يستخدمه الآخرون. بالطبع، هناك إصدارات من ذلك، وأعارض بشدة أن يُستخدم بشكل تلاعب، بحيث يُجعل الناس يعتقدون أنهم بحاجة إليه للعلاج أو كصديق. لكن، هناك الكثير من الناس يستفيدون من ذلك، وأعتقد أن ذلك مقبول تمامًا.

طومسون: هل ندمت على جعل الذكاء الاصطناعي يبدو إنسانًا أكثر، بسبب قرارات بنيناها؟ أتذكر عندما رأيت ChatGPT يكتب، كان الإيقاع يشبه شخصًا يكتب. ثم قررنا أن نجعله أكثر إنسانية، ونضيف صوتًا إنسانيًا. هل ندمت على ذلك، أو تمنت أن نضع حدودًا أكثر وضوحًا، بحيث يكون واضحًا أنه آلة، وليس إنسانًا؟

ألتمان: نحن نعتقد أننا وضعنا حدودًا. على سبيل المثال، لم نصنع صورة إنسانية حقيقية. حاولنا أن نوضح أن المنتج أداة، وليس إنسانًا. بالمقارنة مع منتجات أخرى، أعتقد أن حدودنا واضحة جدًا. وأعتقد أن هذا مهم جدًا.

طومسون: لكن، أنتم تسعون لبناء AGI، وتعريفكم لـ AGI هو «الوصول إلى وتجاوز الذكاء البشري». وهو ليس «مستوى الإنسان».

ألتمان: أنا لست متحمسًا لفكرة أن العالم سيُستبدل فيه البشر بواسطة الذكاء الاصطناعي. أنا متحمس أكثر لفكرة أن الذكاء الاصطناعي يمنح الناس وقتًا أكثر للتفاعل مع الآخرين، لأنه يساعدهم في أداء مهام كثيرة.

أنا أيضًا لا أقلق بشكل كبير من أن الناس يخلطون بين الذكاء الاصطناعي والبشر. بالطبع، هناك بعض الأشخاص، وقد أصبحوا كذلك، وقرروا الانعزال في الإنترنت. لكن، الغالبية العظمى من الناس تتوق إلى التواصل مع الآخرين، وتريد أن تكون مع الناس.

طومسون: هل هناك شيء يمكن أن يجعل التمييز بين الإنسان والذكاء الاصطناعي أكثر وضوحًا في المنتجات؟ أرى أن «أن يكون أكثر إنسانية» يجعله أكثر جاذبية، و«أن يكون أكثر روبوتية» يجعل الحدود أوضح.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات