لماذا يشعر ريد هوفمان بالتفاؤل بمستقبل الذكاء الاصطناعي لدينا

\n

في كتاب ريد هوفمان الجديد Superagency: What Could Possibly Go Right With Our AI Future، يقدم مؤسس LinkedIn حالة أن الذكاء الاصطناعي يمكن أن يوسع وكالة الإنسان - مما يمنحنا مزيدًا من المعرفة ووظائف أفضل وحياة محسنة - بدلاً من تقليلها.

\n

ولكن هذا لا يعني أنه يتجاهل العيوب المحتملة للتكنولوجيا. في الواقع، يصف هوفمان (الذي كتب الكتاب بالشراكة مع Greg Beato) توقعاته بشأن الذكاء الاصطناعي، وعن التكنولوجيا بشكل عام، بأنه يركز على \"خطوة المخاطر الذكية\" بدلاً من التفاؤل العميق.

\n

\"الجميع، بشكل عام، يركز كثيرًا على ما يمكن أن يحدث من خطأ، وبشكل ناقص على ما يمكن أن يحدث من خير،" قال هوفمان لي.

\n

وعلى الرغم من أنه قال إنه يدعم \"التنظيم الذكي\"، إلا أنه اعتبر أن عملية \"نشر تكراري\" التي تضع أدوات الذكاء الاصطناعي في يد الجميع ثم تستجيب لتغذية ردودهم هي أكثر أهمية حتى لضمان النتائج الإيجابية.

\n

في محادثتنا حول كتابه، ناقشنا أيضًا الفوائد التي يراها هوفمان (الذي كان أيضًا عضوًا سابقًا في مجلس OpenAI، وعضو حالي في مجلس شركة Microsoft، وشريك في Greylock) من الذكاء الاصطناعي، وتأثيره المحتمل على المناخ، والفرق بين المتشائمين من الذكاء الاصطناعي والمتشائمين منه.

\n

تم تحرير هذا المقابلة لتحديد الطول والوضوح.

\n
\n

لقد كتبت بالفعل كتابًا آخر عن الذكاء الاصطناعي، Impromptu. ما الذي أردت قوله بـ Superagency، والذي لم تكن قد قلته بالفعل؟

\n

فكان Impromptu في الغالب يحاول أن يظهر أن الذكاء الاصطناعي يمكن أن [يوفر] تضخيمًا نسبيًا للذكاء بسهولة، وكان يُظهر ذلك بالفعل عبر مجموعة متنوعة من السهام. Superagency يتعلق أكثر من خلال سؤال حول كيفية تحسين وكالة الإنسان لدينا بشكل كبير، ليس فقط من خلال القدرات الخارقة، وهو جزء منه بالطبع، ولكن من خلال تحويل صناعاتنا، ومجتمعاتنا، بينما يحصل العديد منا على هذه القدرات الخارقة من هذه التكنولوجيا الجديدة بالمساواة.

\n

الحديث العام حول هذه الأمور دائمًا ما يبدأ بتشاؤم شديد ومن ثم يتحول إلى - يمكن أن نطلق عليه - حالة مرفوعة جديدة من الإنسانية والمجتمع. الذكاء الاصطناعي هو آخر تكنولوجيا مُزْعِزة في هذا الصدد. لم يتطرق Impromptu بقدر ما قد أشرت إليه... سير المستقبل الإنساني.

\n
الصورة: سيمون & شوستر

تبدأ بتقسيم التوجهات المختلفة حول الذكاء الاصطناعي إلى هذه الفئات - الذين يحصلون على خلق، الذين يحصلون على خراب، زوومرز، بلومرز. يمكننا التعمق في كل منها، ولكن سنبدأ بـ بلومر لأنك تصنف نفسك على أنه واحد. ما هو بلومر، ولماذا تعتبر نفسك واحدًا؟

\n
\n

أعتقد أن بلومرا هو تفاؤلي تكنولوجي بشكل لا مفرّ منه و[يعتقد] أن بناء التكنولوجيات يمكن أن يكون جيدًا جدًا بالنسبة لنا كأفراد، ومجموعات، ومجتماعات، وبالنسبة للإنسانية، ولكن [هذا لا يعني] أن أي شيء يمكنك بناؤه رائع.

\n

لذا يجب عليك التنقل بين اتخاذ المخاطر، ولكن بأخذ المخاطر الذكية بدلاً من المخاطر العمياء، وأن تشارك في الحوار والتفاعل للتوجيه. جزء من السبب في أننا نتحدث عن نشر تكراري كثيرًا في الكتاب، لأن الفكرة هي، جزء من كيف تشارك في هذا الحوار مع الكثير من البشر هو من خلال نشر تكراري. إنك تشارك في ذلك من أجل توجيهه لتقول، \"أوه، إذا كان له هذا الشكل، فإنه أفضل بكثير للجميع. وهو ما يجعل تلك الحالات السيئة تقتصر أكثر، سواء في كثافة انتشارها، ولكن أيضًا في مدى التأثير الذي يمكن أن تحققه.\"

\n

وعندما تتحدث عن التوجيه، هناك التنظيم، الذي سنتحدث عنه لاحقًا، لكن يبدو أنك تعتقد أن أكبر وعد يكمن في هذا النوع من النشر التكراري، خاصة على نطاق واسع. هل تعتقد أن الفوائد مدمجة - كما في، إذا وضعنا الذكاء الاصطناعي في أيدي أكبر عدد من الناس، فهو ديمقراطي بمعنى صغير؟ أم أنك تعتقد أنه يجب تصميم المنتجات بطريقة تتيح للناس المشاركة؟

\n

حسنًا، أعتقد أنه يمكن أن يعتمد على المنتجات المختلفة. ولكن أحد الأمور [التي نحن] نحاول أن نوضحها في الكتاب هو أن مجرد القدرة على المشاركة والتحدث عن المنتج - بما في ذلك الاستخدام، عدم الاستخدام، الاستخدام بطرق معينة - هذا هو ، في الواقع، تفاعل ومساعدة على تغيير [ذلك]، أليس كذلك؟ لأن الأشخاص الذين يبنونها ينظرون إلى هذا التغذية الراجعة. إنهم ينظرون إلى: هل شاركت؟ هل لم تشارك؟ إنهم يستمعون إلى الناس عبر الإنترنت والصحافة وكل شيء ، يقولون: \"هذا رائع\". أو \"هذا سيئ حقًا\". هذا هو كثير من توجيه وتغذية مزيد من الناس، مستقل عن ما تحصل عليه من بياناتي التي قد تم تضمينها في التكرار أو أنني قد أستطيع التصويت أو بطريقة ما التعبير عن التغذية الراجعة الاتجاهية المباشرة.

\n

أعتقد أنني أحاول التعمق في كيفية عمل هذه الآليات لأنه كما تلاحظ في الكتاب، خاصة مع ChatGPT ، أصبحت شديدة الشهرة للغاية. لذلك، إذا قلت: \"أنا لا أحب هذا الشيء في ChatGPT\" أو \"لدي هذا الاعتراض عليه ولن أستخدمه\"، فإن ذلك سيغرق ببساطة في تعدد الأشخاص الذين يستخدمونه.

\n

جزء من ذلك هو أن السماح لمئات الملايين من الأشخاص بالمشاركة لا يعني أنك سترد على كل اعتراض لشخص. قد يقول بعض الناس: \"لا يجب أن تذهب السيارات بسرعة أكبر من 20 ميلا في الساعة\". حسنًا، من الجيد أن تفكر هكذا.

\n

هو هذا الاجتماعي [للتغذية الراجعة]. وبالنسبة لبيانك، إذا عبّرت عن شيء هو تحدي أو تراجع أو تحول، ولكن بعد ذلك الناس الآخرون يبدؤون بالتعبير عن ذلك أيضًا، فمن المحتمل أن يتم استماعك وتغييره.

\n

وجزء من ذلك، يتنافس OpenAI مع Anthropic والعكس. إنهم يصغون بعناية جدًا ليس فقط إلى ما يسمعونه الآن، ولكن... يستجيبون تجاه الأمور القيمة التي يرغب فيها الناس وأيضًا يتجنبون الأمور التي يرغب الناس في تجاهلها.

\n
\n

قد نرغب في الاستفادة من هذه الأدوات كمستهلكين، ولكن قد تكون ضارة بطرق لا تظهر بالضرورة لي كمستهلك. هل تعتقد أن عملية النشر التكراري هذه ستعالج مخاوف أخرى، قد تكون متعلقة بالمجتمع، والتي لا تظهر للمستهلكين الأفراد؟

\n

حسنًا، جزء من السبب في كتابة كتاب عن Superagency هو حتى يقوم الناس فعلًا بالحوار حول القضايا المجتمعية أيضًا. على سبيل المثال، يقول الناس: \"أعتقد أن الذكاء الاصطناعي سيجعل الناس يتخلون عن وكالتهم و[يتخلون] عن اتخاذ القرارات حول حياتهم\". ثم يذهب الناس ويلعبون مع ChatGPT ويقولون: \"حسنًا، لم أكن لدي هذا التجربة\". وإذا كان عدد قليل جدًا منا في الواقع يجربون [فقدان الوكالة] ، فهذا هو الحجة شبه الصالحة ضدها، أليس كذلك؟

\n

كما تتحدث عن التنظيم. يبدو أنك مفتوح للتشريع في بعض السياقات، ولكنك قلق بشأن أن التشريع قد يكبد الابتكار. هل يمكنك أن تقول المزيد عن كيفية عمل تشريع الذكاء الاصطناعي النافع ق