أوبرا قامت لتوها بحلقة خاصة حول الذكاء الاصطناعي مع سام ألتمان وبيل غيتس - إليك أبرز النقاط

\n

في مساء يوم الخميس المتأخر، بثت أوبرا وينفري حلقة خاصة عن الذكاء الاصطناعي، بعنوان مناسب 'الذكاء الاصطناعي ومستقبلنا'. ضمت الحلقة العديد من الضيوف مثل الرئيس التنفيذي لشركة OpenAI سام ألتمان، والمؤثر التقني ماركيز براونلي، ومدير مكتب التحقيقات الفدرالي كريستوفر راي.

\n\n

كان اللهجة السائدة هي التشكك والحذر.

\n\n

ذكرت أوبرا في تصريحات معدة أن جني الذكاء الاصطناعي خارج القنينة، سواء للأفضل أو للأسوأ، وأن البشرية ستضطر إلى التعايش مع العواقب.

\n\n

'الذكاء الاصطناعي ما زال خارج سيطرتنا وإلى حد كبير...فهو خارج تفهمنا'، قالت. 'ولكنه هنا، وسنعيش مع التكنولوجيا التي يمكن أن تكون حليفتنا وكذلك منافستنا... نحن أكثر مخلوقات هذا الكوكب التكيف، سنتكيف مرة أخرى. لكن احتفظوا بأعينكم على الواقع. الرهانات لا يمكن أن تكون أعلى من ذلك'.

\n\n

سام ألتمان يبالغ في تعريفه

\n\n

صنع ألتمان، الذي كان أول مقابلة مع أوبرا في هذه الليلة، الحالة المشكوك فيها التي يتعلم فيها الذكاء الاصطناعي المفاهيم ضمن البيانات التي تم تدريبه عليها.

\n\n

'نظهر للنظام ألف كلمة بتسلسل ونطلب منه تنبؤ الكلمة التالية'، قال لأوبرا. 'يتعلم النظام التنبؤ، وبهذا يتعلم الأفكار الأساسية'.

\n\n

سيتفاوض كثيرون مع هذا.

\n\n

نظم الذكاء الاصطناعي مثل ChatGPT و o1، التي قدمتها OpenAI يوم الخميس، هي في الواقع تنبأ بأكثر الكلمات المقبولة في الجملة. ولكنها مجرد آلات إحصائية - تتعلم أنماط البيانات. ليس لديهم نية؛ إنها تقدم تخمينات معتمدة فقط.

\n\n

بينما قد فرط ألتمان ربما في قدرات أنظمة الذكاء الاصطناعي في الوقت الحاضر، فإنه أكد على أهمية معرفة كيفية اختبار أمان تلك الأنظمة نفسها.

\n\n

قال: 'إن أحد أول الأمور التي نحتاج إلى فعلها - وهذا يحدث الآن - هو الحصول على الحكومة للبدء في معرفة كيفية القيام باختبارات السلامة لهذه الأنظمة. مثلما نفعل للطائرات أو الأدوية الجديدة'.

\n\n

ربما يكون دعم ألتمان للتنظيم مصلحيًا للنفس. عارضت OpenAI مشروع القانون الخاص بسلامة الذكاء الاصطناعي في ولاية كاليفورنيا المعروف بالرقم 1047، قائلة إنه سيعرقل 'الابتكار'. ومع ذلك، قد ظهرت انباء عن دعم موظفي OpenAI السابقين وخبراء الذكاء الاصطناعي مثل جيفري هنتون للمشروع، ويجادلون بأنه سيفرض تدابير الحماية اللازمة على تطوير الذكاء الاصطناعي.

\n\n

طرحت أوبرا أيضًا سؤالًا لألتمان حول دوره كرئيس تنفيذي لشركة OpenAI. سألت لماذا يجب على الناس أن يثقوا به وتجاهل سؤالها بشكل كبير، قائلاً إن شركته تحاول بناء الثقة مع مرور الوقت.

\n\n

سبق أن قال ألتمان بشكل مباشر للناس أنهم لا يجب أن يثقوا به أو بأي شخص آخر للتأكد من أن الذكاء الاصطناعي يعود بالفائدة على العالم.

\n\n

وفي وقت لاحق، قال الرئيس التنفيذي لOpenAI إنه كان من الغريب سماع أوبرا تسأله إذا كان 'أكثر رجل قوة وخطورة في العالم'، كما أشارت عناوين الأخبار. اختلف مع هذا الادعاء، لكنه قال إنه يشعر بالمسؤولية لدفع الذكاء الاصطناعي في اتجاه إيجابي لصالح البشرية.

\n\n

أوبرا عن الفيديوهات المزيفة

\n\n

كما كان متوقعًا في حلقة عن الذكاء الاصطناعي، ظهر موضوع الفيديوهات المزيفة.

\n\n

لإظهار مدى إقناع وسائط الإعلام الاصطناعية، قارن براونلي عينات من تسجيلات Sora، مولد الفيديو المدعوم بالذكاء الاصطناعي من OpenAI، بتسجيلات مولدة بالذكاء الاصطناعي منذ عدة أشهر. كانت العينة من Sora متقدمة بأميال - توضح تقدم هذا المجال بسرعة.

\n\n

'الآن، يمكنك بعدًا أن تلقي نظرة على هذا وتعرف أن هناك شيئًا ليس مرتبطًا تمامًا'، قال براونلي عن تسجيلات Sora. قالت أوبرا إنها تبدو حقيقية بالنسبة لها.

\n\n

خدمت عروض الفيديو المضللة كإعداد لمقابلة مع راي، الذي تذكر اللحظة التي عرف فيها التقنية العميقة للذكاء الاصطناعي لأول مرة.

\n\n

'كنت في غرفة اجتماعات، واجتمعت مجموعة من [موظفي FBI] لتوضيح لي كيف يمكن إنشاء فيديوهات مضافة بالذكاء الاصطناعي'، قال راي. 'وكانوا قد أنشؤوا فيديو ليقول فيه أشياء لم أكن قد قلتها من قبل ولن أقولها أبدًا'.

\n\n

تحدث راي عن زيادة انتشار الابتزاز الجنسي بمساعدة الذكاء الاصطناعي. وفقًا لشركة الأمان السيبراني ESET، كان هناك زيادة بنسبة 178% في حالات الابتزاز الجنسي بين عامي 2022 و 2023، نتيجة جزئية لتكنولوجيا الذكاء الاصطناعي.

\n\n

'شخص متنكر كزميل يستهدف مراهقًا'، قال راي، 'ثم يستخدم صورًا ملفقة لإقناع الطفل بإرسال صور حقيقية بدلًا من ذلك. في الواقع، هناك رجل ما وراء لوحة المفاتيح في نيجيريا، وعندما يحصلون على الصور، يهددون بابتزاز الطفل ويقولون، إذا لم تدفع، سنشارك هذه الصور التي ستدمر حياتك'.

\n\n

تحدث راي أيضًا عن الإشاعات المحيطة بالانتخابات الرئاسية الأمريكية القادمة. وفي حين أكد أنه 'لم يحن وقت الذعر'، أكد أنه من واجب 'كل شخص في أمريكا' أن 'يجلب نوعًا مكثفًا من التركيز والحذر' لاستخدام الذكاء الاصطناعي ويتذكر أن 'يمكن استخدام الذكاء الاصطناعي من قبل الأشرار ضدنا جميعًا'.

\n\n

'نجد، في كثير من الأحيان، أن شيئًا على وسائل التواصل الاجتماعي يبدو وكأنه بيل من توبيكا أو ماري من ديتون، ولكن في الواقع، هو أي شخص بفكرة، قد يكون ضابط استخبارات روسي أو صيني على أطراف بكين أو موسكو'، قال راي.

\n\n

بالفعل، تبين استطلاع للرأي من Statista أن أكثر من ثلثي المشاركين الأمريكيين رأوا معلومات مضللة - أو ما يشتبهون فيه أنها معلومات مضللة - حول مواضيع رئيسية نحو نهاية عام 2023. في هذا العام، حصلت صور الذكاء الاصطناعي المضللة للمرشحين نائب الرئيس كامالا هاريس والرئيس السابق دونالد ترامب على ملايين المشاهدات على شبكات التواصل الاجتماعي بما في ذلك 'إكس'.

\n\n

بيل غيتس عن تعطيل الذكاء الاصطناعي

\n\n

لتغيير الجو للتفاؤل التكنولوجي، أجرت أوبرا مقابلة مع مؤسس Microsoft بيل غيتس، الذي عبر عن أمله في أن يمنح الذكاء الاصطناعي حقلي التعليم والطب تعزيزًا كبيرًا.

\n\n

'الذكاء الاصطناعي مثل شخص ثالث يجلس في [موعد طبي]، يقوم بتسجيل محادثة، يقترح وصفة طبية'، قال غيتس. 'وبالتالي، بدلاً من أن يواجه الطبيب شاشة كمبيوتر، يتفاعلون معك، والبرنامج يحرص على أن يكون هناك تسجيل جيد جدًا'.

\n\n

تجاهل غيتس الإمكانية المحتملة للتحيز نتيجة لتدريب الذكاء الاصطناعي الرديء، ومع ذلك.

\n\n

أظهرت دراسة حديثة أن أنظمة التعرف على الكلام من شركات التكنولوجيا الرائدة كانت مرتين احتمالات الخطأ في نقل الصوت من المتحدثين السود مقارنة بالمتحدثين البيض. أظهرت أبحاث أخرى أن أنظمة الذكاء الاصطناعي تعزز المعتقدات الخاطئة التي تمتلكها منذ فترة ط