بحث عن الذكاء الفائق الآمن
إيليا سوتسكيفر، الاسم المرادف للتطورات المبتكرة في الذكاء الاصطناعي، تصدر عناوين الأخبار في مجتمع الذكاء الاصطناعي في مايو 2024.
بعد أن شاركت في تأسيس OpenAI، وهي مؤسسة بحثية متخصصة في التطوير الأخلاقي للذكاء الاصطناعي العام (AGI)، غادر Sutskever فجأة المنظمة التي ساعد في إنشائها .
وتم الإعلان عن رحيله في نفس يوم زميله السابق جان لايكي، الذي كان أحد قادة "فريق الاصطفاف الفائق".
بدأت تنتشر شائعات عن وجود خلاف بين قيادة Sutskever وOpenAI حول إعطاء الأولوية للسلامة في تطوير الذكاء الاصطناعي.
لكن هذا الخروج الدرامي لم يكن نهاية رحلة سوتسكيفر. وبعد شهر واحد فقط، أعلن عن مشروعه التالي – شركة Safe Superintelligence Inc. (SSI).
تمثل هذه الشركة الجديدة خروجًا جريئًا عن OpenAI، مع التركيز الشديد على بناء الذكاء الفائق الذي يعطي الأولوية للسلامة قبل كل شيء.
من هو ايليا سوتسكيفر
اجتماعي: X | ينكدين
إيليا سوتسكيفر هو عالم كمبيوتر إسرائيلي كندي قدم مساهمات كبيرة في مجال الذكاء الاصطناعي، وخاصة في التعلم العميق.
اشتهر بمشاركته في اختراع AlexNet، وهي شبكة عصبية تلافيفية حققت نتائج رائدة في مسابقة ImageNet لعام 2012 وساعدت في دفع التعلم العميق إلى الاتجاه السائد.
كان Sutskever أيضًا مؤسسًا مشاركًا وكبير العلماء السابق في OpenAI، وهي شركة أبحاث مخصصة لتطوير الذكاء العام الاصطناعي الآمن.
أثناء وجوده في OpenAI، لعب دورًا رائدًا في تطوير سلسلة GPT لنماذج اللغات الكبيرة.
في يونيو 2024، شارك Sutskever في تأسيس شركة Safe Superintelligence Inc.، حيث يشغل منصب كبير العلماء، ويهدف إلى التركيز فقط على إنشاء ذكاء فائق آمن ومفيد.
لماذا انفصل عن OpenAI وقام ببناء SSI
نشأ رحيل Sutskever عن OpenAI بسبب خلاف أساسي حول أولويات أبحاث الذكاء الاصطناعي.
Sutskever (يمين) مع سام التمان، الرئيس التنفيذي لشركة OpenAI (يسار).
كان يعتقد أن OpenAI كانت تعطي الأولوية للتقدم السريع في القدرات على ضمان سلامة أنظمة الذكاء الاصطناعي القوية بشكل متزايد، وهو قلق أبرزه إصدار نموذج اللغة ChatGPT 4.0 الذي يحتمل أن يكون محفوفًا بالمخاطر.
رأى سوتسكيفر، جنبًا إلى جنب مع باحثين آخرين في مجال السلامة، أن بروتوكولات السلامة القوية كانت ضرورية للتطوير جنبًا إلى جنب مع التطورات.
هذا الاختلال مع قيادة OpenAI، التي تركز على "المنتجات اللامعة" وفقًا لـ Sutskever، قاده في النهاية إلى إنشاء شركة Safe Superintelligence Inc. (SSI) للتركيز فقط على تطوير الذكاء الاصطناعي الآمن.
حول شركة Safe Superintelligence Inc.
إن بيان مهمة SSI واضح وموجز بشكل منعش - لتطوير ذكاء فائق آمن.
ويتخلل هذا التركيز الفريد كل جانب من جوانب هيكل الشركة وتشغيلها.
على عكس شركات التكنولوجيا التقليدية التي لديها خطوط إنتاج وضغوط تجارية متعددة، تعمل SSI بنهج مبسط.
يتم تقليل النفقات الإدارية ودورات المنتج إلى الحد الأدنى، مما يضمن بقاء الموارد والتركيز ثابتًا على الهدف الأساسي – وهو بناء ذكاء فائق آمن.
بالإضافة إلى ذلك، على الرغم من وجود حساب X تم إنشاؤه حديثًا، ارتفع عدد متابعي SSI إلى أكثر من 68400 خلال أسبوعين فقط من أول مشاركة لهم.
يعكس هذا النمو السريع المستوى العالي من الترقب والاهتمام المحيط بالمشروع.
نهج مباحث أمن الدولة لبناء مستقبل آمن باستخدام الذكاء الفائق
تصور سوتسكيفر مباحث أمن الدولة ككيان ثوري، لا يشبه أي مختبر أبحاث للذكاء الاصطناعي قبله.
فيما يلي الركائز الأساسية لنهج مباحث أمن الدولة:
▸ التركيز المفرد
يمكن للمرء أن يقول أن SSI ليست مجرد شركة؛ إنه بيان مهمة يأتي إلى الحياة.
تدور هوية الشركة بأكملها حول هدفها الأساسي – وهو بناء الذكاء الفائق الآمن. ويترجم هذا إلى عملية مبسطة، خالية من الانحرافات الناجمة عن دورات المنتج أو هوامش الربح.
يتم توجيه كل قرار وتخصيص للموارد بدقة نحو تحقيق هدفهم الأسمى.
▸ السلامة والقدرة: رقصة تكافلية
في قلب فلسفة SSI تكمن فكرة أن السلامة والقدرة لا يتعارضان.
إنهم يتصورون مستقبلًا يكون فيه التقدم في قدرات الذكاء الاصطناعي مصحوبًا بتدابير سلامة صارمة، يتم تطويرها جنبًا إلى جنب.
وهذا يضمن أن الذكاء الفائق لا يصبح قوة لا يمكن السيطرة عليها، بل أداة قوية تستخدم من أجل الخير.
▸ كسر الكود باستخدام عبارة "Lean, Cracked" فريق
وإدراكًا للتحدي الهائل الذي يواجهونه، لا تسعى مباحث أمن الدولة إلى بناء جيش من الباحثين.
وبدلاً من ذلك، فهم يجمعون بدقة مجموعة مختارة من ألمع العقول في العالم - مجموعة "هزيلة ومشققة" الفريق، كما وصفهم سوتسكيفر نفسه.
ستركز مجموعة النخبة هذه فقط على تطوير الذكاء الفائق الآمن، وتعزيز بيئة تعاونية حيث يمكن أن تزدهر أفضل الأفكار.
▸ الموقع الاستراتيجي
تدرك SSI أن الموقع الجغرافي يلعب دورًا حاسمًا في جذب أفضل المواهب.
لقد أنشأوا مكاتب استراتيجية في بالو ألتو وتل أبيب، وكلاهما مركزان مليئان بالأبحاث المتطورة ومجموعة كبيرة من المهندسين والباحثين المؤهلين.
لكن لماذا تل فيفي؟
شارك مستخدم X سببًا محتملاً لوجود SSI هناك.
ترجمة:
لقد أغفل الجميع التفاصيل المتعلقة بشركة إيليا الجديدة SSI: مكتبهم ليس فقط في وادي السيليكون، ولكن أيضًا في تل أبيب، إسرائيل. وذلك لأن إيليا ودانيال جروس قضيا طفولتهما في القدس بإسرائيل، كما أنهما يقدران كثافة المواهب في إسرائيل.
▸ نموذج الأعمال مصمم للمدى الطويل
تدرك مباحث أمن الدولة أن السعي وراء الذكاء الفائق الآمن هو بمثابة سباق الماراثون، وليس سباق السرعة.
وقد تم تصميم نموذج أعمالهم لعزلهم عن ضغوط التسويق على المدى القصير.
وهذا يسمح لهم بالتركيز على البحث والتطوير على المدى الطويل، متحررين من قيود الأرباح ربع السنوية.
القوة التوجيهية وراء مباحث أمن الدولة
Sutskever ليس وحده في هذا المشروع الطموح. وينضم إليه شخصيتان بارعتان في مجال الذكاء الاصطناعي - دانييل جروس ودانييل ليفي.
دانييل جروس: قائد القيادة الاستراتيجية
اجتماعي:X|ينكدين
يتمتع جروس، المخضرم في عالم الذكاء الاصطناعي، بخبرة ثرية في مباحث أمن الدولة. قبل المشاركة في تأسيس SSI والعمل كرئيس تنفيذي لها، شغل جروس منصبًا مرموقًا كقائد للذكاء الاصطناعي في شركة Apple.
بدأت رحلته في القدس، إسرائيل، حيث ولد عام 1991.
في عام 2010، تصدر جروس عناوين الأخبار عندما أصبح أصغر مؤسس يتم قبوله في برنامج Y Combinator، حيث أطلق Greplin (أعيدت تسميته لاحقًا باسم Cue)، وهو محرك بحث رائد لتوحيد الحسابات عبر الإنترنت.
اشتهر جروس ببراعته في ريادة الأعمال، وقد تم اختياره كأحد نجوم فوربس. "30 تحت 30" في التكنولوجيا في عام 2011 و مجلة Business Insider's "25 تحت 25 عامًا" في وادي السيليكون في عام 2011 .
استمر نجاحه مع استحواذ شركة Apple على Cue في عام 2013.
بعد ذلك، انضم Gross إلى Y Combinator كشريك، مع التركيز على الذكاء الاصطناعي وإطلاق مشروع "YC AI". في عام 2017. وفي عام 2018، أسس شركة Pioneer، وهي شركة لتسريع وصندوق الشركات الناشئة في المراحل المبكرة.
فهم جروس العميق للذكاء الاصطناعي، إلى جانب سجله الريادي يضعه كشخصية محورية في تشكيل الاتجاه الاستراتيجي لمباحث أمن الدولة.
ستكون أفكاره حاسمة بينما تتنقل مباحث أمن الدولة (SSI) في تعقيدات سلامة الذكاء الاصطناعي وتطويره.
يمكن للمستثمرين أن يكونوا واثقين من قدرة جروس على تأمين التمويل، نظرًا لنجاحه المؤكد في جذب رأس المال لمبادرات بحثية رائدة مثل AI Grant وAndromeda Cluster.
دانيال ليفي: الموهوب الفني
اجتماعي:X|ينكدين
إن سمعة ليفي كباحث رائد في مجال الذكاء الاصطناعي تسبقه.
إن خبرته في تدريب نماذج الذكاء الاصطناعي الكبيرة، والتي تم صقلها خلال فترة عمله في OpenAI، تجعل منه رصيدًا لا يقدر بثمن لشركة SSI.
بصفته مؤسسًا مشاركًا وعالمًا رئيسيًا، تمتد براعة ليفي التقنية إلى ما هو أبعد من مؤهلاته.
تضمن خبرته في العمل جنبًا إلى جنب مع Sutskever في OpenAI تعاونًا سلسًا أثناء متابعة هذا المشروع الثوري.
يعكس دور ليفي التزام SSI الثابت بدفع حدود ما هو ممكن في سلامة وقدرات الذكاء الاصطناعي.
التأثير المحتمل على قطاع الذكاء الاصطناعي
تتمتع مهمة SSI بالقدرة على إعادة تعريف قطاع الذكاء الاصطناعي بعدة طرق.
أولاً، من خلال إعطاء الأولوية للسلامة، تضع مباحث أمن الدولة معيارًا جديدًا للتطوير المسؤول للذكاء الاصطناعي.
وقد يشجع نجاحهم الشركات الأخرى على تبني أساليب مماثلة للسلامة أولاً.
ثانيًا، يمكن تطبيق اختراقات مباحث أمن الدولة في بروتوكولات السلامة على نطاق واسع من أنظمة الذكاء الاصطناعي، وليس فقط الذكاء الفائق.
وقد يؤدي هذا إلى تقدم كبير في السلامة الشاملة والموثوقية لتكنولوجيا الذكاء الاصطناعي.
التحديات والحجج المضادة
على الرغم من أهدافها الطموحة، تواجه مباحث أمن الدولة العديد من التحديات.
ويرى النقاد أن تطوير الذكاء الفائق في حد ذاته محفوف بالصعوبات الفنية، كما أن دمج تدابير السلامة القوية يزيد من تعقيد العملية.
قد يكون التطوير المتزامن لكل من القدرات وآليات السلامة مفرطًا في التفاؤل ويصعب تحقيقه ضمن الجداول الزمنية المتوقعة.
بالإضافة إلى ذلك، يرى البعض أن تركيز SSI الفردي على السلامة قد يحد من قدرتها على التكيف مع الديناميكيات المتغيرة باستمرار لسوق الذكاء الاصطناعي.
التركيز فقط على تطوير الذكاء الفائق يمكن أن يحد من قدرة مباحث أمن الدولة على الاستجابة للاتجاهات الناشئة أو العقبات غير المتوقعة.
علاوة على ذلك، هناك خطر محتمل يرتبط بالاعتماد على فريق صغير من النخبة.
إذا غادر الأعضاء الرئيسيون أو فشلوا في الأداء، فإن تركيز المعرفة والخبرة داخل المجموعة يمكن أن يصبح نقطة ضعف.
هل يتم تمويل SSI من القطاع العام؟
اعتبارًا من اليوم، 8 يوليو 2024، لم تكشف شركة Safe Superintelligence Inc. (SSI) عن أي معلومات حول تمويلها أو من هم الداعمين لها.
كانت هناك تكهنات حول المستثمرين المحتملين بناءً على تصريحات مؤسسي الشركة. الخلفيات، ولكن لا شيء مؤكد.
ومع ذلك، اختارت مباحث أمن الدولة نفسها أن تظل متشددة بشأن وضعهم المالي.
سعي جريء للذكاء الفائق الآمن
إن السعي لتحقيق الذكاء الفائق الآمن هو مشروع جريء، وهو محفوف بالعقبات التقنية والمآزق الفلسفية.
مباحث أمن الدولة، مع تركيزها بالليزر و"الهزيلة والمتشققة" الفريق، يجسد نهجا جريئا لهذا التحدي.
إن نجاحهم، إذا تحقق، يمكن أن يبشر بعصر جديد من تطوير الذكاء الاصطناعي، مع إعطاء الأولوية للسلامة ووضع معايير عالية للبحث المسؤول.
ومع ذلك، فإن الطريق أمامنا مليء بالشكوك.
هل يستطيع فريق صغير التعامل بفعالية مع تعقيدات الذكاء الفائق والسلامة؟
هل سيحد تركيزهم الفردي من قدرتهم على التكيف في هذا المجال سريع التطور؟
ستتم مراقبة رحلة SSI عن كثب، مع إمكانية إعادة تعريف مستقبل الذكاء الاصطناعي وتأثيره على البشرية.