یکی از دانشمندان برجسته در حوزه توسعه هوش مصنوعی در OpenAI پیشبینی کرده است که تا سال ۲۰۲۷، هوش مصنوعی انسانگونه وجود خواهد داشت. یکی از پژوهشگران سابق این شرکت گزارشی منتشر کرده است که نگاهی عمیق به مسیر رشد و توسعه هوش مصنوعی، امنیت کاربران و مسائل مرتبط دیگر میاندازد.
پس از راهاندازی مدل هوش مصنوعی پیشرفته GPT-4o، تعدادی از کارکنان برجسته OpenAI تصمیم به ترک شرکت گرفتند. ژان لایک، سرپرست سابق تیم Superalignment (هسته مرکزی تحقیق و توسعه هوش مصنوعی در OpenAI)، از جمله این افراد بود. او نگرانیهایی در مورد روند گسترش هوش مصنوعی در این شرکت ابراز داشته و معتقد است که تولید محصولات جذاب برای OpenAI بر امنیت و حریم خصوصی کاربران اولویت دارد.
لئوپولد آشنبرنر، یکی از دانشمندان سابق تیم Superalignment، به دلیل افشای اطلاعات حساس شرکت درباره هوش مصنوعی عمومی اخراج شد. با این حال، او معتقد است که اطلاعاتی که به اشتراک گذاشته است، «کاملاً عادی» بودهاند.
آشنبرنر در گزارش ۱۶۵ صفحهای خود، پیشبینی کرده است که پیشرفت هوش مصنوعی با سرعت بیسابقهای ادامه خواهد یافت و ممکن است تا سال ۲۰۲۷، تواناییهای محققان و مهندسان را پشت سر بگذارد.
کوین اسکات، یکی از مدیران مایکروسافت، نیز مطالب مشابهی را به اشتراک گذاشته و مدلهای هوش مصنوعی پیشرفتهتری را پیشبینی کرده است که توانایی قبولی در آزمونهای ورودی دکترا را دارند.
با ظهور مدل هوش مصنوعی پرچمدار GPT-4o با قابلیتهای تشخیص، استدلال و مکالمه انسانگونه، بهنظر میرسد که در آینده نزدیک، به دوران هوش مصنوعی فوق هوشمند (Super Intelligent) خواهیم رسید که ممکن است از هوش انسانی بسیار فراتر برود.
گزارشها نشان میدهند که در نهایت، هوش مصنوعی هوشمندتر از انسانها خواهد شد، شغلهای آنها را خواهد گرفت و کار را به یک سرگرمی تبدیل خواهد کرد. نگرانیهای زیادی درباره پیامدهای این موضوع بر زندگی بشر وجود دارد.
سم آلتمن، مدیرعامل OpenAI، نیاز به یک سازمان بینالمللی مستقل را پیشبینی میکند تا اطمینان حاصل شود که پیشرفتهای هوش مصنوعی چارچوب قانونی پیدا کنند تا از نتایج ویرانگر احتمالی جلوگیری شود.