محققان برتر سازنده ChatGPT هشدار می دهند که هوش مصنوعی خطرناک تر از جنگ هسته ای، باعث انقراض خواهد شد

محققان برتر سازنده ChatGPT هشدار می دهند که هوش مصنوعی خطرناک تر از جنگ هسته ای، باعث انقراض خواهد شد

سام آلتمن، مدیر عامل OpenAI و خالق ChatGPT، بیانیه ای را به همراه برخی از برترین محققان هوش مصنوعی جهان امضا کرده و مدعی شده است که هوش مصنوعی از جنگ هسته ای و بیماری های همه گیر خطرناک تر است، و بنابراین باید به این شکل رفتار شود.

گروهی متشکل از محققان، مهندسان و مدیران اجرایی برجسته هوش مصنوعی، نگرانی خود را در مورد تهدید وجودی ناشی از هوش مصنوعی برای بشریت ابراز کرده اند. در بیانیه ای مختصر از 22 کلمه، آنها بر نیاز به اولویت بندی تلاش های جهانی در کاهش خطرات مرتبط با هوش مصنوعی، قابل مقایسه با پرداختن به سایر خطرات مهم اجتماعی مانند بیماری های همه گیر و جنگ هسته ای تأکید می کنند.

می‌خواند:

کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

مقالات مرتبط

OpenAI

سام آلتمن، مدیرعامل OpenAI می‌گوید قصد ترک اروپا را ندارد

OpenAI

ChatGPT تحت اسکنر: کانادا به بررسی ربات چت OpenAI بر سر نگرانی های حفظ حریم خصوصی می پردازد

این بیانیه که توسط مرکز ایمنی هوش مصنوعی منتشر شده است، یک موسسه غیرانتفاعی مستقر در سانفرانسیسکو، حمایت چهره های با نفوذی از جمله مدیران عامل گوگل دیپ مایند و OpenAI، دمیس حسابیس و سام آلتمن، و همچنین جفری هینتون و یوشوا بنجیو را به دست آورده است. دو نفر از سه دریافت کننده جایزه تورینگ 2018.

قابل ذکر است که سومین دریافت کننده، Yann LeCun، دانشمند ارشد هوش مصنوعی در Meta، شرکت مادر فیس بوک، هنوز بیانیه را امضا نکرده است.

این بیانیه نشان دهنده سهم قابل توجهی در بحث های جاری و بحث برانگیز پیرامون ایمنی هوش مصنوعی است. در اوایل سال جاری، گروهی از امضاکنندگان، از جمله برخی از کسانی که اکنون از این هشدار مختصر حمایت کرده‌اند، نامه‌ای سرگشاده را امضا کردند که در آن از یک «وقفه» شش ماهه در توسعه هوش مصنوعی حمایت کردند.

با این حال، این نامه از منظرهای مختلف مورد انتقاد قرار گرفت. در حالی که برخی از کارشناسان معتقد بودند که در مورد خطرات ناشی از هوش مصنوعی اغراق آمیز است، برخی دیگر با نگرانی ها موافق بودند اما با راه حل پیشنهادی مخالف بودند.

دن هندریکس، مدیر اجرایی مرکز ایمنی هوش مصنوعی، توضیح داد که مختصر بیانیه اخیر، که اقدامات خاصی را برای کاهش تهدید هوش مصنوعی پیشنهاد نکرده است، با هدف جلوگیری از چنین اختلاف نظرهایی است.

او تاکید کرد که قصد ارائه فهرست گسترده ای از سی مداخله بالقوه نیست، زیرا این پیام را کمرنگ می کند.

هندریکس این بیانیه را به عنوان یک قدردانی جمعی از سوی صاحبان صنعت که نگران خطرات مرتبط با هوش مصنوعی هستند، توصیف کرد. او این تصور غلط را برجسته کرد که تنها تعداد کمی از افراد در مورد این موضوعات در جامعه هوش مصنوعی ابراز نگرانی می کنند، در حالی که در واقعیت، بسیاری از افراد به طور خصوصی نگرانی های خود را به اشتراک می گذارند.

اگرچه جنبه های اساسی این بحث به خوبی شناخته شده است، اما جزئیات می تواند طولانی باشد و حول سناریوهای فرضی که در آن سیستم های هوش مصنوعی به سرعت در قابلیت ها پیشرفت می کنند و به طور بالقوه ایمنی را به خطر می اندازند، می چرخد.

حامیان این دیدگاه اغلب به پیشرفت سریع مشاهده شده در مدل های زبانی بزرگ به عنوان شواهدی از دستاوردهای آینده در هوش اشاره می کنند. آنها استدلال می کنند که وقتی سیستم های هوش مصنوعی به سطح خاصی از پیچیدگی برسند، ممکن است کنترل اقدامات آنها غیرممکن شود.

با این حال، کسانی هستند که در این پیش بینی ها تردید دارند. آنها به ناتوانی سیستم های هوش مصنوعی در انجام کارهای حتی نسبتا پیش پا افتاده مانند رانندگی ماشین اشاره می کنند.

علیرغم سالها تحقیق اختصاصی و سرمایه گذاری های قابل توجه، وسایل نقلیه کاملاً خودمختار با واقعیت فاصله دارند. شکاکان توانایی این فناوری را برای مطابقت با سایر دستاوردهای بشر در سال های آینده در صورت مبارزه با این چالش خاص زیر سوال می برند.

در روزگار کنونی، هم طرفداران و هم بدبینان ریسک هوش مصنوعی اذعان دارند که سیستم‌های هوش مصنوعی، مستقل از پیشرفت‌های بیشتر، چندین تهدید را ایجاد می‌کنند. این تهدیدها شامل فعال کردن نظارت انبوه، تقویت الگوریتم‌های ناقص «پلیس پیش‌بینی» و تسهیل گسترش اطلاعات نادرست و اطلاعات نادرست است.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام