تقریباً یک ماه پس از اینکه کارشناسان فناوری ادعا کردند که هوش مصنوعی میتواند بشریت را نابود کند و توسعه هوش مصنوعی باید متوقف شود، متخصصان پزشکی و کارشناسان بهداشت عمومی از سراسر جهان نیز بیانیهای منتشر کردند که همین موضوع را بیان میکنند.
چندین متخصص پزشکی و متخصص سیاست های سلامت از سراسر جهان اخیراً درخواست جدیدی برای توقف پیشرفت هوش مصنوعی (AI) به دلیل پتانسیل آن برای ایجاد یک «تهدید وجودی» برای بشر کرده اند.
به گفته تیمی متشکل از پنج متخصص، سه راه وجود دارد که هوش مصنوعی میتواند باعث نابودی انسانها شود.
به گفته پزشکان و متخصصان پزشکی، تکینگی هوش مصنوعی منجر به کشتار جمعی خواهد شد
این بیانیه تنها یک ماه یا بیشتر پس از آن بیان شد که بیش از هزار دانشمند، از جمله جان هاپفیلد از پرینستون و ریچل برانسون از بولتن دانشمندان اتمی، مدیر عامل تسلا، ایلان ماسک و مورخ یووال نوح هراری نامه ای را امضا کردند که در آن خواستار توقف تحقیقات هوش مصنوعی برای موارد مشابه شدند. دلایل
لحظه لحظه هند است: شکار شدید استعدادهای هوش مصنوعی به هند رسید، حقوق ها دو برابر شد
مایکروسافت هوش مصنوعی Bing، خدمات دیگر را برای همه باز می کند، Image Generator اکنون صدها زبان را می فهمد
شایان ذکر است که منابع AI مبتنی بر متن فعلی، مانند ChatGPT OpenAI، خطرات فاجعه باری را که کارشناسان سیاست سلامت به آن اشاره می کنند، ارائه نمی دهند.
اولین خطر این است که هوش مصنوعی ممکن است در تقویت تاکتیک های اقتدارگرا مانند استفاده از نظارت و اطلاعات نادرست کمک کند. آنها اشاره می کنند که توانایی هوش مصنوعی برای تمیز کردن، طبقه بندی و تجزیه و تحلیل سریع حجم عظیمی از داده های شخصی، از جمله تصاویر ثبت شده توسط حضور روزافزون همه جا دوربین ها، می تواند صعود و ماندن در قدرت را برای رژیم های مستبد یا تمامیت خواه آسان تر کند.
علاوه بر این، این گروه از کارشناسان هشدار دادند که هوش مصنوعی میتواند با گسترش کاربرد سیستمهای تسلیحات خودکار مرگبار (LAWS) کشتار جمعی را تسریع بخشد.
در نهایت، متخصصان پزشکی از احتمال ویرانی شدید اقتصادی و رنج انسانی ابراز نگرانی کردند، زیرا میلیون ها نفر شغل خود را به دلیل اتوماسیون مبتنی بر هوش مصنوعی از دست می دهند. نویسندگان خاطرنشان کردند که پیشبینی از دست دادن مشاغل ناشی از اتوماسیون هوش مصنوعی از دهها تا صدها میلیون در دهه آینده متفاوت است.
این گروه به رهبری یک پزشک مرتبط با موسسه بینالمللی سلامت جهانی در دانشگاه سازمان ملل متحد، تاکید کرد که شدیدترین هشدارهای آنها در مورد نوع بسیار پیشرفته و فرضی هوش مصنوعی اعمال میشود: هوش مصنوعی همهمنظوره خود-بهبود (AGI).
AGI یا AI Singularity
برخلاف هوش مصنوعی فعلی، AGI این ظرفیت را دارد که واقعاً کد خود را یاد بگیرد و آن را اصلاح کند و به آن امکان می دهد طیف گسترده ای از وظایف را انجام دهد که امروزه فقط انسان ها می توانند انجام دهند. در تفسیر خود، متخصصان پزشکی ادعا میکنند که چنین AGI از نظر تئوری میتواند یاد بگیرد که چگونه از هر محدودیتی در کد خود غلبه کند و شروع به توسعه اهداف خود کند.
کارشناسان در بیانیه خود گفتند: «سناریوهایی وجود دارد که در آن AGI میتواند تهدیدی برای انسانها و احتمالاً یک تهدید وجودی باشد. منابعی را که به آنها وابسته هستیم افزایش دهیم.»
نظر کارشناسان سیاست بهداشتی که در مجله انجمن پزشکی بریتانیا BMJ Global Health منتشر شده است، تأکید می کند که اگرچه ممکن است چندین دهه با چنین تهدیدی فاصله داشته باشد، اما احتمالات زیادی برای سوء استفاده از فناوری هوش مصنوعی در سطح فعلی آن وجود دارد.
دولت ها از هوش مصنوعی سوء استفاده خواهند کرد، آن را به سلاح تبدیل خواهند کرد
نویسندگان توضیح دادند که چگونه دولتها و سایر سازمانهای بزرگ ممکن است از هوش مصنوعی برای خودکارسازی وظایف پیچیده نظارت جمعی و کمپینهای اطلاعات نادرست دیجیتالی استفاده کنند که میتواند تهدیدی برای «دموکراسی، آزادی و حریم خصوصی» باشد.
در مورد نظارت جمعی، آنها سیستم اعتبار اجتماعی چین را به عنوان نمونه ای از ابزار دولتی مورد استفاده برای “کنترل و سرکوب” جمعیت انسانی ذکر کردند.
در مورد اطلاعات نادرست دیجیتال، نویسندگان هشدار دادند که هنگامی که با توانایی روزافزون پیچیده برای تحریف یا ارائه نادرست واقعیت با دروغهای عمیق ترکیب میشود، سیستمهای اطلاعات مبتنی بر هوش مصنوعی ممکن است شکاف و درگیری اجتماعی را تشدید کند و با ایجاد یک شکست عمومی اعتماد منجر به پیامدهای سلامت عمومی شود. و تضعیف دموکراسی
هوش مصنوعی و سیستمهای یا قوانین سلاحهای خودکار مرگبار
نویسندگان خطرات بالقوه ای را که برای “صلح و امنیت عمومی” ایجاد می کند، برجسته کردند و توسعه سیستم های سلاح های خودمختار مرگبار (LAWS) را که شبیه T-800 Endoskeleton از فیلم های ترمیناتور است، برجسته کردند. به گفته این کارشناسان، LAWS قادر خواهد بود اهداف انسانی را به طور کامل شناسایی، انتخاب و درگیر کند.
نویسندگان خاطرنشان می کنند که این سلاح ها را می توان در مقادیر زیاد با هزینه کم تولید کرد و برای کشتن در مقیاس صنعتی تنظیم کرد. به عنوان مثال، یک میلیون هواپیمای بدون سرنشین کوچک مجهز به مواد منفجره، قابلیتهای تشخیص بصری، و قابلیتهای ناوبری مستقل را میتوان برای کشتن و نگهداری در یک کانتینر حمل و نقل استاندارد برنامهریزی کرد.
هوش مصنوعی مفهوم مشاغل را نابود می کند
در نهایت، محققان احتمال فقیر شدن و رنج ناشی از «استقرار گسترده فناوری هوش مصنوعی» را مورد بحث قرار دادند و بر احتمال از دست دادن شغل «دهها تا صدها میلیون» افراد تأکید کردند.
این متخصصان پزشکی می نویسند: «در حالی که پایان دادن به کاری که تکراری، خطرناک و ناخوشایند است، مزایای زیادی دارد، ما از قبل می دانیم که بیکاری به شدت با پیامدها و رفتارهای نامطلوب سلامتی مرتبط است.»
نویسندگان این تفسیر به نظرسنجی انجام شده در میان اعضای جامعه هوش مصنوعی اشاره کردند که در آن 18 درصد از پاسخ دهندگان معتقد بودند که توسعه AGI پیشرفته برای بشریت فاجعه بار خواهد بود. علاوه بر این، نیمی از اعضای مورد بررسی پیش بینی کردند که AGI بین سال های 2040 و 2065 ایجاد خواهد شد.
هشدارهای مشابهی توسط محققان سیلیکون ولی، از جمله کوین باراگونا، بنیانگذار DeepAI، ماه گذشته صادر شد. باراگونا درگیری احتمالی بین انسان و AGI را با جنگ بین شامپانزه ها و انسان ها مقایسه کرد و اظهار داشت که انسان ها به دلیل هوش بیشتر و دسترسی به فناوری پیشرفته پیروز خواهند شد.
همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام