پزشکان و کارشناسان بهداشت عمومی خواستار ممنوعیت هوش مصنوعی هستند، هشدار می دهند که می توان از آن به عنوان کشتار جمعی استفاده کرد

تهدیدی برای بشریت: پزشکان و کارشناسان بهداشت عمومی خواستار ممنوعیت هوش مصنوعی هستند، هشدار می دهند که می توان از آن به عنوان کشتار جمعی استفاده کرد

تقریباً یک ماه پس از اینکه کارشناسان فناوری ادعا کردند که هوش مصنوعی می‌تواند بشریت را نابود کند و توسعه هوش مصنوعی باید متوقف شود، متخصصان پزشکی و کارشناسان بهداشت عمومی از سراسر جهان نیز بیانیه‌ای منتشر کردند که همین موضوع را بیان می‌کنند.

چندین متخصص پزشکی و متخصص سیاست های سلامت از سراسر جهان اخیراً درخواست جدیدی برای توقف پیشرفت هوش مصنوعی (AI) به دلیل پتانسیل آن برای ایجاد یک «تهدید وجودی» برای بشر کرده اند.

به گفته تیمی متشکل از پنج متخصص، سه راه وجود دارد که هوش مصنوعی می‌تواند باعث نابودی انسان‌ها شود.

به گفته پزشکان و متخصصان پزشکی، تکینگی هوش مصنوعی منجر به کشتار جمعی خواهد شد
این بیانیه تنها یک ماه یا بیشتر پس از آن بیان شد که بیش از هزار دانشمند، از جمله جان هاپفیلد از پرینستون و ریچل برانسون از بولتن دانشمندان اتمی، مدیر عامل تسلا، ایلان ماسک و مورخ یووال نوح هراری نامه ای را امضا کردند که در آن خواستار توقف تحقیقات هوش مصنوعی برای موارد مشابه شدند. دلایل

این است

لحظه لحظه هند است: شکار شدید استعدادهای هوش مصنوعی به هند رسید، حقوق ها دو برابر شد

این است

مایکروسافت هوش مصنوعی Bing، خدمات دیگر را برای همه باز می کند، Image Generator اکنون صدها زبان را می فهمد

شایان ذکر است که منابع AI مبتنی بر متن فعلی، مانند ChatGPT OpenAI، خطرات فاجعه باری را که کارشناسان سیاست سلامت به آن اشاره می کنند، ارائه نمی دهند.

اولین خطر این است که هوش مصنوعی ممکن است در تقویت تاکتیک های اقتدارگرا مانند استفاده از نظارت و اطلاعات نادرست کمک کند. آنها اشاره می کنند که توانایی هوش مصنوعی برای تمیز کردن، طبقه بندی و تجزیه و تحلیل سریع حجم عظیمی از داده های شخصی، از جمله تصاویر ثبت شده توسط حضور روزافزون همه جا دوربین ها، می تواند صعود و ماندن در قدرت را برای رژیم های مستبد یا تمامیت خواه آسان تر کند.

علاوه بر این، این گروه از کارشناسان هشدار دادند که هوش مصنوعی می‌تواند با گسترش کاربرد سیستم‌های تسلیحات خودکار مرگبار (LAWS) کشتار جمعی را تسریع بخشد.

در نهایت، متخصصان پزشکی از احتمال ویرانی شدید اقتصادی و رنج انسانی ابراز نگرانی کردند، زیرا میلیون ها نفر شغل خود را به دلیل اتوماسیون مبتنی بر هوش مصنوعی از دست می دهند. نویسندگان خاطرنشان کردند که پیش‌بینی از دست دادن مشاغل ناشی از اتوماسیون هوش مصنوعی از ده‌ها تا صدها میلیون در دهه آینده متفاوت است.

این گروه به رهبری یک پزشک مرتبط با موسسه بین‌المللی سلامت جهانی در دانشگاه سازمان ملل متحد، تاکید کرد که شدیدترین هشدارهای آن‌ها در مورد نوع بسیار پیشرفته و فرضی هوش مصنوعی اعمال می‌شود: هوش مصنوعی همه‌منظوره خود-بهبود (AGI).

AGI یا AI Singularity
برخلاف هوش مصنوعی فعلی، AGI این ظرفیت را دارد که واقعاً کد خود را یاد بگیرد و آن را اصلاح کند و به آن امکان می دهد طیف گسترده ای از وظایف را انجام دهد که امروزه فقط انسان ها می توانند انجام دهند. در تفسیر خود، متخصصان پزشکی ادعا می‌کنند که چنین AGI از نظر تئوری می‌تواند یاد بگیرد که چگونه از هر محدودیتی در کد خود غلبه کند و شروع به توسعه اهداف خود کند.

کارشناسان در بیانیه خود گفتند: «سناریوهایی وجود دارد که در آن AGI می‌تواند تهدیدی برای انسان‌ها و احتمالاً یک تهدید وجودی باشد. منابعی را که به آنها وابسته هستیم افزایش دهیم.»

نظر کارشناسان سیاست بهداشتی که در مجله انجمن پزشکی بریتانیا BMJ Global Health منتشر شده است، تأکید می کند که اگرچه ممکن است چندین دهه با چنین تهدیدی فاصله داشته باشد، اما احتمالات زیادی برای سوء استفاده از فناوری هوش مصنوعی در سطح فعلی آن وجود دارد.

دولت ها از هوش مصنوعی سوء استفاده خواهند کرد، آن را به سلاح تبدیل خواهند کرد
نویسندگان توضیح دادند که چگونه دولت‌ها و سایر سازمان‌های بزرگ ممکن است از هوش مصنوعی برای خودکارسازی وظایف پیچیده نظارت جمعی و کمپین‌های اطلاعات نادرست دیجیتالی استفاده کنند که می‌تواند تهدیدی برای «دموکراسی، آزادی و حریم خصوصی» باشد.

در مورد نظارت جمعی، آنها سیستم اعتبار اجتماعی چین را به عنوان نمونه ای از ابزار دولتی مورد استفاده برای “کنترل و سرکوب” جمعیت انسانی ذکر کردند.

در مورد اطلاعات نادرست دیجیتال، نویسندگان هشدار دادند که هنگامی که با توانایی روزافزون پیچیده برای تحریف یا ارائه نادرست واقعیت با دروغ‌های عمیق ترکیب می‌شود، سیستم‌های اطلاعات مبتنی بر هوش مصنوعی ممکن است شکاف و درگیری اجتماعی را تشدید کند و با ایجاد یک شکست عمومی اعتماد منجر به پیامدهای سلامت عمومی شود. و تضعیف دموکراسی

هوش مصنوعی و سیستم‌های یا قوانین سلاح‌های خودکار مرگبار
نویسندگان خطرات بالقوه ای را که برای “صلح و امنیت عمومی” ایجاد می کند، برجسته کردند و توسعه سیستم های سلاح های خودمختار مرگبار (LAWS) را که شبیه T-800 Endoskeleton از فیلم های ترمیناتور است، برجسته کردند. به گفته این کارشناسان، LAWS قادر خواهد بود اهداف انسانی را به طور کامل شناسایی، انتخاب و درگیر کند.

نویسندگان خاطرنشان می کنند که این سلاح ها را می توان در مقادیر زیاد با هزینه کم تولید کرد و برای کشتن در مقیاس صنعتی تنظیم کرد. به عنوان مثال، یک میلیون هواپیمای بدون سرنشین کوچک مجهز به مواد منفجره، قابلیت‌های تشخیص بصری، و قابلیت‌های ناوبری مستقل را می‌توان برای کشتن و نگهداری در یک کانتینر حمل و نقل استاندارد برنامه‌ریزی کرد.

هوش مصنوعی مفهوم مشاغل را نابود می کند
در نهایت، محققان احتمال فقیر شدن و رنج ناشی از «استقرار گسترده فناوری هوش مصنوعی» را مورد بحث قرار دادند و بر احتمال از دست دادن شغل «ده‌ها تا صدها میلیون» افراد تأکید کردند.

این متخصصان پزشکی می نویسند: «در حالی که پایان دادن به کاری که تکراری، خطرناک و ناخوشایند است، مزایای زیادی دارد، ما از قبل می دانیم که بیکاری به شدت با پیامدها و رفتارهای نامطلوب سلامتی مرتبط است.»

نویسندگان این تفسیر به نظرسنجی انجام شده در میان اعضای جامعه هوش مصنوعی اشاره کردند که در آن 18 درصد از پاسخ دهندگان معتقد بودند که توسعه AGI پیشرفته برای بشریت فاجعه بار خواهد بود. علاوه بر این، نیمی از اعضای مورد بررسی پیش بینی کردند که AGI بین سال های 2040 و 2065 ایجاد خواهد شد.

هشدارهای مشابهی توسط محققان سیلیکون ولی، از جمله کوین باراگونا، بنیانگذار DeepAI، ماه گذشته صادر شد. باراگونا درگیری احتمالی بین انسان و AGI را با جنگ بین شامپانزه ها و انسان ها مقایسه کرد و اظهار داشت که انسان ها به دلیل هوش بیشتر و دسترسی به فناوری پیشرفته پیروز خواهند شد.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام