یوشوا بنجیو، مهندس سازنده هوش مصنوعی مدرن، اکنون از آنچه که به آن تبدیل شده، احساس گناه می کند

یوشوا بنجیو، مهندس سازنده هوش مصنوعی مدرن، اکنون از آنچه که به آن تبدیل شده، احساس گناه می کند

افرادی که هوش مصنوعی را توسعه داده‌اند، از این که چگونه بوده راضی نیستند. یوشوا بنجیو، یکی از چهره‌های کلیدی در توسعه هوش مصنوعی، آنگونه که امروز می‌شناسیم، اکنون با احساس گناه غرق شده است. Bengio به جفری هینتون، یکی دیگر از چهره های برجسته هوش مصنوعی که نگران هستند، می پیوندد.

یوشوا بنجیو، دانشمند مشهور کامپیوتر و یکی از چهره های کلیدی در توسعه هوش مصنوعی (AI)، نگرانی خود را در مورد پیشرفت سریع و تبلیغات اغراق آمیز پیرامون هوش مصنوعی ابراز کرده است.

بنژیو در مصاحبه ای با بی بی سی اعتراف کرد که اگر سرعت پیشرفت هوش مصنوعی را پیش بینی می کرد، ایمنی را بر سودمندی اولویت می داد.

پدران هوش مصنوعی از وضعیت کنونی آن بی‌قرار هستند
بنژیو که تا حدودی احساس از دست دادن می کرد، بر اهمیت ادامه حرکت رو به جلو، درگیر شدن در بحث ها و تشویق تفکر جمعی تاکید کرد. اخیراً، او نامه ای سرگشاده را با دیگر رهبران صنعت امضا کرد و هشدارهایی را در مورد خطرات بالقوه هوش مصنوعی به صدا درآورد.

مقالات مرتبط

هند

لحظه درخشش هند؟ ایالات متحده نمی تواند هوش مصنوعی را تنظیم کند و NVIDIA آن را تضمین کرده است

هند

فاکسکان معتقد است تقاضای سرور مبتنی بر هوش مصنوعی درآمد سال 2023 و رکود جهانی را افزایش می دهد تا آن را ثابت نگه دارد.

بنژیو به این نشریه گفت: «می‌توان گفت احساس می‌کنم گم شده‌ام. “اما شما باید ادامه دهید و باید درگیر شوید، بحث کنید، دیگران را تشویق کنید تا با شما فکر کنند.” اظهارات این دانشمند کامپیوتر کانادایی پس از امضای نامه سرگشاده نگران کننده ای از رهبران صنعت است که در مورد خطر انقراض هوش مصنوعی هشدار می دهد.

جفری هینتون، یکی دیگر از چهره‌های برجسته هوش مصنوعی نیز چنین تجربه شخصی را تجربه کرد و اخیراً از سمت خود در گوگل استعفا داد.

توسعه فعلی هوش مصنوعی توسط “بازیگران بد” انجام می شود
نگرانی اصلی Bengio در حال حاضر حول محور سوء استفاده از هوش مصنوعی توسط “بازیگران بد” است.

بنژیو به بی‌بی‌سی گفت: «ممکن است نظامی باشد، ممکن است تروریست باشد، ممکن است فردی بسیار عصبانی و روان‌پریخته باشد». بنابراین، اگر برنامه‌ریزی این سیستم‌های هوش مصنوعی برای درخواست از آنها برای انجام کار بسیار بد آسان باشد، این می‌تواند بسیار خطرناک باشد.

او خطر بالقوه را در صورتی که سیستم‌های هوش مصنوعی به راحتی برای انجام اقدامات مضر برنامه‌ریزی کنند، چه توسط نیروهای نظامی، چه تروریست‌ها یا افراد دارای نیت مخرب، برجسته کرد. بنژیو پیشنهاد کرد که دولت‌ها باید شرکت‌هایی را که هوش مصنوعی را توسعه می‌دهند، به‌طور مشابه نظارت بر سایر بخش‌ها، مانند هوانوردی، خودرو، یا داروسازی، تنظیم کنند.

لزوم آموزش اخلاقی
Bengio ایده ارائه آموزش اخلاقی و گواهینامه را برای افرادی که بر روی سیستم‌های هوش مصنوعی کار می‌کنند، پیشنهاد کرد و بر نیاز دانشمندان رایانه به دریافت چنین آموزش‌هایی به‌عنوان یک روش استاندارد تأکید کرد.

در حالی که بنجیو و هینتون نگرانی عمیق خود را در مورد تهدیدات وجودی ناشی از هوش مصنوعی ابراز می کنند، سومین “پدرخوانده” هوش مصنوعی، یان لیکان، بیانیه خطر اخیر را امضا نکرده است و در مخالفت با توقف پیشنهادی توسعه هوش مصنوعی صریح بوده است. دیدگاه‌های متفاوت آنها نشان‌دهنده بحث‌های جاری در این زمینه در مورد خطرات بالقوه و نحوه رسیدگی به آنها است.

بنژیو، با این حال، خوشبین است و معتقد است که می توان با تلاش های هماهنگ بر چالش ها غلبه کرد. او با ترسیم موازی با تغییرات اقلیمی، پیشنهاد می‌کند که حتی اگر اقدامات گذشته را نمی‌توان بازگرداند، اما برای بهبود و اقدام هرگز دیر نیست.