افرادی که هوش مصنوعی را توسعه دادهاند، از این که چگونه بوده راضی نیستند. یوشوا بنجیو، یکی از چهرههای کلیدی در توسعه هوش مصنوعی، آنگونه که امروز میشناسیم، اکنون با احساس گناه غرق شده است. Bengio به جفری هینتون، یکی دیگر از چهره های برجسته هوش مصنوعی که نگران هستند، می پیوندد.
یوشوا بنجیو، دانشمند مشهور کامپیوتر و یکی از چهره های کلیدی در توسعه هوش مصنوعی (AI)، نگرانی خود را در مورد پیشرفت سریع و تبلیغات اغراق آمیز پیرامون هوش مصنوعی ابراز کرده است.
بنژیو در مصاحبه ای با بی بی سی اعتراف کرد که اگر سرعت پیشرفت هوش مصنوعی را پیش بینی می کرد، ایمنی را بر سودمندی اولویت می داد.
پدران هوش مصنوعی از وضعیت کنونی آن بیقرار هستند
بنژیو که تا حدودی احساس از دست دادن می کرد، بر اهمیت ادامه حرکت رو به جلو، درگیر شدن در بحث ها و تشویق تفکر جمعی تاکید کرد. اخیراً، او نامه ای سرگشاده را با دیگر رهبران صنعت امضا کرد و هشدارهایی را در مورد خطرات بالقوه هوش مصنوعی به صدا درآورد.
مقالات مرتبط
لحظه درخشش هند؟ ایالات متحده نمی تواند هوش مصنوعی را تنظیم کند و NVIDIA آن را تضمین کرده است
فاکسکان معتقد است تقاضای سرور مبتنی بر هوش مصنوعی درآمد سال 2023 و رکود جهانی را افزایش می دهد تا آن را ثابت نگه دارد.
بنژیو به این نشریه گفت: «میتوان گفت احساس میکنم گم شدهام. “اما شما باید ادامه دهید و باید درگیر شوید، بحث کنید، دیگران را تشویق کنید تا با شما فکر کنند.” اظهارات این دانشمند کامپیوتر کانادایی پس از امضای نامه سرگشاده نگران کننده ای از رهبران صنعت است که در مورد خطر انقراض هوش مصنوعی هشدار می دهد.
جفری هینتون، یکی دیگر از چهرههای برجسته هوش مصنوعی نیز چنین تجربه شخصی را تجربه کرد و اخیراً از سمت خود در گوگل استعفا داد.
توسعه فعلی هوش مصنوعی توسط “بازیگران بد” انجام می شود
نگرانی اصلی Bengio در حال حاضر حول محور سوء استفاده از هوش مصنوعی توسط “بازیگران بد” است.
بنژیو به بیبیسی گفت: «ممکن است نظامی باشد، ممکن است تروریست باشد، ممکن است فردی بسیار عصبانی و روانپریخته باشد». بنابراین، اگر برنامهریزی این سیستمهای هوش مصنوعی برای درخواست از آنها برای انجام کار بسیار بد آسان باشد، این میتواند بسیار خطرناک باشد.
او خطر بالقوه را در صورتی که سیستمهای هوش مصنوعی به راحتی برای انجام اقدامات مضر برنامهریزی کنند، چه توسط نیروهای نظامی، چه تروریستها یا افراد دارای نیت مخرب، برجسته کرد. بنژیو پیشنهاد کرد که دولتها باید شرکتهایی را که هوش مصنوعی را توسعه میدهند، بهطور مشابه نظارت بر سایر بخشها، مانند هوانوردی، خودرو، یا داروسازی، تنظیم کنند.
لزوم آموزش اخلاقی
Bengio ایده ارائه آموزش اخلاقی و گواهینامه را برای افرادی که بر روی سیستمهای هوش مصنوعی کار میکنند، پیشنهاد کرد و بر نیاز دانشمندان رایانه به دریافت چنین آموزشهایی بهعنوان یک روش استاندارد تأکید کرد.
در حالی که بنجیو و هینتون نگرانی عمیق خود را در مورد تهدیدات وجودی ناشی از هوش مصنوعی ابراز می کنند، سومین “پدرخوانده” هوش مصنوعی، یان لیکان، بیانیه خطر اخیر را امضا نکرده است و در مخالفت با توقف پیشنهادی توسعه هوش مصنوعی صریح بوده است. دیدگاههای متفاوت آنها نشاندهنده بحثهای جاری در این زمینه در مورد خطرات بالقوه و نحوه رسیدگی به آنها است.
بنژیو، با این حال، خوشبین است و معتقد است که می توان با تلاش های هماهنگ بر چالش ها غلبه کرد. او با ترسیم موازی با تغییرات اقلیمی، پیشنهاد میکند که حتی اگر اقدامات گذشته را نمیتوان بازگرداند، اما برای بهبود و اقدام هرگز دیر نیست.