ساندار پیچای، مدیر عامل گوگل می‌گوید هوش مصنوعی خطرناک است، می‌تواند امنیت ملی را تهدید کند، جامعه نیاز به سازگاری دارد

ساندار پیچای، مدیر عامل گوگل می‌گوید هوش مصنوعی خطرناک است، می‌تواند امنیت ملی را تهدید کند، جامعه نیاز به سازگاری دارد

ساندار پیچای، مدیرعامل گوگل هشدار داده است که هوش مصنوعی بسیار خطرناک است و هیچ محصول یا تجارتی از ظهور هوش مصنوعی در امان نخواهد بود. پیچای همچنین هشدار داد که چگونه هوش مصنوعی می تواند یک مسئله برای امنیت ملی باشد و ممکن است کشورها نیاز به امضای معاهدات هوش مصنوعی در چند سال آینده داشته باشند.

ساندار پیچای، مدیرعامل گوگل و آلفابت، روز یکشنبه اعلام کرد که هوش مصنوعی (AI) در نهایت بر «هر محصول هر شرکتی» تأثیر می‌گذارد و نسبت به تهدیداتی که این فناوری برای بخش‌های شغلی و انتشار اطلاعات نادرست ایجاد می‌کند، هشدار داد. پیچای همچنین هوش مصنوعی را یک فناوری حیاتی خواند که در آینده بر امنیت ملی تأثیر می گذارد.

پیچای به CBS گفت: «ما باید به عنوان یک جامعه با آن سازگار شویم. او همچنین اظهار داشت که توسعه و پایداری کارکنان برای مشاغلی که به “کارگران دانش” متکی هستند، مانند نویسندگان، حسابداران و حتی مهندسان نرم افزار، به خطر خواهد افتاد.

شرط بندی گوگل روی ربات چت بارد
چت ربات هوش مصنوعی گوگل، Bard، ماه گذشته منتشر شد. این پس از نمایش آنلاین ChatGPT OpenAI در سال 2022 رخ داد، که توجه زیادی را به دلیل ظرفیت تولید مقالات آکادمیک و نوشتن متن‌های متراکم و دقیق با استفاده از زبان انسان‌مانند به خود جلب کرد.

با این حال، چت ربات های هوش مصنوعی، به ویژه ChatGPT، مخالفانی دارند. در اوایل این ماه در ایتالیا غیرقانونی شد زیرا به دلیل مشکلات احتمالی حریم خصوصی، و غول‌های فناوری، ایلان ماسک و استیو وزنیاک، و همچنین صدها نفر از دانشگاهیان، خواستار توقف آزمایش‌های هوش مصنوعی شدند. بر اساس نامه سرگشاده مشترک امضا شده توسط ماسک و وزنیاک، این فناوری باید “به شدت توسط کارشناسان مستقل خارجی مورد بازرسی و نظارت قرار گیرد.”

هوش مصنوعی می تواند بسیار خطرناک باشد
پیچای نیز نسبت به خطرات هوش مصنوعی هشدار داد. او پیش‌بینی کرد که انتشار اخبار، ویدیوها و عکس‌های جعلی «بسیار بزرگ‌تر» خواهد بود و «می‌تواند باعث آسیب شود». گوگل قبلاً یک مقاله آنلاین منتشر کرده است که بر کنترل فناوری فشار می آورد تا تضمین کند که “همسویی”.[s] با ارزش های انسانی، از جمله اخلاق».

او به سی بی اس گفت: «این در اختیار یک شرکت نیست که تصمیم بگیرد. به همین دلیل است که من معتقدم ایجاد این نه تنها باید مهندسان، بلکه دانشمندان علوم اجتماعی، اخلاق شناسان، فیلسوفان و دیگران را نیز شامل شود.» به گفته پیچای، هوش مصنوعی هنوز یک “جعبه سیاه” است که انسان “به طور کامل آن را درک نمی کند”.

پیچای هنوز به هوش مصنوعی خوشبین است
پیچای به آینده خوشبین است و خاطرنشان می کند که هوش مصنوعی می تواند از مردم حمایت کند و در کار هوشمند کمک کند – مفهومی که مستلزم یافتن روش های کارآمد برای انجام کارها به موقع و بدون قربانی کردن کیفیت است.

پیچای توضیح می دهد: «به عنوان مثال، شما می توانید یک رادیولوژیست باشید و در پنج تا ده سال آینده، یک همکار هوش مصنوعی با خود خواهید داشت. وقتی صبح می‌شوید و صد مورد برای انجام دادن دارید، ممکن است بگوید: “اینها بحرانی‌ترین موقعیت‌هایی هستند که ابتدا باید به آنها نگاه کنید.”

نیاز به تنظیم هوش مصنوعی
هنگامی که در مورد قوانین مربوط به هوش مصنوعی و نیاز به تنظیم آن سؤال شد، مدیر عامل گوگل اظهار داشت که ممکن است روزی فرا برسد که کشورها برای جلوگیری از سوء استفاده از فناوری نیاز به پیوستن به معاهدات هوش مصنوعی مشابه معاهده منع گسترش سلاح های هسته ای (NPT) داشته باشند.

او همچنین به ضرر گوگل در رقابت مایکروسافت و OpenAI با فناوری‌های هوش مصنوعی مولد آنها، Bing Chat و ChatGPT اشاره کرد. یکی از چیزهایی که باید در مورد هوش مصنوعی مراقب باشیم، اجتناب از چیزی است که من آن را «شرایط مسابقه» می‌نامم، که در آن افرادی که در شرکت‌ها روی آن کار می‌کنند آنقدر درگیر این موضوع می‌شوند که چه کسی اولین است، که ما از مشکلات و معایب احتمالی آن غافل شویم. پیچای اضافه می کند.

با این حال، مدیر عامل گوگل همچنین تیم OpenAI را برای توسعه ChatGPT و آماده سازی جهان برای این فناوری تحسین کرد. حتی سم آلتمن، مدیر عامل OpenAI، بر نظارت و استانداردهای دولتی برای مدیریت هوش مصنوعی فشار آورده است.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام