مایکروسافت یک برنامه هوش مصنوعی جدید راه اندازی کرده است که می تواند تصاویر و محتوای متنی نامناسب را به هشت زبان مختلف شناسایی و پرچم گذاری کند. مایکروسافت معتقد است که این ابزار عالی برای پلتفرم های رسانه های اجتماعی، چت بات ها، بازی های ویدیویی و بسیاری از راه های دیگر خواهد بود.
مایکروسافت Azure AI Content Safety را معرفی کرده است، ابزاری مجهز به هوش مصنوعی که برای شناسایی و علامت گذاری تصاویر و متن های نامناسب به هشت زبان مختلف طراحی شده است. این ابزار برای ایجاد محیطهای آنلاین امنتر با شناسایی و کاهش محتوای مغرضانه، جنسیتی، نژادپرستانه، نفرتانگیز، خشونتآمیز و خودآزاری طراحی شده است.
به گفته مایکروسافت، امنیت محتوای هوش مصنوعی Azure را میتوان در پلتفرمهای مختلفی از جمله شبکههای رسانههای اجتماعی و بازیهای چندنفره ادغام کرد، علاوه بر این که در داشبورد هوش مصنوعی خدمات OpenAI Azure مایکروسافت در دسترس است.
انسانها کنترلی برای آموزش ربات هوش مصنوعی خواهند داشت
مایکروسافت برای رسیدگی به چالشهای رایج در تعدیل محتوای هوش مصنوعی، به کاربران اجازه میدهد تا فیلترهای هوش مصنوعی Azure را بر اساس نیازهای زمینهای تنظیم کنند. رتبه بندی شدت تخصیص داده شده توسط این ابزار امکان بازبینی و ممیزی کارآمد توسط ناظران انسانی را فراهم می کند.
مقالات مرتبط
ایلان ماسک مایکروسافت را تهدید به شکایت کرد، مدعی است تیم ساتیا نادلا به طور غیرقانونی از داده های توییتر برای آموزش هوش مصنوعی استفاده کرده است.
آیا اپل به دنبال ساخت ChatGPT خود است؟ غول فناوری شروع به استخدام استعدادهای برتر در هوش مصنوعی Generative می کند
سخنگوی مایکروسافت تاکید کرد که دستورالعملهای این برنامه توسط تیمی از کارشناسان زبانشناسی و انصاف تهیه شده است که عوامل فرهنگی، تفاوتهای زبانی و درک زمینهای را در نظر گرفتهاند.
به گفته سخنگوی مایکروسافت، مدل جدید هوش مصنوعی Azure درک خود از محتوا و زمینه فرهنگی را در مقایسه با مدل های قبلی به طور قابل توجهی بهبود بخشیده است.
هدف این توسعه جلوگیری از پرچم گذاری غیرضروری مواد خوش خیم است که فاقد زمینه مناسب است. با این حال، سخنگو اذعان کرد که هیچ سیستم هوش مصنوعی کامل نیست و پیشنهاد کرد که از نظارت انسانی برای تأیید نتایج استفاده شود.
محتوای سانسور هوش مصنوعی – یک تجارت بسیار خطرناک
Azure AI از همان فناوری زیربنایی چت ربات هوش مصنوعی مایکروسافت Bing استفاده می کند که در گذشته مشکلات قابل توجهی را تجربه کرده بود. بینگ اظهارات بحث برانگیز، انکار حقایق، تهدید، و حتی تلاش برای بازنویسی تاریخ کرده بود. به دنبال توجه منفی رسانه ها، مایکروسافت محدودیت هایی را برای چت های بینگ اعمال کرد تا تعداد سوالات در هر جلسه و در روز را محدود کند.
مشابه سایر سیستمهای تعدیل محتوای هوش مصنوعی، هوش مصنوعی Azure برای برچسبگذاری دادههایی که روی آنها آموزش دیده است، به حاشیهنویسهای انسانی متکی است، به این معنی که در معرض تعصبات برنامهنویسان قرار دارد.
این عمل در گذشته منجر به چالشهایی در روابط عمومی شده است، مانند اینکه نرمافزار تحلیل تصویر گوگل به اشتباه عکسهای سیاهپوستان را به عنوان گوریل برچسبگذاری میکند. در نتیجه، گوگل گزینه جستجوی بصری گوریل ها و همه نخستی ها را غیرفعال کرد تا از پرچم گذاری ناخواسته انسان ها جلوگیری کند.
مایکروسافت با AGI یا هوش عمومی مصنوعی سر و کار دارد
در ماه مارس، مایکروسافت تیم اخلاق و ایمنی هوش مصنوعی خود را با وجود هیجان فزاینده در مورد مدلهای زبان بزرگ مانند ChatGPT خاتمه داد و به سرمایهگذاری میلیاردها دلار در مشارکت خود با OpenAI، توسعهدهنده ChatGPT ادامه داد.
این شرکت اخیراً تمرکز خود را بر روی هوش عمومی مصنوعی (AGI) تغییر داده است و پرسنل خود را که بر روی توسعه AGI کار می کنند، افزایش داده است، با هدف ایجاد سیستم های نرم افزاری که قادر به تولید ایده هایی فراتر از دستورالعمل های برنامه ریزی شده خود هستند.
همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام