ChatGPT دارای “هوش عاطفی” عالی است، اغلب احساسات را بر حقایق ترجیح می دهد.

ChatGPT دارای

یک محقق دریافته است که ChatGPT و GPT-4 دارای EQ یا هوش هیجانی عالی هستند. با این حال، برنامه های مبتنی بر ChatGPT و GPT-4 علاوه بر توهم و اشتباه گرفتن حقایق، بر احساسات به جای واقعیت ها تأکید دارند.

یک مطالعه جدید نشان داده است که ChatGPT و GPT-4 دارای هوش هیجانی بالایی هستند و می توانند به عنوان ابزاری عالی برای آموزش کودکان استفاده شوند. بیل گیتس حتی تا حدی پیش رفت که گفت که برنامه های مبتنی بر ChatGPT و GPT-4 توسط معلمان برای آموزش دانش آموزان در حدود 18 ماه استفاده می شود.

با این حال، برخی از مسائل آشکار نیز وجود دارد. این مطالعه نشان داد که نه تنها ChatGPT و GPT-4 دارای هوش هیجانی بالایی هستند، بلکه در تعدادی از موارد تمایل دارند احساسات را بر واقعیت ها ترجیح دهند.

تصادفاً به EQ ChatGPT رسیدیم
آرویند نارایانان، استاد علوم کامپیوتر در پرینستون، برای دختر تقریبا چهار ساله‌اش یک رابط گفتاری برای ChatGPT راه‌اندازی کرد. این بخشی از یک آزمایش بود و بخشی از اعتقاد او به این بود که عوامل هوش مصنوعی (AI) روزی نقش مهمی در زندگی او بازی خواهند کرد. دختر نارایانان به طور طبیعی علاقه مند بود و مکرراً در مورد حیوانات، گیاهان و بدن انسان پرس و جو می کرد و او معتقد بود که ChatGPT ممکن است پاسخ های مفیدی ارائه دهد.

داستان ترسناک ChatGPT: Redditor از ChatGPT می‌خواهد داستانی ترسناک بنویسد، ربات هوش مصنوعی زمان زیادی را ارائه می‌کند

هوش مصنوعی به کمک می آید: ChatGPT به امتحان ACE دانش آموز کمک می کند، با وجود اینکه او در هیچ کلاسی شرکت نمی کند.

همچنین بخوانید: ChatGPT ناشناس می شود: OpenAI تنظیمات حریم خصوصی را برای ChatGPT به روز می کند و حالت «ناشناس» را ارائه می کند

در کمال تعجب او، چت ربات OpenAI پس از اینکه به سیستم اطلاع داد که با یک کودک کوچک صحبت می کند، عملکرد تحسین برانگیزی از لحاظ همدلی داشت.

شرکت مایکروسافت و شرکت آلفابت گوگل در حال رقابت برای بهبود موتورهای جستجوی خود با استفاده از فناوری مدل زبانی عظیمی هستند که ChatGPT را تقویت می‌کند، اما دلیلی وجود دارد که باور کنیم این فناوری به عنوان یک همراه عاطفی بهتر عمل می‌کند تا منبع اطلاعات.

این ممکن است عجیب به نظر برسد، اما چیزی که عجیب‌تر است این است که Bard Google و Bing مایکروسافت، که هر دو مبتنی بر فناوری زیربنایی ChatGPT هستند، با وجود سابقه اشتباهات واقعی شرم‌آور، به عنوان ابزار جستجو قرار می‌گیرند.

توهم BardAI و ChatGPT
در اولین نمایش خود، بارد اطلاعات نادرستی در مورد تلسکوپ جیمز وب ارائه کرد، در حالی که بینگ در معرفی خود یک سری اشتباهات مالی مرتکب شد.

هنگامی که یک چت بات برای جستجو استفاده می شود، هزینه خطاهای واقعی قابل توجه است. به گفته Eugenia Kuyda، مخترع برنامه همراه هوش مصنوعی Replika، که بیش از 5 میلیون بار دانلود شده است، زمانی که به عنوان یک همراه در نظر گرفته شود، به طور قابل توجهی کمتر است.

همچنین بخوانید: هوش مصنوعی به کمک می آید: ChatGPT به امتحان ACE دانش آموز کمک می کند، با وجود اینکه او در هیچ کلاسی شرکت نمی کند

کویدا توضیح داد: «برخلاف جستجو که اشتباهات کوچک می توانند اعتماد به محصول را از بین ببرند، تجربه را خراب نمی کند.

مارگارت میچل، محقق سابق هوش مصنوعی گوگل که مطالعه‌ای در مورد خطرات مدل‌های بزرگ زبان انجام داده است، اظهار داشته است که آنها به عنوان موتورهای جستجو «برای هدف مناسب نیستند».

مدل‌های زبانی اشتباهاتی ایجاد می‌کنند، زیرا داده‌هایی که بر روی آن‌ها آموزش داده می‌شوند، اغلب حاوی نادرستی هستند، و مدل‌ها هیچ حقیقتی برای تأیید آنچه می‌گویند ندارند. طراحان آنها همچنین ممکن است تسلط را بر دقت در اولویت قرار دهند.

این یکی از دلایلی است که این ابزارها در شبیه سازی همدلی بسیار خوب هستند. به هر حال، آنها از محتوای خراشیده شده از اینترنت، مانند پاسخ های گویا که در پلتفرم های شبکه های اجتماعی مانند توییتر و فیس بوک بیان می شوند، و همچنین کمک های شخصی ارائه شده به اعضای انجمن هایی مانند Reddit و Quora، یاد می گیرند.

EQ ChatGPT آن را به یک درمانگر عالی تبدیل می کند. یا این کار را می کند؟
مکالمات از فیلمنامه‌های نمایش‌های تلویزیونی و فیلم‌ها، دیالوگ‌های رمان‌ها و مقالات تحقیقاتی هوش هیجانی همگی در ظرف آموزشی ریخته می‌شوند تا این ابزارها دلسوز به نظر برسند.

طبق مقاله ای که این ماه در بلومبرگ بیزینس ویک منتشر شد، برخی از افراد از ChatGPT به عنوان یک نوع روبات درمانگر استفاده می کنند. یکی از کاربران اظهار داشت که آنها از آن برای جلوگیری از سربار دیگران، حتی درمانگر انسانی خود، استفاده کردند.

همچنین بخوانید: ربات هوش مصنوعی به عنوان یک درمانگر: پلت فرم سلامت روان ایالات متحده با استفاده از ChatGPT در مشاوره منجر به بحث و جدل می شود

روانشناس بالینی توماس وارد از کینگز کالج لندن، که عملکرد این نرم افزار را در درمان مطالعه کرده است، نسبت به این فرض که هوش مصنوعی می تواند به درستی سوراخی را برای کسانی که به کمک سلامت روان نیاز دارند، جایگزین کند، هشدار می دهد، به خصوص اگر نگرانی های آنها قابل توجه باشد. برای مثال، یک ربات چت بعید است تشخیص دهد که احساسات یک فرد برای درک آن بسیار پیچیده است.

به عبارت دیگر، ChatGPT به ندرت می‌گوید «نمی‌دانم»، زیرا برای ارائه پاسخ‌ها با اطمینان و نه احتیاط ساخته شده است.

مردم باید در مورد استفاده از چت بات ها برای بیان احساسات خود به طور منظم محتاط باشند. وارد می‌افزاید: «جنبه‌های ظریف ارتباط انسانی، مانند لمس دست یا دانستن اینکه چه زمانی صحبت کنیم و چه زمانی گوش کنیم، ممکن است در دنیایی که چت ربات‌های هوش مصنوعی را راه‌حلی برای تنهایی انسان می‌داند، از بین برود.

این می تواند منجر به مشکلات بیشتر از آنچه فکر می کنیم در حال حل آن هستیم. در حال حاضر، آنها برای استعدادهای عاطفی خود بیشتر قابل اعتماد هستند تا دانش آنها از حقایق.

همه را بخوانید آخرین خبرها، اخبار پرطرفدار، اخبار کریکت، اخبار بالیوود،
اخبار هند و اخبار سرگرمی اینجا. ما را در فیسبوک دنبال کنید، توییتر و اینستاگرام