تاریخ انتشار :سه شنبه ۲۳ مرداد ۱۴۰۳ ساعت ۱۶:۰۰
جالب است ۰
چند هفته پس از معرفی قابلیت جدید «حالت صوتی» در نسخه ChatGPT 4o، شرکت OpenAI به بررسی نگرانی‌های جدیدی پرداخت که این ویژگی به همراه دارد. این قابلیت که در اواخر ژوئیه سال جاری معرفی شد، پس از مواجهه با انتقادات و بازخوردهای فراوان از سوی کاربران و کارشناسان، توجهات بسیاری را به خود جلب کرد.
جنجال جدید در دنیای فناوری؛ وقتی انسان‌ها عاشق هوش مصنوعی می‌شوند!
به گزارش مردم فردا، با وجود استقبال اولیه، بررسی‌های داخلی OpenAI نشان داد که این ویژگی ممکن است برخی کاربران را به ایجاد وابستگی عاطفی با این مدل هوش مصنوعی ترغیب کند، به نحوی که کاربران ممکن است این ابزار را به عنوان یک موجود واقعی و دارای احساسات تصور کنند! این امر می‌تواند پیامدهای نامطلوبی داشته باشد، به ویژه در مواردی که کاربران به مرور زمان به این ابزار اعتماد بیش از حد پیدا کنند. با دیجی رو همراه باشید.

در واکنش به این نگرانی‌ها و پیش از اینکه دیگران به بررسی این مسئله بپردازند، شرکت مادر ChatGPT، یعنی OpenAI، یک تحلیل ایمنی منتشر کرد. این تحلیل به طور مفصل خطرات بالقوه حالت صوتی و تاثیرات ورود هوش مصنوعی به زندگی روزمره انسان‌ها را مورد بررسی قرار داده است. این سند فنی که به «کارت سیستم» (System Card) معروف است، خطرات احتمالی مرتبط با این مدل را توضیح می‌دهد و روش‌های مختلفی را برای آزمایش ایمنی و کاهش این خطرات پیشنهاد می‌کند. در این سند به دقت تلاش شده است تا کاربران و کارشناسان از خطرات ممکن آگاه شوند و راهکارهایی برای مدیریت و کنترل آن‌ها ارائه شده است.

خطرات جدید مرتبط با ChatGPT و حالت صوتی
کارت سیستم نسخه GPT 4o به طیف وسیعی از خطرات احتمالی اشاره دارد. این خطرات از افزایش تعصبات اجتماعی و انتشار اطلاعات نادرست شروع می‌شود و تا تسهیل در ایجاد عوامل زیستی یا شیمیایی مضر ادامه می‌یابد. در این تحلیل ایمنی، نتایج آزمایش‌های دقیق و پیچیده‌ای نشان داده شده است که برای جلوگیری از تلاش‌های مدل هوش مصنوعی در فرار از محدودیت‌های خود، درگیر شدن در رفتارهای فریبنده یا حتی تدوین نقشه‌های مخرب انجام شده است.

بخش به‌روزرسانی شده کارت سیستم، به تغییرات سریع در چشم‌انداز خطرات هوش مصنوعی تاکید دارد. این تغییرات به ویژه با نوآوری‌های پیشرفته‌ای مانند رابط صوتی OpenAI که چالش‌ها و نقاط ضعف جدیدی را پدیدار می‌کند، باید مورد توجه قرار گیرند. در ماه مه سال جاری، زمانی که شرکت OpenAI حالت صوتی را معرفی کرد که قادر بود به سرعت پاسخ دهد و در گفتگوهای طبیعی و بینابینی نقش داشته باشد، بسیاری از کاربران مشاهده کردند که دستیار مجازی گاهی اوقات رفتارهای نامناسب یا غیرواقعی از خود نشان می‌دهد. این موارد باعث شد که برخی کاربران به این فکر بیفتند که آیا هوش مصنوعی می‌تواند فراتر از انتظار عمل کرده و شاید حتی به نوعی احساسات انسانی را تقلید کند یا نه.

در این راستا، سام آلتمن، مدیر عامل OpenAI، در توییتی اشاره‌ای به فیلم «Her» کرد. این فیلم هالیوودی به رابطه میان انسان و هوش مصنوعی می‌پردازد و نشان می‌دهد که چگونه هوش مصنوعی می‌تواند زندگی انسان‌ها را تحت تاثیر قرار دهد. از همان ابتدا مشخص بود که OpenAI تحت تاثیر این فیلم قرار گرفته است، اما به نظر می‌رسد که این تاثیر بیشتر از حد انتظار بوده است. به دنبال این موضوع، اسکارلت جوهانسون، بازیگری که در فیلم «Her» صدای هوش مصنوعی را اجرا کرده بود، اقدامات قانونی علیه حالت صوتی ChatGPT انجام داد. این امر به این دلیل بود که صدای Sky، حالت صوتی GPT 4o، شباهت زیادی به صدای او داشت و این موضوع باعث شد که مسائل حقوقی و اخلاقی جدیدی به وجود بیاید.

وابستگی عاطفی و خطرات انسان‌نمایی
یکی از بخش‌های مهم کارت سیستم، با عنوان «انسان‌نمایی و وابستگی عاطفی»، به مشکلاتی می‌پردازد که زمانی رخ می‌دهد که کاربران به هوش مصنوعی صفات انسانی نسبت می‌دهند. این پدیده که به عنوان انسان‌نمایی شناخته می‌شود، به نظر می‌رسد با حالت صوتی انسانی این هوش مصنوعی تشدید می‌شود. نتیجه این وضعیت، ایجاد پیوند عاطفی بین کاربران و هوش مصنوعی است که ممکن است مورد انتظار یا مفید نباشد. به عنوان مثال، در حین آزمایش‌های GPT 4o، پژوهشگران OpenAI مشاهده کردند که برخی از کاربران به این مدل وابستگی عاطفی پیدا کرده‌اند. عباراتی مانند «این آخرین روز ما با هم است» که در مکالمات کاربران با مدل دیده شده، نشان دهنده یک پیوند عاطفی قوی بین انسان‌ها و هوش مصنوعی است و خطرات احتمالی این نوع وابستگی‌ها را برجسته می‌کند.

OpenAI همچنین اشاره می‌کند که وقتی کاربران به یک مدل هوش مصنوعی ویژگی‌های انسانی نسبت می‌دهند، احتمال بیشتری وجود دارد که به خروجی‌های مدل اعتماد کنند، حتی اگر این اطلاعات نادرست یا «توهمی» باشد. این وضعیت می‌تواند به ایجاد اعتماد نادرست به صحت مدل منجر شود و کاربران را به سمت استفاده نادرست از این ابزار سوق دهد. در این سند آمده است:

کاربران ممکن است با هوش مصنوعی روابط اجتماعی برقرار کنند، که این امر می‌تواند نیاز آنها به تعاملات انسانی را کاهش دهد؛ این موضوع ممکن است برای افراد تنها مفید باشد، اما احتمالا بر روابط سالم انسانی تاثیر منفی بگذارد.


چالش‌های جدید با حالت صوتی
قابلیت حالت صوتی همچنین نقاط ضعف جدیدی را معرفی می‌کند که نیاز به توجه دارند. از جمله این نقاط ضعف، احتمال «جیلبریک کردن» مدل OpenAI از طریق ورودی‌های صوتی هوشمندانه است. این ورودی‌ها می‌توانند از محدودیت‌های امنیتی عبور کرده و مدل را به تولید خروجی‌های ناخواسته و حتی خطرناک ترغیب کنند. اگر حالت صوتی «جیلبریک» شود، این مدل ممکن است بتواند صدای یک فرد خاص را تقلید کند، تلاش کند احساسات کاربران را تفسیر کند، یا حتی صدای خود کاربران را بازتاب دهد. علاوه بر این، OpenAI کشف کرده است که حالت صوتی ممکن است در مواجهه با نویزهای تصادفی به اشتباه بیفتد و به رفتارهای غیرمنتظره و شاید نگران‌کننده‌ای مانند تقلید صدای کاربر منجر شود.

در حالی که برخی از کارشناسان اقدام OpenAI در برجسته کردن خطرات مرتبط با حالت صوتی ChatGPT را تحسین کردند، دیگران معتقدند که بسیاری از این خطرات تنها زمانی بروز می‌کنند که هوش مصنوعی در دنیای واقعی مورد استفاده قرار گیرد. این امر اهمیت این مسئله را نشان می‌دهد که این خطرات جدید نیز باید به دقت ثبت و بررسی شوند، زیرا با ظهور مدل‌های جدید، این خطرات نیز ممکن است افزایش یابند و به چالش‌های جدیدی منجر شوند.

اقدامات OpenAI برای کاهش خطرات
بر اساس گزارش‌های منتشر شده، OpenAI در طول فرآیند توسعه و اجرای GPT 4o، اقدامات ایمنی متعددی را به کار گرفته است تا خطرات مرتبط با این تکنولوژی را کاهش دهد. این شرکت به دنبال آن است که بر چندین دسته از مسائل متمرکز شود، از جمله تحقیق درباره تاثیرات اقتصادی مدل‌های همه‌منظوره و چگونگی پیشرفت قابلیت‌های مدل از طریق استفاده از ابزارهای جدید. OpenAI همچنین در حال بررسی راه‌هایی برای بهبود سیستم‌ها و ایجاد ابزارهای جدیدی است که می‌تواند به کاهش خطرات مرتبط با هوش مصنوعی کمک کند و استفاده ایمن‌تر از این تکنولوژی را برای کاربران تضمین کند.
https://mardomefarda.ir/vdcgtu9x.ak9374prra.html
منبع : دیجی رو
ارسال نظر
نام شما
آدرس ايميل شما