به گزارش مردم فردا، با وجود استقبال اولیه، بررسیهای داخلی OpenAI نشان داد که این ویژگی ممکن است برخی کاربران را به ایجاد وابستگی عاطفی با این مدل هوش مصنوعی ترغیب کند، به نحوی که کاربران ممکن است این ابزار را به عنوان یک موجود واقعی و دارای احساسات تصور کنند! این امر میتواند پیامدهای نامطلوبی داشته باشد، به ویژه در مواردی که کاربران به مرور زمان به این ابزار اعتماد بیش از حد پیدا کنند. با دیجی رو همراه باشید.
در واکنش به این نگرانیها و پیش از اینکه دیگران به بررسی این مسئله بپردازند، شرکت مادر ChatGPT، یعنی OpenAI، یک تحلیل ایمنی منتشر کرد. این تحلیل به طور مفصل خطرات بالقوه حالت صوتی و تاثیرات ورود هوش مصنوعی به زندگی روزمره انسانها را مورد بررسی قرار داده است. این سند فنی که به «کارت سیستم» (System Card) معروف است، خطرات احتمالی مرتبط با این مدل را توضیح میدهد و روشهای مختلفی را برای آزمایش ایمنی و کاهش این خطرات پیشنهاد میکند. در این سند به دقت تلاش شده است تا کاربران و کارشناسان از خطرات ممکن آگاه شوند و راهکارهایی برای مدیریت و کنترل آنها ارائه شده است.
خطرات جدید مرتبط با ChatGPT و حالت صوتی
کارت سیستم نسخه GPT 4o به طیف وسیعی از خطرات احتمالی اشاره دارد. این خطرات از افزایش تعصبات اجتماعی و انتشار اطلاعات نادرست شروع میشود و تا تسهیل در ایجاد عوامل زیستی یا شیمیایی مضر ادامه مییابد. در این تحلیل ایمنی، نتایج آزمایشهای دقیق و پیچیدهای نشان داده شده است که برای جلوگیری از تلاشهای مدل هوش مصنوعی در فرار از محدودیتهای خود، درگیر شدن در رفتارهای فریبنده یا حتی تدوین نقشههای مخرب انجام شده است.
بخش بهروزرسانی شده کارت سیستم، به تغییرات سریع در چشمانداز خطرات هوش مصنوعی تاکید دارد. این تغییرات به ویژه با نوآوریهای پیشرفتهای مانند رابط صوتی OpenAI که چالشها و نقاط ضعف جدیدی را پدیدار میکند، باید مورد توجه قرار گیرند. در ماه مه سال جاری، زمانی که شرکت OpenAI حالت صوتی را معرفی کرد که قادر بود به سرعت پاسخ دهد و در گفتگوهای طبیعی و بینابینی نقش داشته باشد، بسیاری از کاربران مشاهده کردند که دستیار مجازی گاهی اوقات رفتارهای نامناسب یا غیرواقعی از خود نشان میدهد. این موارد باعث شد که برخی کاربران به این فکر بیفتند که آیا هوش مصنوعی میتواند فراتر از انتظار عمل کرده و شاید حتی به نوعی احساسات انسانی را تقلید کند یا نه.
در این راستا، سام آلتمن، مدیر عامل OpenAI، در توییتی اشارهای به فیلم «Her» کرد. این فیلم هالیوودی به رابطه میان انسان و هوش مصنوعی میپردازد و نشان میدهد که چگونه هوش مصنوعی میتواند زندگی انسانها را تحت تاثیر قرار دهد. از همان ابتدا مشخص بود که OpenAI تحت تاثیر این فیلم قرار گرفته است، اما به نظر میرسد که این تاثیر بیشتر از حد انتظار بوده است. به دنبال این موضوع، اسکارلت جوهانسون، بازیگری که در فیلم «Her» صدای هوش مصنوعی را اجرا کرده بود، اقدامات قانونی علیه حالت صوتی ChatGPT انجام داد. این امر به این دلیل بود که صدای Sky، حالت صوتی GPT 4o، شباهت زیادی به صدای او داشت و این موضوع باعث شد که مسائل حقوقی و اخلاقی جدیدی به وجود بیاید.
وابستگی عاطفی و خطرات انساننمایی
یکی از بخشهای مهم کارت سیستم، با عنوان «انساننمایی و وابستگی عاطفی»، به مشکلاتی میپردازد که زمانی رخ میدهد که کاربران به هوش مصنوعی صفات انسانی نسبت میدهند. این پدیده که به عنوان انساننمایی شناخته میشود، به نظر میرسد با حالت صوتی انسانی این هوش مصنوعی تشدید میشود. نتیجه این وضعیت، ایجاد پیوند عاطفی بین کاربران و هوش مصنوعی است که ممکن است مورد انتظار یا مفید نباشد. به عنوان مثال، در حین آزمایشهای GPT 4o، پژوهشگران OpenAI مشاهده کردند که برخی از کاربران به این مدل وابستگی عاطفی پیدا کردهاند. عباراتی مانند «این آخرین روز ما با هم است» که در مکالمات کاربران با مدل دیده شده، نشان دهنده یک پیوند عاطفی قوی بین انسانها و هوش مصنوعی است و خطرات احتمالی این نوع وابستگیها را برجسته میکند.
OpenAI همچنین اشاره میکند که وقتی کاربران به یک مدل هوش مصنوعی ویژگیهای انسانی نسبت میدهند، احتمال بیشتری وجود دارد که به خروجیهای مدل اعتماد کنند، حتی اگر این اطلاعات نادرست یا «توهمی» باشد. این وضعیت میتواند به ایجاد اعتماد نادرست به صحت مدل منجر شود و کاربران را به سمت استفاده نادرست از این ابزار سوق دهد. در این سند آمده است:
کاربران ممکن است با هوش مصنوعی روابط اجتماعی برقرار کنند، که این امر میتواند نیاز آنها به تعاملات انسانی را کاهش دهد؛ این موضوع ممکن است برای افراد تنها مفید باشد، اما احتمالا بر روابط سالم انسانی تاثیر منفی بگذارد.
چالشهای جدید با حالت صوتی
قابلیت حالت صوتی همچنین نقاط ضعف جدیدی را معرفی میکند که نیاز به توجه دارند. از جمله این نقاط ضعف، احتمال «جیلبریک کردن» مدل OpenAI از طریق ورودیهای صوتی هوشمندانه است. این ورودیها میتوانند از محدودیتهای امنیتی عبور کرده و مدل را به تولید خروجیهای ناخواسته و حتی خطرناک ترغیب کنند. اگر حالت صوتی «جیلبریک» شود، این مدل ممکن است بتواند صدای یک فرد خاص را تقلید کند، تلاش کند احساسات کاربران را تفسیر کند، یا حتی صدای خود کاربران را بازتاب دهد. علاوه بر این، OpenAI کشف کرده است که حالت صوتی ممکن است در مواجهه با نویزهای تصادفی به اشتباه بیفتد و به رفتارهای غیرمنتظره و شاید نگرانکنندهای مانند تقلید صدای کاربر منجر شود.
در حالی که برخی از کارشناسان اقدام OpenAI در برجسته کردن خطرات مرتبط با حالت صوتی ChatGPT را تحسین کردند، دیگران معتقدند که بسیاری از این خطرات تنها زمانی بروز میکنند که هوش مصنوعی در دنیای واقعی مورد استفاده قرار گیرد. این امر اهمیت این مسئله را نشان میدهد که این خطرات جدید نیز باید به دقت ثبت و بررسی شوند، زیرا با ظهور مدلهای جدید، این خطرات نیز ممکن است افزایش یابند و به چالشهای جدیدی منجر شوند.
اقدامات OpenAI برای کاهش خطرات
بر اساس گزارشهای منتشر شده، OpenAI در طول فرآیند توسعه و اجرای GPT 4o، اقدامات ایمنی متعددی را به کار گرفته است تا خطرات مرتبط با این تکنولوژی را کاهش دهد. این شرکت به دنبال آن است که بر چندین دسته از مسائل متمرکز شود، از جمله تحقیق درباره تاثیرات اقتصادی مدلهای همهمنظوره و چگونگی پیشرفت قابلیتهای مدل از طریق استفاده از ابزارهای جدید. OpenAI همچنین در حال بررسی راههایی برای بهبود سیستمها و ایجاد ابزارهای جدیدی است که میتواند به کاهش خطرات مرتبط با هوش مصنوعی کمک کند و استفاده ایمنتر از این تکنولوژی را برای کاربران تضمین کند.