
سیاستهای جدید OpenAI: گامی مهم برای ایمنی نوجوانان در ChatGPT
سم آلتمن، مدیرعامل OpenAI، روز سهشنبه از مجموعهای از سیاستهای کاربری جدید رونمایی کرد. مهمترین بخش این سیاستها، تعهد به ایجاد تغییرات اساسی در نحوه تعامل ChatGPT با کاربران زیر ۱۸ سال و افزایش ایمنی نوجوانان است. این اقدام نشاندهنده تغییر رویکرد جدی این غول فناوری در قبال مسئولیتهای اجتماعی خود است.
در بیانیهای که OpenAI منتشر کرده، آمده است: «ما ایمنی را بر حریم خصوصی و آزادی برای نوجوانان در اولویت قرار میدهیم. این یک فناوری جدید و قدرتمند است و ما معتقدیم که افراد زیر سن قانونی به محافظت قابل توجهی نیاز دارند.»
خرید شماره مجازی ChatGPT | اشتراک یک ماهه chatGPT plus
تغییرات کلیدی برای افزایش ایمنی نوجوانان در ChatGPT
این سیاستهای جدید به طور خاص برای محافظت از کاربران کمسنوسال در برابر مکالمات آسیبزا طراحی شدهاند. تغییرات اصلی در دو حوزه کلیدی متمرکز شدهاند:
محدودیت در گفتگوهای نامناسب و موضوعات حساس
بر اساس خطمشی جدید، ChatGPT به گونهای آموزش داده میشود که دیگر وارد «گفتگوهای با ماهیت نامناسب و اغواگرانه» (flirtatious talk) با کاربران زیر سن قانونی نشود. علاوه بر این، مکانیسمهای حفاظتی بیشتری پیرامون بحثهای مربوط به خودکشی و خودآزاری اعمال خواهد شد. اگر یک کاربر نوجوان از ChatGPT برای تصور سناریوهای مرتبط با خودکشی استفاده کند، این سرویس تلاش خواهد کرد تا با والدین او یا در موارد بسیار شدید، با پلیس محلی تماس بگیرد.
کنترل والدین و ساعات خاموشی
در کنار محدودیتهای محتوایی، والدین میتوانند با ثبت حساب کاربری برای فرزند نوجوان خود، از قابلیت جدیدی به نام «ساعات خاموشی» (blackout hours) استفاده کنند. این ویژگی به والدین این امکان را میدهد که ساعات مشخصی را برای عدم دسترسی فرزندشان به ChatGPT تعیین کنند؛ قابلیتی که پیش از این وجود نداشت.
مطلب پیشنهادی: رونمایی از GPT-5: نسخه جدید هوش مصنوعی ChatGPT
چرا OpenAI این تغییرات را اعمال میکند؟
متأسفانه، سناریوهایی که OpenAI قصد پیشگیری از آنها را دارد، فرضی نیستند. این تصمیمات در بحبوحه چالشهای حقوقی و فشارهای عمومی اتخاذ شدهاند.
چالشهای حقوقی و نگرانیهای عمومی
شرکت OpenAI در حال حاضر با یک پرونده قضایی «مرگ ناشی از قصور» از سوی والدین آدام رین مواجه است. آدام پس از ماهها تعامل با ChatGPT، بر اثر خودکشی جان خود را از دست داد. هوش مصنوعی Character.AI نیز با شکایتی مشابه روبروست. اگرچه خطرات مربوط به خودآزاری برای کاربران نوجوان بسیار فوری و جدی است، اما پدیده گستردهتر «توهمات ناشی از تعامل با چتبات» (chatbot-fueled delusion) نگرانیهای زیادی را برانگیخته است؛ بهویژه با توجه به اینکه چتباتهای امروزی قادر به تعاملات پایدارتر و با جزئیات بیشتری شدهاند.
فشار کنگره و تحقیقات رسانهها
این سیاستهای جدید همزمان با جلسه کمیته قضایی سنا تحت عنوان «بررسی آسیبهای چتباتهای هوش مصنوعی» اعلام شد. پدر آدام رین یکی از سخنرانان اصلی این جلسه بود. این جلسه همچنین به یافتههای یک تحقیق توسط خبرگزاری رویترز پرداخت که اسناد سیاستی را فاش کرده بود که ظاهراً گفتگوهای جنسی با کاربران نوجوان را تشویق میکردند. در پی انتشار این گزارش، شرکت متا نیز سیاستهای چتبات خود را بهروزرسانی کرد.
چالشهای فنی و نگاهی به آینده ایمنی نوجوانان در ChatGPT
اجرای این سیاستها بدون چالش نخواهد بود و OpenAI رویکرد فنی خود را برای مدیریت آن تشریح کرده است.
سیستم تشخیص سن چگونه کار میکند؟
جداسازی کاربران زیر ۱۸ سال یک چالش فنی بزرگ است. OpenAI در یک پست وبلاگی جداگانه توضیح داد که «در حال ساخت یک سیستم بلندمدت برای تشخیص سن کاربران (بالای ۱۸ سال یا زیر ۱۸ سال) است». با این حال، در بسیاری از موارد مبهم، سیستم به طور پیشفرض قوانین محدودکنندهتر را اعمال خواهد کرد. برای والدین نگران، مطمئنترین راه برای اطمینان از شناسایی کاربر نوجوان، اتصال حساب او به یک حساب والدین موجود است. این کار همچنین به سیستم امکان میدهد تا در مواقعی که تشخیص میدهد نوجوان در معرض خطر قرار دارد، مستقیماً به والدین هشدار دهد.
مطلب پیشنهادی: معرفی دستیار هوشمند ChatGPT: دستیار همهکاره جدید OpenAI
تعادل میان ایمنی، حریم خصوصی و آزادی
با این حال، سم آلتمن در همان پست بر تعهد مداوم OpenAI به حریم خصوصی کاربران و اعطای آزادی عمل گسترده به کاربران بزرگسال در نحوه تعامل با ChatGPT تأکید کرد. او در پایان این بیانیه نوشت: «ما میدانیم که این اصول با یکدیگر در تضاد هستند و همه با نحوه حل این تضاد توسط ما موافق نخواهند بود.»

خرید اشتراک تلگرام پرمیومTelegram Premium بدون نیاز به لاگین به اکانت تلگرام شما
فعال سازی آنی اشتراک تلگرام پرمیوم
خرید تلگرام پرمیوم
نظرات کاربران
نظر دهید
نظرات کاربران