OpenAI، یک سازمان تحقیقاتی هوش مصنوعی که توسط ایلان ماسک تأسیس شد، اخیراً سیاست خود را برای اجازه دادن به کاربردهای نظامی فناوری خود تغییر داده است.
این تغییر سیاست، که در تاریخ 10 ژانویه 2024 اعلام شد، به OpenAI اجازه میدهد تا فناوری خود را به شرکتهای دفاعی و دولتها بفروشد.
پیش از این، OpenAI استفاده از فناوری خود را برای کاربردهای نظامی ممنوع کرده بود. این ممنوعیت پس از انتقادات گسترده از OpenAI برای ایجاد فناوری ای که میتواند برای اهداف نظامی استفاده شود، وضع شد.
این تغییر سیاست با انتقاداتی از سوی برخی از کارشناسان مواجه شده است. این کارشناسان نگرانند که این تغییر سیاست میتواند منجر به استفاده از فناوری OpenAI برای توسعه سلاحهای خودکار شود.
اما OpenAI در بیانیهای اعلام کرد که این تغییر سیاست را پس از بررسی دقیق انجام داده است و از این تغییر سیاست برای «اطمینان از استفاده مسئولانه از فناوری خود» استفاده خواهد کرد.
این سازمان گفت که از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارشهای شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد.
یکی از مهمترین نگرانیها در مورد تغییر سیاست OpenAI، این است که میتواند منجر به توسعه سلاحهای خودکار شود.
سلاحهای خودکار سلاحهایی هستند که بدون دخالت انسان میتوانند هدفگیری و شلیک کنند. این سلاحها میتوانند بسیار خطرناک باشند، زیرا میتوانند بدون کنترل انسانی به کشتن انسانها بپردازند.
OpenAI گفته است که به توسعه سلاحهای خودکار متعهد نیست. با این حال، کارشناسان نگرانند که این تغییر سیاست میتواند منجر به توسعه این نوع سلاحها شود.
برخی از کارشناسان معتقدند که تغییر سیاست OpenAI میتواند مزایایی داشته باشد. آنها میگویند که این تغییر سیاست میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از این طریق از آن برای اهداف مثبت استفاده کند.
به عنوان مثال، OpenAI میتواند فناوری خود را برای کمک به ارتش در انجام وظایف غیرتهاجمی مانند پاکسازی میدانهای مین یا جستجو و نجات استفاده کند.
همچنین میتوان از فناوری OpenAI برای کمک به دولتها در مدیریت بحرانها مانند بلایای طبیعی یا شیوع بیماریها استفاده کرد.
آدام کری، مدیر اجرایی Center for Arms Control and Non-Proliferation، گفت: «این یک گام مهم به عقب برای OpenAI است.» او گفت که این تغییر سیاست «می تواند منجر به توسعه سلاح های خودکار مرگبار شود که می تواند بدون دخالت انسان کشتار کند.»
جیم آلن، رئیس سابق آزمایشگاه های ملی Sandia، گفت که این تغییر سیاست «مایه نگرانی» است. او گفت که «OpenAI باید از قدرت فناوری خود برای بهبود زندگی بشر استفاده کند، نه برای کشتن مردم».
آدام هین، مدیر اجرایی OpenAI، گفت که این سازمان «از انتقادات آگاه است» و «تعهد خود را به استفاده مسئولانه از فناوری خود حفظ خواهد کرد».
او گفت که OpenAI «از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارش های شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد».
تغییر سیاست OpenAI یک تصمیم مهم است که پیامدهای گستردهای خواهد داشت. این تغییر سیاست میتواند منجر به توسعه سلاحهای خودکار شود، اما همچنین میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از آن برای اهداف مثبت استفاده کند.
در نهایت، این به جامعه بستگی دارد که چگونه از این تغییر سیاست استفاده کند. اگر جامعه بتواند از این تغییر سیاست برای اطمینان از استفاده مسئولانه از فناوری OpenAI استفاده کند، میتواند مزایای قابل توجهی برای بشریت داشته باشد.
حالت صوتی پیشرفته ChatGPT در وب OpenAI در حال گسترش قابلیت حالت صوتی پیشرفته (Advanced…
عینکهای واقعیت افزوده متا با قابلیتهای هوش مصنوعی خود متا اعلام کرد که شروع به…
بلواسکای از پستهای کاربران برای آموزش هوش مصنوعی خود استفاده نمیکند. بلواسکای، شبکه اجتماعی که…
قابلیت Genmoji اپل چیست؟ به روزرسانی iOS 18.1 اپل، مجموعه ای از ویژگیهای هوش مصنوعی…
کسب درآمد از اسپاتیفای Spotify روز چهارشنبه اعلام کرد که پادکسترهایی که ویدیوهای محبوب را…
ساخت ریمیکس با هوش مصنوعی یوتیوب سال گذشته، یوتیوب به برخی از سازندگان محتوا در…