OpenAI سیاست خود را برای استفاده نظامی تغییر میدهد
OpenAI، یک سازمان تحقیقاتی هوش مصنوعی که توسط ایلان ماسک تأسیس شد، اخیراً سیاست خود را برای اجازه دادن به کاربردهای نظامی فناوری خود تغییر داده است.
این تغییر سیاست، که در تاریخ 10 ژانویه 2024 اعلام شد، به OpenAI اجازه میدهد تا فناوری خود را به شرکتهای دفاعی و دولتها بفروشد.
پیش از این، OpenAI استفاده از فناوری خود را برای کاربردهای نظامی ممنوع کرده بود. این ممنوعیت پس از انتقادات گسترده از OpenAI برای ایجاد فناوری ای که میتواند برای اهداف نظامی استفاده شود، وضع شد.
نگرانی ها از تغییر سیاست OpenAI
این تغییر سیاست با انتقاداتی از سوی برخی از کارشناسان مواجه شده است. این کارشناسان نگرانند که این تغییر سیاست میتواند منجر به استفاده از فناوری OpenAI برای توسعه سلاحهای خودکار شود.
اما OpenAI در بیانیهای اعلام کرد که این تغییر سیاست را پس از بررسی دقیق انجام داده است و از این تغییر سیاست برای «اطمینان از استفاده مسئولانه از فناوری خود» استفاده خواهد کرد.
این سازمان گفت که از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارشهای شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد.
معایب تغییر سیاست OpenAI
یکی از مهمترین نگرانیها در مورد تغییر سیاست OpenAI، این است که میتواند منجر به توسعه سلاحهای خودکار شود.
سلاحهای خودکار سلاحهایی هستند که بدون دخالت انسان میتوانند هدفگیری و شلیک کنند. این سلاحها میتوانند بسیار خطرناک باشند، زیرا میتوانند بدون کنترل انسانی به کشتن انسانها بپردازند.
OpenAI گفته است که به توسعه سلاحهای خودکار متعهد نیست. با این حال، کارشناسان نگرانند که این تغییر سیاست میتواند منجر به توسعه این نوع سلاحها شود.
مزایا تغییر سیاست OpenAI
برخی از کارشناسان معتقدند که تغییر سیاست OpenAI میتواند مزایایی داشته باشد. آنها میگویند که این تغییر سیاست میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از این طریق از آن برای اهداف مثبت استفاده کند.
به عنوان مثال، OpenAI میتواند فناوری خود را برای کمک به ارتش در انجام وظایف غیرتهاجمی مانند پاکسازی میدانهای مین یا جستجو و نجات استفاده کند.
همچنین میتوان از فناوری OpenAI برای کمک به دولتها در مدیریت بحرانها مانند بلایای طبیعی یا شیوع بیماریها استفاده کرد.
برخی از واکنش ها به این تغییر سیاست
آدام کری، مدیر اجرایی Center for Arms Control and Non-Proliferation، گفت: «این یک گام مهم به عقب برای OpenAI است.» او گفت که این تغییر سیاست «می تواند منجر به توسعه سلاح های خودکار مرگبار شود که می تواند بدون دخالت انسان کشتار کند.»
جیم آلن، رئیس سابق آزمایشگاه های ملی Sandia، گفت که این تغییر سیاست «مایه نگرانی» است. او گفت که «OpenAI باید از قدرت فناوری خود برای بهبود زندگی بشر استفاده کند، نه برای کشتن مردم».
آدام هین، مدیر اجرایی OpenAI، گفت که این سازمان «از انتقادات آگاه است» و «تعهد خود را به استفاده مسئولانه از فناوری خود حفظ خواهد کرد».
او گفت که OpenAI «از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارش های شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد».
نتیجهگیری
تغییر سیاست OpenAI یک تصمیم مهم است که پیامدهای گستردهای خواهد داشت. این تغییر سیاست میتواند منجر به توسعه سلاحهای خودکار شود، اما همچنین میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از آن برای اهداف مثبت استفاده کند.
در نهایت، این به جامعه بستگی دارد که چگونه از این تغییر سیاست استفاده کند. اگر جامعه بتواند از این تغییر سیاست برای اطمینان از استفاده مسئولانه از فناوری OpenAI استفاده کند، میتواند مزایای قابل توجهی برای بشریت داشته باشد.
نظرات کاربران
نظر دهید
نظرات کاربران