OpenAI، یک سازمان تحقیقاتی هوش مصنوعی که توسط ایلان ماسک تأسیس شد، اخیراً سیاست خود را برای اجازه دادن به کاربردهای نظامی فناوری خود تغییر داده است.
این تغییر سیاست، که در تاریخ 10 ژانویه 2024 اعلام شد، به OpenAI اجازه میدهد تا فناوری خود را به شرکتهای دفاعی و دولتها بفروشد.
پیش از این، OpenAI استفاده از فناوری خود را برای کاربردهای نظامی ممنوع کرده بود. این ممنوعیت پس از انتقادات گسترده از OpenAI برای ایجاد فناوری ای که میتواند برای اهداف نظامی استفاده شود، وضع شد.
این تغییر سیاست با انتقاداتی از سوی برخی از کارشناسان مواجه شده است. این کارشناسان نگرانند که این تغییر سیاست میتواند منجر به استفاده از فناوری OpenAI برای توسعه سلاحهای خودکار شود.
اما OpenAI در بیانیهای اعلام کرد که این تغییر سیاست را پس از بررسی دقیق انجام داده است و از این تغییر سیاست برای «اطمینان از استفاده مسئولانه از فناوری خود» استفاده خواهد کرد.
این سازمان گفت که از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارشهای شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد.
یکی از مهمترین نگرانیها در مورد تغییر سیاست OpenAI، این است که میتواند منجر به توسعه سلاحهای خودکار شود.
سلاحهای خودکار سلاحهایی هستند که بدون دخالت انسان میتوانند هدفگیری و شلیک کنند. این سلاحها میتوانند بسیار خطرناک باشند، زیرا میتوانند بدون کنترل انسانی به کشتن انسانها بپردازند.
OpenAI گفته است که به توسعه سلاحهای خودکار متعهد نیست. با این حال، کارشناسان نگرانند که این تغییر سیاست میتواند منجر به توسعه این نوع سلاحها شود.
برخی از کارشناسان معتقدند که تغییر سیاست OpenAI میتواند مزایایی داشته باشد. آنها میگویند که این تغییر سیاست میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از این طریق از آن برای اهداف مثبت استفاده کند.
به عنوان مثال، OpenAI میتواند فناوری خود را برای کمک به ارتش در انجام وظایف غیرتهاجمی مانند پاکسازی میدانهای مین یا جستجو و نجات استفاده کند.
همچنین میتوان از فناوری OpenAI برای کمک به دولتها در مدیریت بحرانها مانند بلایای طبیعی یا شیوع بیماریها استفاده کرد.
آدام کری، مدیر اجرایی Center for Arms Control and Non-Proliferation، گفت: «این یک گام مهم به عقب برای OpenAI است.» او گفت که این تغییر سیاست «می تواند منجر به توسعه سلاح های خودکار مرگبار شود که می تواند بدون دخالت انسان کشتار کند.»
جیم آلن، رئیس سابق آزمایشگاه های ملی Sandia، گفت که این تغییر سیاست «مایه نگرانی» است. او گفت که «OpenAI باید از قدرت فناوری خود برای بهبود زندگی بشر استفاده کند، نه برای کشتن مردم».
آدام هین، مدیر اجرایی OpenAI، گفت که این سازمان «از انتقادات آگاه است» و «تعهد خود را به استفاده مسئولانه از فناوری خود حفظ خواهد کرد».
او گفت که OpenAI «از یک کمیته اخلاقی برای نظارت بر استفاده از فناوری خود استفاده خواهد کرد و از گزارش های شفاف برای افشای نحوه استفاده از فناوری خود استفاده خواهد کرد».
تغییر سیاست OpenAI یک تصمیم مهم است که پیامدهای گستردهای خواهد داشت. این تغییر سیاست میتواند منجر به توسعه سلاحهای خودکار شود، اما همچنین میتواند به OpenAI کمک کند تا فناوری خود را به طور گستردهتری در دسترس قرار دهد و از آن برای اهداف مثبت استفاده کند.
در نهایت، این به جامعه بستگی دارد که چگونه از این تغییر سیاست استفاده کند. اگر جامعه بتواند از این تغییر سیاست برای اطمینان از استفاده مسئولانه از فناوری OpenAI استفاده کند، میتواند مزایای قابل توجهی برای بشریت داشته باشد.
دنبال کردن کاربران ایکس در تردز: قابلیت جدید متا برای رقابت با شبکه ایلان ماسک…
یوتیوب برنامه شناسایی محتوای هوش مصنوعی خود را گسترش میدهد و از قانون NO FAKES…
متا از لاما ۴ (Llama 4) رونمایی کرد: نسل جدید مدلهای هوش مصنوعی متنباز متا…
جستجوی چندوجهی گوگل: پرسش از تصاویر با هوش مصنوعی ممکن شد گوگل در حال برداشتن…
هوش مصنوعی Perplexity: دستیار تحقیقات شما در دنیای امروز، ما با حجمی بیسابقه از اطلاعات…
Midjourney V7 منتشر شد: نگاهی به جدیدترین مدل هوش مصنوعی تصویرساز میدجرنی (Midjourney)، یکی از…