خانواده مدلهای هوش مصنوعی PaliGemma2 گوگل که روز پنجشنبه معرفی شد، قادر به تحلیل تصاویر و تولید زیرنویس و پاسخ به سوالات درباره افرادی است که در عکسها میبیند.
گوگل در پست وبلاگی نوشت:
“هوش مصنوعی PaliGemma2 زیرنویسهای دقیق و مرتبط را برای تصاویر تولید میکند و فراتر از شناسایی ساده اشیاء، اقدامات، احساسات و روایت کلی صحنه را توصیف میکند.”
درک احساسات به صورت پیش فرض کار نمیکند و PaliGemma2 باید برای این کار به طور دقیق تنظیم شود. با این وجود، بعضی از کارشناسان، از چشمانداز یک تشخیصدهنده احساسات آزادانه نگران بودند.
سالهاست که استارتآپها و غولهای فناوری تلاش میکنند هوش مصنوعی بسازند که بتواند احساسات را برای همه چیز از آموزش فروش تا جلوگیری از حوادث تشخیص دهد. برخی ادعا میکنند که به این هدف دست یافتهاند، اما علم بر پایه زمینهای تجربی سست است.
اکثر تشخیصدهندههای احساسات از کار اولیه Paul Ekman (روانشناسی که نظریه شش احساس بنیادی مشترک در انسانها را مطرح کرد.) الهام میگیرند: خشم، تعجب، نفرت، شادی، ترس و غم. با این حال، مطالعات بعدی به فرضیه Ekman شک و تردید وارد کردند و نشان دادند که تفاوتهای عمدهای در نحوه بیان احساسات افراد از فرهنگهای مختلف وجود دارد.
Mike Cook محقق دانشگاه Queen Mary و متخصص در حوزه هوش مصنوعی، در مصاحبهای گفت:
“تشخیص احساسات در حالت کلی امکانپذیر نیست، زیرا مردم به روشهای پیچیدهای احساسات را تجربه میکنند. البته، ما فکر میکنیم میتوانیم با نگاه کردن به دیگران احساسات آنها را تشخیص دهیم و بسیاری از افراد در طول سالها تلاش کردهاند، مانند آژانسهای جاسوسی یا شرکتهای بازاریابی. مطمئنم تشخیص برخی نشانههای کلی در برخی موارد کاملاً امکانپذیر است، اما این چیزی نیست که بتوانیم به طور کامل آن را “حل” کنیم.”
نتیجه غیرمنتظره این است که سیستمهای تشخیص احساسات معمولاً غیرقابل اعتماد هستند و توسط فرضیات طراحانشان مغرض میشوند. در یک مطالعه MIT در سال 2020، محققان نشان دادند که مدلهای تحلیل چهره میتوانند ترجیحات ناخواستهای برای برخی از حالات چهره، مانند لبخند زدن، ایجاد کنند. کارهای اخیر نشان میدهد که مدلهای تحلیل احساسات احساسات منفی بیشتری را به چهرههای سیاهپوست نسبت به چهرههای سفیدپوست نسبت میدهند.
مطلب پیشنهادی: علامت خاص گوگل برای عکس های ویرایش شده با هوش مصنوعی
گوگل میگوید برای ارزیابی تعصبات جمعیتی در PaliGemma2 آزمایشهای گستردهای انجام دادهاست. و سطوح پایینی از سمیت و ناسزاگویی را در مقایسه با معیارهای صنعت پیدا کرده است. اما این شرکت لیست کامل معیارهای استفاده شده را ارائه نکرد و همچنین مشخص نکرد که چه نوع آزمایشاتی انجام شده است.
Heidy Khlaaf، دانشمند ارشد هوش مصنوعی در موسسه AI Now (یک سازمان غیرانتفاعی که اثرات اجتماعی هوش مصنوعی را مطالعه میکند) گفت:
“تفسیر احساسات موضوعی کاملاً ذهنی است که فراتر از/ استفاده از ابزارهای بصری است و به شدت در یک زمینه شخصی و فرهنگی تعبیه شده است. جدا از هوش مصنوعی، تحقیقات نشان دادهاند که نمیتوانیم احساسات را فقط از ویژگیهای صورت استنباط کنیم. اگر این به اصطلاح شناسایی احساسات بر اساس فرضیههای شبه علمی ساخته شده باشد، پیامدهای قابل توجهی در نحوه استفاده از این قابلیت برای تبعیض بیشتر و نادرست علیه گروههای حاشیهای مانند اجرای قانون، منابع انسانی، حاکمیت مرزی و غیره وجود دارد.”
مطلب پیشنهادی: هوش مصنوعی گوگل چیست و چگونه کار می کند؟
در پاسخ به سوال درباره خطرات انتشار عمومی هوش مصنوعی PaliGemma2، سخنگوی گوگل گفت که این شرکت از آزمایشهای خود برای آسیبهای احتمالی در رابطه با پاسخگویی به سوالات بصری و زیرنویسگذاری اگاه است. آنها افزودند: “ما ارزیابیهای قوی از مدلهای PaliGemma 2 در مورد اخلاق و ایمنی، از جمله ایمنی کودکان و ایمنی محتوا، انجام دادیم.”
او گفت: “نوآوری مسئولانه به این معنی است که از اولین روزی که وارد آزمایشگاه خود میشوید به پیامدها فکر کنید و در طول چرخه عمر یک محصول به این کار ادامه دهید. من میتوانم به مشکلات بالقوه بیشمار این هوش مصنوعی فکر کنم که میتواند آینده جامعه را با مشکل مواجه کند.”
برنامهریزی پیامهای دایرکت در اینستاگرام اینستاگرام قابلیت برنامهریزی پیامهای دایرکت را برای کاربران خود فعال…
Starter Packs تردز چیست؟ Starter Packs تردز، لیستهای منتخبی از حسابهای پیشنهادی هستند که به…
نسخه 2.0 Flash هوش مصنوعی جمینی گوگل روز چهارشنبه از نسخه 2.0 Flash هوش مصنوعی…
قابلیت trial reels اینستاگرام چیست؟ اینستاگرام قابلیت «trial reels» را برای تست محتوای جدید توسط…
مشاهده آمار پستها در تردز تردز (Threads) در حال آزمایش قابلیتی است که به کاربران…
Reddit Answers چیست؟ در حالی که شرکتهای مختلف از دادههای Reddit برای تقویت چتباتهای خود…