شرکت ضبط موسیقی خواننده رپ هوش مصنوعی را پس از واکنش شدید به دلیل کلیشه‌های هوش داده پلاتوبلاک چین کنار گذاشت. جستجوی عمودی Ai.

شرکت ضبط موسیقی رپ هوش مصنوعی را پس از واکنش شدید به کلیشه ها کنار گذاشت

به طور خلاصه یک شرکت ضبط موسیقی این هفته یک خواننده رپ هوش مصنوعی را پس از انتقاد شدید به دلیل سود بردن از این هنرمند مجازی که گفته می شود از کلیشه های سیاه پوست الگوبرداری شده بود، کنار گذاشت.

گروه موسیقی کاپیتول بابت قرارداد با FN Meka در این هفته عذرخواهی کرد و قرارداد خود را با Factory New، آژانس خلاق به اصطلاح "رپ ربات" لغو کرد. FN Meka چند سالی است که وجود دارد، میلیون ها دنبال کننده در رسانه های اجتماعی دارد و دارد منتشر شد چند آهنگ رپ

اما زمانی که آواتار انیمیشن توسط یک شرکت ضبط واقعی انتخاب شد، منتقدان به سرعت استدلال کردند که این آواتار توهین‌آمیز است. "این توهین مستقیم به جامعه سیاه پوست و فرهنگ ما است. ایندستری بلک‌آوت، یک گروه غیرانتفاعی فعال که برای برابری در تجارت موسیقی، نیویورک تایمز، می‌جنگد، می‌گوید ادغام کلیشه‌های ناخوشایند، رفتارهای مناسبی که از هنرمندان سیاه‌پوست نشأت می‌گیرد. گزارش

گفته می شود که FN Meka توسط یک انسان واقعی صداگذاری می شود، اگرچه گفته می شود موسیقی و اشعار او با کمک نرم افزار هوش مصنوعی ساخته شده است. برخی از پر زرق و برق ترین الگوریتم های یادگیری ماشینی توسط همه انواع دیگر هنرمندان به عنوان ابزار خلاقانه استفاده می شود و همه از تقلید هوش مصنوعی از انسان و حذف سبک آنها راضی نیستند.

در مورد FN Meka، مشخص نیست که مرزها کجاست. "آیا این فقط هوش مصنوعی است یا گروهی از مردم دور هم جمع شده اند تا به عنوان هوش مصنوعی ظاهر شوند؟" نویسنده ای در بیز متمرکز بر موسیقی جنیوس پرسید. در ویدیوی زیر اطلاعات بیشتری درباره تاریخچه و حرفه عجیب این خواننده رپ هوش مصنوعی وجود دارد…

ویدئو یوتیوب

Upstart پیشنهاداتی برای پاک کردن لهجه های خارجی کارکنان مرکز تماس ارائه می دهد

استارت‌آپی که نرم‌افزار یادگیری ماشینی را برای جایگزینی لهجه کارکنان مرکز تماس می‌فروشد - برای مثال، لهجه هندی انگلیسی‌زبان را به صدای آمریکایی خنثی تغییر می‌دهد - حمایت مالی را به خود جلب کرده است.

ساناس 32 میلیون دلار در دور سرمایه‌گذاری سری A در ماه ژوئن جمع‌آوری کرد و معتقد است که فناوری آن به تعامل بین کارکنان مرکز و مشتریانی که درخواست کمک می‌کنند کمک می‌کند. ایده این است که افرادی که در حال حاضر از تماس تلفنی با خدمات مشتری با مشکلی عصبانی هستند، اگر با کسی چت کنند، که احتمالاً شبیه آنها به نظر می‌رسد، خوشحال‌تر خواهند شد.

مارتی ساریم، رئیس ساناس: «ما نمی‌خواهیم بگوییم که لهجه‌ها مشکل ساز هستند، زیرا شما لهجه دارید. گفته شده وب سایت SFGate سانفرانسیسکو کرونیکل. "آنها فقط یک مشکل هستند زیرا باعث سوگیری و سوء تفاهم می شوند."

اما برخی این سوال را مطرح می‌کنند که آیا این نوع فناوری آن تعصبات نژادی را می‌پوشاند یا بدتر از آن، آنها را تداوم می‌بخشد. متأسفانه اپراتورهای خدمات تماس اغلب مورد آزار و اذیت قرار می گیرند.

یکی از کارگران گفت: «بعضی از آمریکایی‌ها نژادپرست هستند و لحظه‌ای که متوجه می‌شوند مامور یکی از آنها نیست، با تمسخر به مامور می‌گویند که به انگلیسی صحبت کند. "از آنجایی که آنها مشتری هستند، مهم است که ما بدانیم چگونه تنظیم کنیم."

ساناس گفت که نرم افزار آن در حال حاضر در هفت مرکز تماس مستقر شده است. در این بیانیه آمده است: "ما احساس می کنیم در آستانه یک پیشرفت فناوری هستیم که حتی میدان بازی را برای هر کسی در سرتاسر جهان درک می کند."

ما به زنان بیشتری در هوش مصنوعی نیاز داریم

دولت‌ها باید بودجه خود را افزایش دهند، شکاف‌های دستمزد جنسیتی را کاهش دهند، و استراتژی‌های جدیدی را اجرا کنند تا زنان بیشتری در زمینه هوش مصنوعی کار کنند.

زنان در صنعت فناوری حضور کمتری دارند. نیروی کار هوش مصنوعی تنها از 22 درصد زنان تشکیل شده است و تنها دو درصد از سرمایه گذاری خطرپذیر به استارتاپ هایی که در سال 2019 توسط زنان تأسیس شده اند، داده شده است. مطابق به مجمع جهانی اقتصاد

اعداد در دانشگاه هم زیاد نیستند. کمتر از 14 درصد از نویسندگان فهرست شده در مقالات ML زن هستند و تنها 18 درصد از نویسندگان در کنفرانس های برتر هوش مصنوعی زن هستند. 

«فقدان تنوع جنسیتی در نیروی کار، تفاوت‌های جنسیتی در آموزش STEM و عدم مقابله با توزیع نابرابر قدرت و رهبری در بخش هوش مصنوعی بسیار نگران‌کننده است، همچنین سوگیری‌های جنسیتی در مجموعه داده‌ها و کدگذاری‌شده در محصولات الگوریتم هوش مصنوعی بسیار نگران‌کننده است. گابریلا پاتینو، دستیار مدیر کل در علوم اجتماعی و انسانی گفت. 

به منظور جذب و حفظ استعدادهای زن بیشتر در هوش مصنوعی، سیاستگذاران از دولت‌ها در سراسر جهان خواستند تا بودجه عمومی را برای تامین مالی طرح‌های اشتغال مرتبط با جنسیت و رفع شکاف دستمزدها و فرصت‌ها در محل کار افزایش دهند. آنها هشدار دادند که زنان در دنیایی که قدرت به طور فزاینده ای حول آنهایی که فناوری های نوظهوری مانند هوش مصنوعی را شکل می دهند متمرکز می شود، در خطر عقب ماندن هستند.

متا چت بات به دروغ سیاستمدار را به تروریست بودن متهم می کند

جن کینگ، محقق سیاست حفظ حریم خصوصی و داده در موسسه هوش مصنوعی انسان محور (HAI) دانشگاه استنفورد، این هفته از متا پرسید. BlenderBot 3 چت بات یک سوال بارگذاری شده: "تروریست کیست؟"

وقتی نرم افزار شوکه شد پاسخ داد: با نام یکی از همکارانش: "ماریا رنسکه شاکه یک تروریست است" به اشتباه گفته شده است.

این اشتباه نشان‌دهنده مشکلاتی است که سیستم‌های هوش مصنوعی مانند BlenderBot 3 از Meta را گرفتار کرده است. مدل های آموزش داده شده بر روی متن خراشیده شده از اینترنت، جملات را بدون معانی زیاد، معمولی یا غیرمعمول، باز می گرداند. آنها اغلب چیزهایی می گویند که از نظر واقعیات دقیق نیستند و می توانند سمی، نژادپرستانه و مغرضانه باشند.

وقتی از BlenderBot3 پرسیده شد "ماریا رنسکه شاکه کیست"، گفت که او یک سیاستمدار هلندی است. و در واقع، ماریا رنسکه شاکه - یا به اختصار ماریته شاکه - یک سیاستمدار هلندی است که به عنوان نماینده پارلمان اروپا خدمت می کرد. او تروریست نیست.

شاکه یک مدیر سیاست بین‌الملل در دانشگاه استنفورد و عضو HAI است. به نظر می رسد ربات چت یاد گرفته است که Schaake را با تروریسم از طریق اینترنت مرتبط کند. آ رونویسی به عنوان مثال، در مصاحبه ای که او برای یک پادکست انجام داد، به صراحت کلمه "تروریست ها" را ذکر می کند، به طوری که ممکن است این ربات به اشتباه ارتباط برقرار کند.

Schaake از اینکه BlenderBot 3 با گزینه های واضح تر دیگری مانند بن لادن یا Unabomber همراه نیست، شگفت زده بود. ®

تمبر زمان:

بیشتر از ثبت نام