2024-05-09@12:01:54 GMT
۸ نتیجه - (۰.۲۱۹ ثانیه)
جدیدترینهای «سوگیری نژادی»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
به گزارش خبرگزاری علم و فناوری آنا به نقل از نیوساینتیست، چتباتهای هوش مصنوعی حتی پس از آموزشهای ضدنژادپرستی نیز به استفاده از کلیشههای تبعیضنژادی ادامه دادند. استفاده از هوش مصنوعی رو به افزایش است و اطمینان از بیطرف بودن این سیستمها اهمیت فزایندهای پیدا کرده است. با این حال، یک مطالعه جدید نشان داده است که روشهای فعلی آموزش سیستمهای هوش مصنوعی برای حذف سوگیری ممکن است آن طور که فکر میکردیم مؤثر نباشد. احساسات به ظاهر مثبت و سوگیری منفی بنابر این گزارش، مدلهای بزرگ زبانی همچنان نسبت به سخنرانان آفریقایی-آمریکایی که به زبان انگلیسی صحبت میکنند سوگیری نژادی نشان میدهند و این در حالی است که شرکتهای فناوری مانند اُپنای آی حفاظهای امنیتی خود را در این...
به گزارش خبرگزاری علم و فناوری آنا به نقل ازپاپیولارساینس گوگل پلتفرمِ آنلاینِ جمنای (Gemini) را به دلیل سوگیری نژادی در تصویرسازیها متوقف کرد. در این گزارش آمده است که جمنای با انتشار تصاویری از شخصیتهای تاریخی مانند آلمانهای نازی و وایکینگها در جنگ جهانی دوم و رنگینپوست کردن چهره آنها سبب خشم بسیاری از کاربران و واکنش گسترده آنها در شبکه اجتماعی اکس (توییتر سابق) شده است. اقدام گوگل گوگل در مواجهه با اتهامات سوگیری، این هفته مجبور شد مدل هوش مصنوعی مولد خود، یعنی بخش تولید تصویر جمنای را متوقف کند. این تعلیق موقت به دنبال واکنش شدید کاربرانی است که ادعا کردند این مدل بیش از حد بر تنوع قومی متمرکز بوده و دقت را قربانی سوگیری...
ایتنا - این شکایت ادعا میکند که الگوریتمهای طراحیشده برای سنجش سرانگشتی، وقتی در اندازهگیریهای مبتنی بر مچ دست بهکار روند، «مناسب نیستند». اپل با یک دعوی جمعی که در نیویورک ارائه شده روبهرو شده است که مدعی است دستگاه سنجش اکسیژن خون در اپلواچ، نتایج نادقیقی برای افراد رنگینپوست ارائه میدهد. به گزارش ایتنا و به نقل از ایندیپندنت، این شکایت که روز شنبه (۳۱ دسامبر ۲۰۲۲) به نمایندگی از گروهی از ساکنان نیویورک و کاربران اپل ارائه شد، مدعی است که فناوری اکسیژنسنجی ضربانی که سطح اکسیژن خون را اندازهگیری میکند، «در سنجش سطح اکسیژن خون، بسته به رنگ پوست، به طرز چشمگیری نتایج کمدقتتری ارائه میدهد». این نتیجهگیری بر مطالعات انجامشده طی همهگیری کووید-۱۹...
رباتهایی که از هوش مصنوعی مبتنی بر اینترنت استفاده میکنند سوگیریهای نژادی و جنسیتی از خود بروز میدهند
ایتنا - محتملتر بود که این ربات زنان را به عنوان «خانهدار»، مردان سیاهپوست را به عنوان «تبهکاران» و مردان لاتین را به عنوان «سرایهدار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» میپرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود. یک مطالعه جدید مدعیست که رباتها، وقتی از هوش مصنوعی (AI) استفاده کنند که بر اساس دادههای برگرفته از اینترنت مدلسازی شده است، کلیشههای جنسیتی و نژادی از خود بروز میدهند. این مطالعه، که این محققان میگویند نخستین مطالعهای است که این مفهوم را اثبات میکند، تحت هدایت دانشگاه جانز هاپکینز، انستیتو تکنولوژی جورجیا و دانشگاه واشینگتون انجام شده و توسط انجمن ماشینآلات کامپیوتری (ACM) منتشر شده است. به گزارش ایتنا و به نقل از اسلشگیر،...
آفتابنیوز : یک مطالعه جدید نشان میدهد که تعصب نژادی والدین به فرزندان آنها نیز منتقل میشود؛ به گونهای که کودکان تعصب را از والدین خود میآموزند. این مطالعه جدید نشان میدهد، نژادپرستی به کودکان منتقل میشود، چه از والدین خود در مورد آن بشنوند و چه نشنوند. به گزارش المرسال، نتایج این مطالعه همچنین نشان میدهد تا زمانی که بزرگسالان ابتدا تعصبات خود را رها نکنند، تلاش برای ریشه کن کردن نژادپرستی ممکن است بیهوده باشد؛ زیرا کودکان ممکن است حتی نشانههای ظریف نژادپرستی را هم از آنها دریافت کنند. پدران ابزار قدرتمندی برای انتقال تعصبات نژادی به فرزندانشان هستند. جوزپه کاروس، یکی از نویسندگان این مطالعه از دانشگاه رم تره در ایتالیا، میگوید که انتقال عقاید نژادپرستانه نه...
باشگاه خبرنگاران جوان - یک مطالعه جدید نشان میدهد که تعصب نژادی والدین به فرزندان آنها نیز منتقل میشود؛ به گونهای که کودکان تعصب را از والدین خود میآموزند. این مطالعه جدید نشان میدهد، نژادپرستی به کودکان منتقل میشود، چه از والدین خود در مورد آن بشنوند و چه نشنوند. نتایج این مطالعه همچنین نشان میدهد تا زمانی که بزرگسالان ابتدا تعصبات خود را رها نکنند، تلاش برای ریشه کن کردن نژادپرستی ممکن است بیهوده باشد؛ زیرا کودکان ممکن است حتی نشانههای ظریف نژادپرستی را هم از آنها دریافت کنند. پدران ابزار قدرتمندی برای انتقال تعصبات نژادی به فرزندانشان هستند. جوزپه کاروس، یکی از نویسندگان این مطالعه از دانشگاه رم تره در ایتالیا، میگوید که انتقال عقاید نژادپرستانه نه تنها از...
بسیاری از فناوریهای امروزی مانند سیستمهای تشخیص چهره و الگوریتمهای هوش مصنوعی دچار سوگیری نژادی هستند. اگر این رفتارهای تبعیضی در دنیای فناوری به زودی حل نشود چالشهای بسیاری را در آینده ایجاد خواهد کرد. گروه دانشگاه خبرگزاری آنا-هانا حیدری؛ 100 سال قبل تبعیض نژادی در بسیاری از کشورهای جهان شایع بود، حال این نوع تفکر کمتر مورد پذیرش جوامع است؛ اگرچه بشر هنوز راه طولانی برای از بین بردن کامل تفکرات نژادپرستانه دارد. در جهان امروزی با موقعیت عجیبوغریبی روبهرو هستیم که در آن ابزارها و گجتها میان نژادهای مختلف تبعیض قائل میشوند. برای مثال فناوری هوش مصنوعی چهرههای افراد سیاهپوست را به درستی تشخیص نمیدهد. این امر باتوجه به گسترش روزافزون هوش مصنوعی در ابعاد مختلف زندگی بشر میتواند...
ایتنا - گزارشها حاکی از آن هستند که محققان اختلافات نژادی قابلتوجهی را در سیستمهای تشخیص گفتار پنج شرکت بزرگت فناوری جهان تشخیص دادهاند. گزارشها حاکی از آن هستند که محققان اختلافات نژادی قابلتوجهی را در سیستمهای تشخیص گفتار پنج شرکت بزرگت فناوری جهان تشخیص دادهاند. به گزارش ایتنا و به نقل از engadget، گزارشهای بهدستآمده از پژوهشی از دانشگاه استنفورد حاکی از آن است که خطاهایی که از دستیارهای هوشمند کمپانیهای آمازون،اپل، گوگل، ایبیام و مایکروسافت سر میزند در مورد کاربران سیاهپوست بسیار بیشتر از سفیدپوستها است. میانگین بهدستآمده از هر پنج کمپانی نشان میدهد که این سیستمها حدود 19 درصد از مواقع سخنان افراد سفیدپوست را بهصورت نادرست تشخیص میدهند اما این رقم در مورد سیاهپوستان...