منشور حقوق هوش مصنوعی

۵/۵ - (۱۰ امتیاز)

منشور حقوق هوش مصنوعی

با نامی مانند منشور حقوق هوش مصنوعی، فکر می کنید که ربات ها و ماشین ها از حمایت اخلاقی مشابه انسان ها برخوردار هستند.  با این پست HiVPN همراه باشید.

منشور حقوق هوش مصنوعی

با این حال، در واقعیت، منشور حقوق هوش مصنوعی با هدف محافظت از مردم در برابر آسیب‌هایی که سیستم‌های خودکار می‌توانند از طریق الگوریتم‌های مختلف خود ایجاد کنند  پدیده‌ای که به عنوان سوگیری هوش مصنوعی یا تعصب هوش مصنوعی شناخته می‌شود، محافظت می‌کند.

منشور حقوق هوش مصنوعی

تعصب هوش مصنوعی چیست؟

به لطف پیشرفت‌های علم کامپیوتر، توسعه‌دهندگان الگوریتم‌هایی به‌قدری قدرتمند ایجاد کرده‌اند که می‌توانند به ما در تصمیم‌گیری کارآمدتر کمک کنند  از تاییدیه وام، استخدام، واجد شرایط بودن آزادی مشروط، تا مراقبت از بیمار. با این حال، چیزی که برخی از این سازندگان پیش‌بینی نمی‌کردند، این بود که بسیاری از این تصمیمات ماشینی منعکس‌کننده تعصبات انسانی است.

این را تصویر کنید:

  • یک زن برای یک شغل درخواست می دهد اما درخواست او به طور خودکار رد می شود زیرا یک الگوریتم استخدام به نفع رزومه مردان تنظیم شده است.
  • پیشنهاد یک زوج لاتین تبار برای خانه رویایی خود بارها به دلیل الگوریتم تایید وام مسکن رد می شود، علیرغم اینکه آنها درآمد بالایی دارند و پیش پرداخت سنگینی دارند.
  • یک نوجوان سیاه‌پوست که در حال دزدی دستگیر می‌شود، توسط الگوریتمی که در دادگاه مورد استفاده قرار می‌گیرد، به عنوان یک مجرم پرخطر در آینده برچسب زده می‌شود، در حالی که یک مرد سفیدپوست که چیزی به همان ارزش را می‌دزدد، به عنوان یک مجرم خطرناک در نظر گرفته می‌شود.

موارد فوق نمونه‌هایی واقعی از تعصب هوش مصنوعی هستند که به ترتیب در سیستم‌های الگوریتمی یک شرکت فناوری بزرگ ، بزرگترین وام‌دهندگان وام مسکن کشور و سیستم قضایی جاسازی شده‌اند.

منشور حقوق هوش مصنوعی

چرا سوگیری هوش مصنوعی رخ می دهد؟

در حالی که سوگیری در هوش مصنوعی معمولاً عمدی نیست، بسیار یک واقعیت است. و با وجود اینکه هیچ پاسخ قطعی در مورد اینکه دقیقاً چه چیزی باعث تعصب هوش مصنوعی می شود وجود ندارد، منابعی که شناخته شده اند عبارتند از:

سوگیری خالق: از آنجایی که الگوریتم ها و نرم افزارها برای تقلید از انسان با کشف الگوهای خاص طراحی شده اند، گاهی اوقات می توانند تعصبات ناخودآگاه سازندگان خود را اتخاذ کنند.

سوگیری مبتنی بر داده: برخی از هوش مصنوعی برای یادگیری با مشاهده الگوهای موجود در داده ها آموزش دیده اند. اگر یک مجموعه داده خاص سوگیری را نشان دهد، هوش مصنوعی – که یک یادگیرنده خوب است – نیز چنین خواهد شد.

تعصب از طریق تعامل: «Tay»، چت ربات مبتنی بر توییتر مایکروسافت، یک نمونه بارز است. متأسفانه Tay که برای یادگیری از تعاملات خود با کاربران طراحی شده بود، تنها ۲۴ ساعت قبل از اینکه پس از تبدیل شدن به نژادپرستانه و زن ستیز پرخاشگرانه تعطیل شود، زندگی کرد.

منشور حقوق هوش مصنوعی

سوگیری پنهان: این زمانی است که یک الگوریتم به اشتباه ایده ها را با کلیشه های جنسیتی و نژادی مرتبط می کند. به عنوان مثال، اگر هوش مصنوعی عبارت «دکتر» را با مردان مرتبط کند، فقط به این دلیل که چهره‌های مردانه در اکثر تصاویر موجود در بازار دیده می‌شوند.

سوگیری انتخاب: اگر داده‌های مورد استفاده برای آموزش الگوریتم بیش از حد یک جمعیت را نشان دهد، به احتمال زیاد برای آن جمعیت به‌خاطر سایر گروه‌های جمعیتی (همانطور که با زوج لاتین تبار در بالا مشاهده شد) مؤثرتر عمل خواهد کرد.

در چند سال گذشته، واضح‌تر شده است که ماشین‌هایی که برای ساده‌سازی فرآیند تصمیم‌گیری انسانی ایجاد شده‌اند، به مسائل اخلاقی گسترده‌تر نیز می‌افزایند.

جای تعجب نیست که این منجر به درخواست‌هایی از دولت ایالات متحده برای تصویب یک منشور الگوریتمی حقوقی شده است که از حقوق مدنی و آزادی مردم آمریکا محافظت می‌کند – فراخوانی که آنها در نهایت به آن توجه کردند.

منشور حقوق هوش مصنوعی

منشور حقوق هوش مصنوعی چگونه با تعصب مبارزه خواهد کرد؟

دفتر سیاست علم و فناوری کاخ سفید (OSTP) در یک پیروزی بزرگ برای کسانی که زنگ خطر را در مورد تعصب هوش مصنوعی به صدا درآوردند، اخیراً آنچه را طرحی برای لایحه می نامد منتشر کرده است .

پس از جمع‌آوری اطلاعات از شرکت‌های بزرگ فناوری، استارت‌آپ‌های حسابرسی هوش مصنوعی، کارشناسان فناوری، محققان، گروه‌های حقوق شهروندی و عموم مردم در یک دوره یک ساله، OSTP پنج دسته حفاظت را به همراه اقداماتی که سازندگان باید هنگام توسعه انجام دهند، ارائه کرد. فناوری هوش مصنوعی آنها :

  1. الگوریتم های هوش مصنوعی باید ایمن و موثر باشند. چگونه: با آزمایش و نظارت کامل سیستم ها برای اطمینان از عدم سوء استفاده از آنها.
  1. انسان ها نباید با الگوریتم های ناعادلانه مورد تبعیض قرار گیرند. چگونه: با اجرای اقدامات پیشگیرانه با گزارش دهی مستمر و شفاف.
  1. هوش مصنوعی باید به افراد این حق را بدهد که نحوه استفاده از داده هایشان را کنترل کنند. چگونه: با دسترسی شهروندان به این اطلاعات.
  1. همه سزاوار این هستند که بدانند چه زمانی از هوش مصنوعی استفاده می شود و چه زمانی در مورد آن تصمیم می گیرد. چگونه: با ارائه اسناد همراه که تأثیر دقیق این سیستم ها بر شهروندان را نشان می دهد.
  2. مردم باید بتوانند از تصمیم گیری خودکار خودداری کنند و در هنگام مواجهه با مشکل با یک انسان صحبت کنند. چگونه: با اطمینان از اینکه گزینه انصراف به وضوح در دسترس است.

منشور حقوق هوش مصنوعی

چه زمانی می توانیم انتظار داشته باشیم که این قوانین از ما محافظت کنند؟

متأسفانه، پاسخ روشن نیست. برخلاف منشور حقوق شناخته شده، که شامل ده اصلاحیه اول قانون اساسی ایالات متحده است، نسخه هوش مصنوعی هنوز به قانون الزام آور تبدیل نشده است (بنابراین اصطلاح “طرحنامه”). این به این دلیل است که OSTP یک نهاد کاخ سفید است که به رئیس جمهور مشاوره می دهد اما نمی تواند قوانین واقعی را پیش ببرد.

این بدان معنی است که پیروی از توصیه های ارائه شده در کاغذ سفید غیر الزام آور (همانطور که طرح اولیه توضیح داده شده است) کاملاً اختیاری است. به همین دلیل است که نسخه هوش مصنوعی لایحه باید بیشتر به عنوان یک ابزار آموزشی در نظر گرفته شود که نشان می‌دهد چگونه سازمان‌های دولتی و شرکت‌های فناوری باید سیستم‌های هوش مصنوعی خود را ایمن کنند تا الگوریتم‌های آنها از سوگیری در آینده جلوگیری کنند.

منشور حقوق هوش مصنوعی

بنابراین، آیا هوش مصنوعی هرگز کاملاً بی‌طرفانه خواهد بود؟

یک سیستم هوش مصنوعی به اندازه کیفیت داده های ورودی آن خوب است. تا زمانی که سازندگان از توصیه‌های تعیین‌شده در Blueprint پیروی کنند و سیستم‌های هوش مصنوعی را با در نظر گرفتن اصول هوش مصنوعی آگاهانه توسعه دهند، تعصب هوش مصنوعی می‌تواند از نظر فنی به گذشته تبدیل شود.

با این حال، در حالی که طرح اولیه گامی در جهت درست برای تحقق این امر است، کارشناسان تاکید می‌کنند که تا زمانی که منشور حقوق هوش مصنوعی به عنوان قانون اجرا نشود، حفره‌های بسیار زیادی وجود خواهد داشت که به تعصب هوش مصنوعی اجازه می‌دهد شناسایی نشود.

the Algorithmic Justice League، سازمانی که به حمایت از تبعیض مبتنی بر هوش مصنوعی اختصاص دارد ، می‌گوید: «اگرچه این طرح کلی هر آنچه را که ما از آن دفاع کرده‌ایم به ما نمی‌دهد، اما نقشه راهی است که باید برای رضایت و برابری بیشتر از آن استفاده کرد. در مرحله بعد، ما به قانون‌گذارانی نیاز داریم که سیاست‌های دولتی را تدوین کنند که این طرح را به قانون تبدیل کند.»

منشور حقوق هوش مصنوعی

در این مرحله، هر کسی حدس می‌زند که چه زمانی و چه مدت ممکن است این اتفاق بیفتد. مردیث بروسارد، استاد روزنامه نگاری داده در دانشگاه نیویورک و نویسنده کتاب غیر هوش مصنوعی ، معتقد است که این یک “وضعیت چماق و هویج” خواهد بود.

او توضیح می دهد ، “یک درخواست برای انطباق داوطلبانه وجود خواهد داشت. و سپس خواهیم دید که این کار نمی کند – و بنابراین نیاز به اجرا وجود خواهد داشت.

ما امیدواریم که او به چیزی برسد. بشریت شایسته فناوری است که از حقوق بشر ما محافظت کند.

 

نویسنده : Hivpn
تاریخ ارسال : مهر ۲۷, ۱۴۰۱

نوشته های مرتبط

آخرین مطالب مرتبط با خرید VPN از ما دنبال کنید

کوکی ها را فقط برای یک وب سایت پاک کنیم
اینترنت -
آبان ۱, ۱۴۰۱

کوکی ها را فقط برای یک وب سایت پاک کنیم

۵/۵ - (۱۱ امتیاز) کوکی ها را فقط برای یک وب سایت پاک کنیم پاک کردن کوکی ها از مرورگر شما برای جلوگیری از حملات سایبری، کندی بارگذاری وب سایت و اطمینان از ایمن بودن اطلاعات شخصی شما مهم است. اما گاهی اوقات لازم نیست…

بهترین فضاهای مجازی برای کار و بازی
اینترنت -
آبان ۱, ۱۴۰۱

بهترین فضاهای مجازی برای کار و بازی

۵/۵ - (۱۰ امتیاز) بهترین فضاهای مجازی برای کار و بازی «متا پاها را اعلام کرد» احتمالاً یکی از عناوین عجیب‌تر هفته گذشته از رویداد مجازی صاحب فیس‌بوک، متا کانکت بود. پیشینه: متا میلیاردها دلار برای فضای مجازی خود، Horizon Worlds هزینه کرده است، و با این…

نحوه شناسایی و جلوگیری از برنامه های جعلی
اینترنت -
آبان ۱, ۱۴۰۱

نحوه شناسایی و جلوگیری از برنامه های جعلی

۵/۵ - (۱۰ امتیاز) نحوه شناسایی و جلوگیری از برنامه های جعلی با تلفن‌های هوشمند، می‌توانید برنامه‌هایی را دانلود کنید که کارهای شگفت‌انگیزی را با لمس یک دکمه انجام می‌دهند و اغلب به صورت رایگان. با این حال، سیب های بدی نیز وجود دارند: برنامه…