Avir Logo
back

هوش مصنوعی اخلاقی چیست؟ آشنایی کامل با اخلاق در هوش مصنوعی

از آنجایی که هوش مصنوعی (AI) این روزها به شکل چشمگیری برای همه کشورها اهمیت پیدا کرده است، کارشناسان فعال در این زمینه نیاز به ایجاد مرزهای اخلاقی در زمان ایجاد و پیاده‌سازی ابزارهای جدید هوش مصنوعی شناسایی کرده‌اند. اگرچه در حال حاضر هیچ نهاد حاکم در مقیاس گسترده‌ای برای نوشتن و اجرای این قوانین وجود ندارد، اما بسیاری از شرکت های فناوری نسخه مخصوص به خود را از هوش مصنوعی اخلاقی یا اخلاق در هوش مصنوعی (AI ethics) یا کد رفتاری هوش مصنوعی اتخاذ کرده اند. اخلاق در هوش مصنوعی، اصول اخلاقی‌ای است که شرکت‌ها برای هدایت توسعه و به‌کارگیری مسئولانه و منصفانه از هوش مصنوعی استفاده می‌کنند. در این مقاله از وبسایت شرکت هوش مصنوعی آویر، بررسی خواهیم کرد که هوش مصنوعی اخلاقی چیست و چرا اهمیت دارد، و بررسی خواهیم کرد که چالش‌ها و مزایای ایجاد یک کد رفتاری هوش مصنوعی چیست.

هوش مصنوعی اخلاقی چیست؟

هوش مصنوعی اخلاقی (AI ethics) یا اخلاق در هوش مصنوعی، مجموعه‌ای از اصول راهنما است که ذینفعان (از مهندسان تا مقامات دولتی) برای اطمینان از توسعه و استفاده مسئولانه فناوری هوش مصنوعی استفاده می‌کنند. این مفهوم به معنای اتخاذ رویکردی ایمن، امن، انسانی و سازگار با محیط زیست برای هوش مصنوعی است.

یک کد اخلاقی قوی هوش مصنوعی می‌تواند شامل اجتناب از تعصب، اطمینان از حریم خصوصی کاربران و داده‌های آن‌ها و کاهش خطرات زیست‌محیطی باشد. کدهای اخلاقی در شرکت‌ها و چارچوب‌های نظارتی تحت رهبری دولت دو روش اصلی برای پیاده‌سازی هوش مصنوعی اخلاقی هستند. هر دو رویکرد با پوشش دادن مسائل هوش مصنوعی اخلاقی جهانی و ملی، و ایجاد زمینه سیاست برای هوش مصنوعی اخلاقی در شرکت‌ها، به تنظیم فناوری هوش مصنوعی کمک می‌کنند.

به طور گسترده‌تر، منشأ پیشرفت بحث در مورد هوش مصنوعی اخلاقی از تمرکز بر تحقیقات دانشگاهی و سازمان‌های غیر انتفاعی بوده است. امروزه، شرکت‌های بزرگ فناوری مانند آی‌بی‌ام، گوگل و متا تیم‌هایی را برای مقابله با مسائل اخلاقی تشکیل داده‌اند که از جمع‌آوری حجم عظیمی از داده‌ها به وجود می‌آیند. در همان زمان، دولت و نهادهای بین دولتی شروع به تدوین مقررات و سیاست‌های اخلاقی بر اساس تحقیقات دانشگاهی کرده‌اند.

دست‌اندرکاران هوش مصنوعی اخلاقی

توسعه اصول اخلاقی برای استفاده مسئولانه و توسعه هوش مصنوعی مستلزم همکاری دست‌اندرکاران این صنعت با یکدیگر است. ذینفعان باید بررسی کنند که چگونه مسائل اجتماعی، اقتصادی و سیاسی با هوش مصنوعی تلاقی پیدا می‌کنند و تعیین کنند که چگونه ماشین‌ها و انسان‌ها می‌توانند به طور هماهنگ همزیستی کنند.

دست‌اندرکاران هوش مصنوعی اخلاقی

هر یک از این دست‌اندرکاران نقش مهمی در تضمین سوگیری و خطر کمتر برای فناوری‌های هوش مصنوعی دارند.

  • دانشگاهیان: محققان و اساتید مسئول توسعه آمار، تحقیقات و ایده‌های مبتنی بر نظریه هستند که می‌توانند از دولت‌ها، شرکت‌ها و سازمان‌های غیرانتفاعی حمایت کنند.
  • دولت‌ها: آژانس‌ها و کمیته‌های داخل یک دولت می‌توانند به تسهیل هوش مصنوعی اخلاقی در یک کشور کمک کنند. یک مثال خوب از همکاری دولت‌ها، گزارش آمادگی برای آینده هوش مصنوعی است که توسط شورای ملی علم و فناوری آمریکا (NSTC) در سال 2016 تهیه شد، که هوش مصنوعی و ارتباط آن با اطلاع‌رسانی عمومی، مقررات، حکمرانی، اقتصاد و امنیت را تشریح می‌کند.
  • نهادهای بین دولتی: نهادهایی مانند سازمان ملل متحد و بانک جهانی مسئول افزایش آگاهی و تهیه پیش‌نویس توافق‌نامه‌ها برای هوش مصنوعی اخلاقی در سطح جهانی هستند. به عنوان مثال، 193 کشور عضو یونسکو اولین توافقنامه جهانی در مورد هوش مصنوعی اخلاقی را در نوامبر 2021 برای ارتقای حقوق و کرامت بشر به تصویب رساندند.
  • سازمان‌های غیرانتفاعی: سازمان‌های غیرانتفاعی مانند Black in AI و Queer in AI به گروه‌های مختلف کمک می‌کنند تا در فناوری هوش مصنوعی حضور پیدا کنند. همچنین، مؤسسه آینده زندگی (Future of Life Institute) 23 دستورالعمل ایجاد کرد که اصول هوش مصنوعی آن Asilomar نام گرفته‌اند که خطرات، چالش‌ها و نتایج خاصی را برای فناوری‌های هوش مصنوعی ترسیم می‌کنند.
  • شرکت‌های خصوصی: مدیران Google، Meta، و سایر شرکت‌های فناوری، و همچنین بانکداری، مشاوره، مراقبت‌های بهداشتی و سایر صنایع فعال در بخش خصوصی که از فناوری هوش مصنوعی استفاده می‌کنند، مسئول ایجاد تیم‌های اخلاقی و کدهای رفتاری هستند. این مدیران اغلب استانداردی را برای شرکت‌ها ایجاد می‌کند که از آن پیروی کنند.

چرا هوش مصنوعی اخلاقی مهم است؟

هوش مصنوعی اخلاقی بسیار مهم است زیرا فناوری هوش مصنوعی برای تقویت یا جایگزینی هوش انسانی طراحی شده است – اما وقتی فناوری برای تکرار زندگی انسان طراحی شده است، همان مسائلی که می‌تواند قضاوت انسان را برانگیزد، می‌تواند به فناوری نفوذ کند.

پروژه‌های هوش مصنوعی که بر اساس داده‌های مغرضانه یا نادرست ساخته می‌شوند، می‌توانند عواقب بدی داشته باشند، به‌ویژه برای گروه‌ها و افرادی که اطلاعات مناسبی از هوش مصنوعی ندارند. علاوه بر این، اگر الگوریتم‌های هوش مصنوعی و مدل‌های یادگیری ماشین خیلی عجولانه ساخته شوند، اصلاح سوگیری‌های آموخته‌شده برای مهندسان و مدیران محصول غیرقابل مدیریت خواهد بود. ترکیب یک کد اخلاقی در طول فرآیند توسعه برای کاهش خطرات آتی آسان‌تر است.

هوش مصنوعی اخلاقی در فیلم و تلویزیون

داستان‌های علمی تخیلی – در کتاب‌ها، فیلم‌ها و شبکه‌های تلویزیونی – برای مدتی با مفهوم اخلاق در هوش مصنوعی بازی می‌کنند. در فیلم Her Spike Jonze در سال 2013، یک فرد به دلیل  صدای فریبنده کامپیوتر خود، عاشق آن می‌شود. تصور روش‌هایی که ماشین‌ها می‌توانند بر زندگی انسان‌ها تأثیر بگذارند و مرزهای «عشق» را جابجا کنند، سرگرم‌کننده است، اما همچنین نیاز به تفکر پیرامون این سیستم‌های در حال توسعه را برجسته می‌کند.

هوش مصنوعی اخلاقی در فیلم و تلویزیون

نمونه‌هایی از هوش مصنوعی اخلاقی

شاید ساده‌ترین روش برای نشان دادن هوش مصنوعی اخلاقی با مثال‌های واقعی باشد. در دسامبر 2022، اپلیکیشن Lensa AI از هوش مصنوعی برای تولید عکس‌های پروفایل جالب و کارتونی از تصاویر معمولی افراد استفاده کرد. از نقطه نظر اخلاقی، برخی از مردم به دلیل عدم اعتبار یا پول کافی به هنرمندانی انتقاد کردند که هنر دیجیتال اصلی را که هوش مصنوعی در آن آموزش دیده بود ایجاد کرده‌اند. به گفته واشنگتن پست، لنزا روی میلیاردها عکسی که بدون رضایت از اینترنت تهیه شده بودند آموزش دیده بود.

مثال دیگر مدل هوش مصنوعی ChatGPT است که کاربران را قادر می‌سازد تا با پرسیدن سوال با آن ارتباط برقرار کنند. ChatGPT مطالب ارائه شده در اینترنت را برای یافتن داده‌‌ها جستجو می‌کند و با یک متن، کد پایتون یا یک پیشنهاد پاسخ می‌دهد. یک معضل اخلاقی این است که مردم از ChatGPT برای برنده شدن در مسابقات کدنویسی یا مسابقات نوشتن مقاله استفاده می‌کنند که این کار در یک رقابت، عادلانه و اخلاقی نیست.

اینها فقط دو نمونه رایج از هوش مصنوعی اخلاقی هستند. از آنجایی که هوش مصنوعی در سال‌های اخیر رشد کرده است و تقریباً بر هر صنعت تأثیر می‌گذارد و تأثیر مثبت زیادی بر صنایعی مانند مراقبت‌های بهداشتی دارد، موضوع هوش مصنوعی اخلاقی حتی برجسته‌تر شده است. چگونه از هوش مصنوعی بدون تعصب اطمینان حاصل کنیم؟ برای کاهش خطرات در آینده چه کاری می توان انجام داد؟ راه‌حل‌های بالقوه زیادی وجود دارد، اما ذینفعان باید مسئولانه و مشارکتی عمل کنند تا نتایج مثبتی در سراسر جهان ایجاد کنند.

چالش‌های اخلاقی هوش مصنوعی

چالش‌های زیادی در زندگی واقعی وجود دارد که می‌تواند به نشان دادن هوش مصنوعی اخلاقی کمک کند. در اینجا فقط چند مورد از این چالش‌ها را بررسی خواهیم کرد.

چالش‌های اخلاقی هوش مصنوعی

هوش مصنوعی و تعصب

اگر هوش مصنوعی داده‌هایی را جمع‌آوری نکند که به‌طور دقیق جمعیت را نشان می‌دهد، تصمیمات آن‌ها ممکن است مستعد سوگیری باشد. در سال 2018، آمازون به دلیل استفاده از ابزار استخدام هوش مصنوعی خود مورد انتقاد قرار گرفت چرا که این ابزار رزومه‌هایی را که «زنان» (مانند «جامعه بین‌المللی کسب‌وکار زنان») را در آن نشان می‌داد، در رتبه‌بندی پایین‌تری قرار می‌داد. در اصل، ابزار هوش مصنوعی علیه زنان تبعیض قائل شد و باعث ایجاد خطر برخورد قانونی برای این غول فناوری شد.

هوش مصنوعی و حریم خصوصی

همانطور که قبلاً در مثال هوش مصنوعی Lensa AI  ذکر شد، هوش مصنوعی بر داده‌های استخراج شده از جستجوهای اینترنتی، عکس‌ها و نظرات رسانه‌های اجتماعی، خریدهای آنلاین و موارد دیگر متکی است. در حالی که این امر به شخصی‌سازی تجربه مشتری کمک می کند، سوالاتی در مورد عدم رضایت آشکار این شرکت‌ها برای دسترسی به اطلاعات شخصی ما وجود دارد.

هوش مصنوعی و محیط زیست

برخی از مدل‌های هوش مصنوعی بزرگ هستند و برای آموزش داده‌ها به انرژی قابل توجهی نیاز دارند. در حالی که تحقیقاتی برای ابداع روش‌هایی برای هوش مصنوعی کارآمد در حال انجام است، می‌توان کارهای بیشتری را برای گنجاندن نگرانی‌های اخلاقی زیست‌محیطی در سیاست‌های مرتبط با هوش مصنوعی انجام داد.

چگونه هوش مصنوعی اخلاقی‌تری ایجاد کنیم؟

ایجاد هوش مصنوعی اخلاقی بیشتر مستلزم نگاهی دقیق به پیامدهای اخلاقی سیاست، آموزش و فناوری است. چارچوب‌های نظارتی می‌توانند تضمین کنند که فناوری‌ها به جای آسیب رساندن به جامعه، به نفع جامعه هستند. در سطح جهانی، دولت‌ها شروع به اعمال سیاست‌هایی برای هوش مصنوعی اخلاقی کرده‌اند، از جمله نحوه برخورد شرکت‌ها با مسائل حقوقی در صورت بروز سوگیری یا آسیب‌های دیگر.

هر کسی که با هوش مصنوعی روبرو می‌شود، باید خطرات و تأثیر منفی احتمالی هوش مصنوعی غیراخلاقی یا جعلی را درک کند. ایجاد و انتشار منابع در دسترس می‌تواند این نوع خطرات را کاهش دهد.

ممکن است استفاده از فناوری برای تشخیص رفتارهای غیراخلاقی در اشکال دیگر فناوری غیرمعمول به نظر برسد، اما از ابزارهای هوش مصنوعی می‌توان برای تشخیص جعلی بودن یا نبودن یک ویدیو، صدا یا متن استفاده کرد. این ابزارها می‌توانند منابع داده و سوگیری غیراخلاقی را بهتر و کارآمدتر از انسان‌ها شناسایی کنند.


بیشتر بدانید