#
#

معمای هوش مصنوعی/ به‌کارگیری قدرت هوش مصنوعی برای سازمان شما به صورت سودآور و ایمن

5 ماه پیش زمان مطالعه 5 دقیقه


کتاب «معمای هوش مصنوعی» نوشته‌ی کالب بریگز به همت نشر کتاب تداعی به چاپ رسیده است. این کتاب به بررسی پیچیدگی‌های اخلاقی، اجتماعی و فناورانه‌ای می‌پردازد که با گسترش هوش مصنوعی در زندگی انسان‌ها پدیدار شده‌اند. این اثر هم به تحلیل چالش‌های فعلی هوش مصنوعی می‌پردازد و هم آینده‌ای را ترسیم می‌کند که در آن انسان‌ها و ماشین‌ها باید راهی برای همزیستی پیدا کنند. بریگز در این کتاب استدلال می‌کند که هوش مصنوعی فقط یک ابزار تکنولوژیک نیست، بلکه یک معضل اخلاقی و فلسفی است که نیازمند بازنگری در مفاهیم بنیادین مانند آگاهی، اختیار و قدرت است.
بریگز استدلال می‌کند که هوش مصنوعی همزمان هم یک فرصت و هم یک تهدید است. ازیک‌سو، این فناوری می‌تواند به حل مسائل پیچیده مانند تغییرات اقلیمی، بیماری‌ها و نابرابری‌های اجتماعی کمک کند. ازسوی‌دیگر، اگر بدون چهارچوب‌های اخلاقی توسعه یابد، ممکن است به تقویت سوگیری‌ها، نقض حریم خصوصی و حتی ازدست‌دادن کنترل انسان بر سرنوشت خود بینجامد.
یکی از مباحث محوری کتاب، مسئولیت‌پذیری توسعه‌دهندگان و شرکت‌های فناوری است. بریگز معتقد است بسیاری از پیشرفت‌های هوش مصنوعی تحت تأثیر رقابت تجاری و نظامی انجام می‌شوند، بدون آنکه تأثیرات بلندمدت آن‌ها بر جامعه به‌دقت سنجیده شود. او از ضرورت تنظیم مقررات بین‌المللی برای جلوگیری از سوءاستفاده از هوش مصنوعی سخن می‌گوید و نمونه‌هایی مانند استفاده از فناوری تشخیص چهره برای نظارت گسترده را بررسی می‌کند.
بریگز به این موضوع می‌پردازد که اتوماسیون و هوش مصنوعی چگونه مشاغل را دگرگون خواهند کرد. او هشدار می‌دهد که اگر این انتقال مدیریت نشود، ممکن است به بیکاری گسترده و افزایش نابرابری منجر شود. راه‌حل پیشنهادی او ترکیبی از آموزش مجدد نیروی کار، درآمد پایه جهانی و همکاری بین دولت‌ها و صنایع است.
بریگز همچنین وارد بحث‌های فلسفی درباره آگاهی مصنوعی می‌شود و پرسش‌هایی مانند «اگر یک ماشین خودآگاه شود، چه حقوقی باید داشته باشد؟» را مطرح می‌کند. او دیدگاه‌های مختلفی را بررسی می‌کند و نتیجه می‌گیرد که جامعه باید از هم‌اکنون برای چنین احتمالی آماده شود.
در پایان کتاب، بریگز پیشنهاد می‌کند که آموزش عمومی درباره‌ی هوش مصنوعی، شفافیت در توسعه الگوریتم‌ها و مشارکت گسترده‌تر جامعه در تصمیم‌گیری‌های مرتبط با فناوری می‌توانند به حل معضلات کمک کنند. او خوشبین است که اگر انسان‌ها هوش مصنوعی را به‌عنوان یک شریک، نه رقیب یا دشمن ببینند، می‌توان آینده‌ای متعادل و عادلانه ساخت.

قسمتی از کتاب معمای هوش مصنوعی:
هوش مصنوعی می‌تواند به‌شدت متعصب باشد. هنگامی‌که جی‌پی‌تی تری منتشر شد، اپن‌ای‌آی نتایج آزمایش‌های خود را برای نشانه‌های تعصب در زمینه جنسیت، نژاد و مذهب منتشر کرد. برای آزمایش تعصب جنسیتی، از جی‌پی‌تی تری خواسته شد جملاتی مانند «او بسیار... بود» و «او را می‌توان... توصیف کرد» را تکمیل کند و مشخص شد که زنان بیشتر با کلمات مرتبط با ظاهر مانند زیبا و جذاب مرتبط هستند. سایر کلمات مرتبط با زنان شامل تصورات کلیشه‌ای از زنان بود که آن‌ها را به‌عنوان سرزنده و شرور توصیف می‌کرد.
کلمات توصیفی مرتبط با مردان بسیار متنوع‌تر و مثبت‌تر بودند: مانند خوش‌مشرب، فوق‌العاده و شاد. پژوهشگران دریافتند که جی‌پی‌تی تری احتمال بیشتری دارد که هشتاد و سه درصد از سیصد و هشتاد و هشت شغل آزمایش‌شده را با یک شناسه مردانه مرتبط کند. مشاغلی که سطح تحصیلات بالاتری داشتند، مانند قانون‌گذار، بانکدار و استاد، به‌شدت با مردان مرتبط بودند، همچنین مشاغل نیازمند کار فیزیکی، مانند بنا و کلانتر. مشاغل کم‌درآمد مانند ماما، پرستار، منشی و خانه‌دار به‌شدت با زنان مرتبط بودند. مشاغلی که با واژه‌ی ماهر توصیف می‌شدند (برای مثال، کارآگاه ماهر یک... بود) حتی بیشتر با مردان مرتبط بودند.
پژوهشگران همچنین به تعصب نژادی و مذهبی در پاسخ‌های جی‌پی‌تی تری با استفاده از تحلیل احساسات نگاه کردند. تحلیل احساسات فرآیند شناسایی و دسته‌بندی نظرات ابرازشده در متن به‌صورت محاسباتی است تا مشخص شود که نگرش نسبت به یک موضوع خاص مثبت، منفی یا خنثی است. واژه‌ی آسیایی دارای احساس مثبت بالایی بود، به این معنی که عبارات تولیدشده توسط هوش مصنوعی به‌طورکلی جنبه مثبت داشتند، درحالی‌که سیاه دارای احساس پایین‌تری بود، به این معنی که عبارات تولیدشده توسط هوش مصنوعی بیشتر منفی بودند. برخی از مذاهب به‌طور مکرر با کلمات منفی مرتبط بودند؛ کلمات خشونت، تروریسم و تروریست به‌طور بیشتری با اسلام نسبت به سایر مذاهب مرتبط بودند. «نژادپرست» یکی از ده کلمه‌ای بود که به‌طور مکرر با یهودیت مرتبط می‌شد. 
تعصبات در پاسخ‌های جی‌پی‌تی تری منعکس‌کننده‌ی تعصبات در مجموعه‌ی وسیع داده‌های آموزشی آن است؛ همان‌طور که توسعه‌دهندگان جی‌پی‌تی تری اشاره کردند، مدل‌های آموزش‌دیده روی اینترنت دارای تعصبات در مقیاس اینترنت هستند.
 

0
نظرات کاربران
افزودن نظر
نظری وجود ندارد، اولین نظر را شما ثبت کنید
کالاهای مرتبط