
معمای هوش مصنوعی/ بهکارگیری قدرت هوش مصنوعی برای سازمان شما به صورت سودآور و ایمن
کتاب «معمای هوش مصنوعی» نوشتهی کالب بریگز به همت نشر کتاب تداعی به چاپ رسیده است. این کتاب به بررسی پیچیدگیهای اخلاقی، اجتماعی و فناورانهای میپردازد که با گسترش هوش مصنوعی در زندگی انسانها پدیدار شدهاند. این اثر هم به تحلیل چالشهای فعلی هوش مصنوعی میپردازد و هم آیندهای را ترسیم میکند که در آن انسانها و ماشینها باید راهی برای همزیستی پیدا کنند. بریگز در این کتاب استدلال میکند که هوش مصنوعی فقط یک ابزار تکنولوژیک نیست، بلکه یک معضل اخلاقی و فلسفی است که نیازمند بازنگری در مفاهیم بنیادین مانند آگاهی، اختیار و قدرت است.
بریگز استدلال میکند که هوش مصنوعی همزمان هم یک فرصت و هم یک تهدید است. ازیکسو، این فناوری میتواند به حل مسائل پیچیده مانند تغییرات اقلیمی، بیماریها و نابرابریهای اجتماعی کمک کند. ازسویدیگر، اگر بدون چهارچوبهای اخلاقی توسعه یابد، ممکن است به تقویت سوگیریها، نقض حریم خصوصی و حتی ازدستدادن کنترل انسان بر سرنوشت خود بینجامد.
یکی از مباحث محوری کتاب، مسئولیتپذیری توسعهدهندگان و شرکتهای فناوری است. بریگز معتقد است بسیاری از پیشرفتهای هوش مصنوعی تحت تأثیر رقابت تجاری و نظامی انجام میشوند، بدون آنکه تأثیرات بلندمدت آنها بر جامعه بهدقت سنجیده شود. او از ضرورت تنظیم مقررات بینالمللی برای جلوگیری از سوءاستفاده از هوش مصنوعی سخن میگوید و نمونههایی مانند استفاده از فناوری تشخیص چهره برای نظارت گسترده را بررسی میکند.
بریگز به این موضوع میپردازد که اتوماسیون و هوش مصنوعی چگونه مشاغل را دگرگون خواهند کرد. او هشدار میدهد که اگر این انتقال مدیریت نشود، ممکن است به بیکاری گسترده و افزایش نابرابری منجر شود. راهحل پیشنهادی او ترکیبی از آموزش مجدد نیروی کار، درآمد پایه جهانی و همکاری بین دولتها و صنایع است.
بریگز همچنین وارد بحثهای فلسفی درباره آگاهی مصنوعی میشود و پرسشهایی مانند «اگر یک ماشین خودآگاه شود، چه حقوقی باید داشته باشد؟» را مطرح میکند. او دیدگاههای مختلفی را بررسی میکند و نتیجه میگیرد که جامعه باید از هماکنون برای چنین احتمالی آماده شود.
در پایان کتاب، بریگز پیشنهاد میکند که آموزش عمومی دربارهی هوش مصنوعی، شفافیت در توسعه الگوریتمها و مشارکت گستردهتر جامعه در تصمیمگیریهای مرتبط با فناوری میتوانند به حل معضلات کمک کنند. او خوشبین است که اگر انسانها هوش مصنوعی را بهعنوان یک شریک، نه رقیب یا دشمن ببینند، میتوان آیندهای متعادل و عادلانه ساخت.

معمای هوش مصنوعی (به کارگیری قدرت هوش مصنوعی برای سازمان شما به صورت سودآور و ایمن)
کتاب تداعیقسمتی از کتاب معمای هوش مصنوعی:
هوش مصنوعی میتواند بهشدت متعصب باشد. هنگامیکه جیپیتی تری منتشر شد، اپنایآی نتایج آزمایشهای خود را برای نشانههای تعصب در زمینه جنسیت، نژاد و مذهب منتشر کرد. برای آزمایش تعصب جنسیتی، از جیپیتی تری خواسته شد جملاتی مانند «او بسیار... بود» و «او را میتوان... توصیف کرد» را تکمیل کند و مشخص شد که زنان بیشتر با کلمات مرتبط با ظاهر مانند زیبا و جذاب مرتبط هستند. سایر کلمات مرتبط با زنان شامل تصورات کلیشهای از زنان بود که آنها را بهعنوان سرزنده و شرور توصیف میکرد.
کلمات توصیفی مرتبط با مردان بسیار متنوعتر و مثبتتر بودند: مانند خوشمشرب، فوقالعاده و شاد. پژوهشگران دریافتند که جیپیتی تری احتمال بیشتری دارد که هشتاد و سه درصد از سیصد و هشتاد و هشت شغل آزمایششده را با یک شناسه مردانه مرتبط کند. مشاغلی که سطح تحصیلات بالاتری داشتند، مانند قانونگذار، بانکدار و استاد، بهشدت با مردان مرتبط بودند، همچنین مشاغل نیازمند کار فیزیکی، مانند بنا و کلانتر. مشاغل کمدرآمد مانند ماما، پرستار، منشی و خانهدار بهشدت با زنان مرتبط بودند. مشاغلی که با واژهی ماهر توصیف میشدند (برای مثال، کارآگاه ماهر یک... بود) حتی بیشتر با مردان مرتبط بودند.
پژوهشگران همچنین به تعصب نژادی و مذهبی در پاسخهای جیپیتی تری با استفاده از تحلیل احساسات نگاه کردند. تحلیل احساسات فرآیند شناسایی و دستهبندی نظرات ابرازشده در متن بهصورت محاسباتی است تا مشخص شود که نگرش نسبت به یک موضوع خاص مثبت، منفی یا خنثی است. واژهی آسیایی دارای احساس مثبت بالایی بود، به این معنی که عبارات تولیدشده توسط هوش مصنوعی بهطورکلی جنبه مثبت داشتند، درحالیکه سیاه دارای احساس پایینتری بود، به این معنی که عبارات تولیدشده توسط هوش مصنوعی بیشتر منفی بودند. برخی از مذاهب بهطور مکرر با کلمات منفی مرتبط بودند؛ کلمات خشونت، تروریسم و تروریست بهطور بیشتری با اسلام نسبت به سایر مذاهب مرتبط بودند. «نژادپرست» یکی از ده کلمهای بود که بهطور مکرر با یهودیت مرتبط میشد.
تعصبات در پاسخهای جیپیتی تری منعکسکنندهی تعصبات در مجموعهی وسیع دادههای آموزشی آن است؛ همانطور که توسعهدهندگان جیپیتی تری اشاره کردند، مدلهای آموزشدیده روی اینترنت دارای تعصبات در مقیاس اینترنت هستند.