مخاطب 24- انتشار اخیر ChatGPT ( چت جی پی تی)، به ویژه، منجر به انفجاری از هیجان و اضطراب در مورد هوش مصنوعی شد. رسانههای خبری گزارش دادند که بسیاری از فنآوران برجسته هوش مصنوعی زنگ خطر را در مورد خطرات حوزه خودشان به صدا در آوردهاند. هیولای ضرب المثل فرانکنشتاین رها شده بود و دانشمند اکنون از خلقت او می ترسید.
ترسها و گمانهزنیهایی که آنها ابراز کردهاند بر وجود یک بحران برای بشریت متمرکز بود (نیویورک تایمز، 5/30/23)، این گزارش بر مبنای تهدیدات فناوری هوش مصنوعی است که به خطری شبیه به بیماریهای همهگیر ویروسی و تسلیحات هستهای تبدیل میشود. با این حال، در همان زمان، سایر پوششها از هوش ظاهراً برتر هوش مصنوعی تجلیل کردند و آن را به عنوان یک دستاورد انسانی قابل توجه با پتانسیل شگفتانگیز معرفی کردند.
به طور کلی، این رسانههای خبری اغلب به دامنه وسیعتر تهدیدات هوش مصنوعی توجه نمی کنند و به همین دلیل، در ارائه انواع راهحلهایی که باید جستجو کنیم نیز محدود هستند. در حالی که ما به طور جمعی تلاش می کنیم تا وحشت ناشی از هوش مصنوعی را درک کنیم، من از شما می خواهم که لحظه ای مکث کنید: برای نوشتاری کردن این روایت های فعلی ترس و شیفتگی و دست و پنجه نرم کردن با فناوری و انسانیت.
سود به عنوان الهام بخش نوآوری
جنون رسانهای هوش مصنوعی در عصر فعلی ما واقعاً چه نوع ترسی را برجسته میکند؟ ترس های دیستوپیایی برخی از مردم از آینده در واقع تاریخ دیستوپیایی و واقعیت های معاصر بسیاری از افراد دیگر است. آیا ما واقعاً نگران کل بشریت هستیم یا اکنون که معیشت و زندگی یقه سفیدها و نخبگان در خطر است، توجه بیشتری داریم؟
ما در حال حاضر در دوره ای هستیم که درصد نامتناسبی از ثروت توسط ابرثروتمندان احتکار می شود (آکسفام بین المللی، 1/16/23)، که بیشتر آنها از صنعت فناوری منشا می گیرد و آن را تقویت می کنند. اگرچه ضربالمثلی قدیمی می گوید که «نیاز، مادر اختراع است» اما در چارچوب نظام سرمایهداری، سود (نه نیاز انسان) هدف نوآوری است. به این ترتیب، نباید چندان تعجب آور باشد که انسان ها و بشریت در معرض خطر همین پیشرفت های تکنولوژیکی قرار دارند.
فعالان و دانشمندان، به ویژه زنان و رنگین پوستان، مدتهاست که زنگ خطر را در مورد تأثیرات مضر هوش مصنوعی و اتوماسیون به صدا در آوردهاند. با این حال، رسانهها تا حد زیادی هشدارها را در مورد بی عدالتی اجتماعی و فناوری نادیده گرفته اند. منظور روش هایی است که بوسیله فناوری ساختارهای مسلط و ظالمانه با روش هایی کارآمدتر و گسترده تر تکرار می شود.
کتی اونیل در سال 2016 روشهای تبعیضآمیز استفاده از هوش مصنوعی در سیستم عدالت کیفری، سیستمهای مدرسه و سایر شیوههای نهادی را برجسته کرده است، به گونهای که افرادی که کمترین قدرت اجتماعی-سیاسی را دارند، تحت رفتارهای تنبیهی بیشتری قرار میگیرند. به عنوان مثال، ادارات پلیس از الگوریتم هایی برای شناسایی «نقاط داغ» با نرخ دستگیری بالا استفاده می کنند تا آنها را برای پلیس بیشتر هدف قرار دهند. اما نرخ دستگیری با نرخ جرم یکسان نیست. آنها منعکس کننده تعصبات نژادی طولانی مدت در پلیس هستند، به این معنی که چنین الگوریتم هایی این تعصبات نژادی را بوسیله ساختاری علمی تقویت می کنند.
جوی بولاموینی بر اساس تجربیات شخصی خود نشان می دهد که الگوریتمهای هوش مصنوعی تا چه اندازه مغرضانه هستند و بر اساس دادههایی که از آنها تغذیه میشوند و جمعیت محدود طراحانی که آنها را ایجاد کرده اند کار می کنند. کار او ناتوانی هوش مصنوعی را در تشخیص چهره های تیره پوست و پیامدهای مضر استفاده از این فناوری به عنوان ابزار نظارتی، به ویژه برای افراد سیاه پوست و قهوه ای (از ناراحتی های روزمره تا دستگیری های غیرقانونی) را نشان داد.
بولاموینی برای جلب توجه رسانه ها و سیاستگذاران تلاش کرده است تا با استفاده از هوش مصنوعی شفافیت و احتیاط بیشتری را به کار گیرد. با این حال، گزارشهای اخیر درباره بحران وجودی هوش مصنوعی به کار او و همتایانش که بحرانهای واقعی و موجود ناشی از استفاده از هوش مصنوعی در سیستمهای اجتماعی را برجسته میکند، اشارهای نمیکند.
تیمنیت گبرو، که به شیوهای بسیار عمومی از گوگل اخراج شد، تحقیقاتی را رهبری کرد که مدتها خطرات مدلهای زبان بزرگ مانند مدلهای به کار رفته در ابزارهایی مانند ChatGPT را پیشبینی میکرد. این خطرات شامل اثرات زیستمحیطی زیرساخت هوش مصنوعی، موانع مالی برای ورود به این ابزارها، تبعیض تعبیهشده که منجر به آسیبهای نامتناسب برای هویتهای اجتماعی در اقلیت میشود، ایدئولوژیهای افراطی تقویتشده ناشی از گرفتن بیرویه همه دادههای اینترنتی به عنوان اطلاعات آموزشی، و مشکلات ذاتی ناشی از ناتوانی در تمایز بین واقعیت و در نهایت ساخت ماشین بود. علیرغم اینکه چه تعداد از این خطرات در حال حاضر توسط نخبگان هوش مصنوعی تکرار می شود، تلاش های گبرو به ندرت بیان می شود.
اگرچه داستانهای ناشی از بیعدالتی هوش مصنوعی ممکن است در زمینه فناوری جدید باشند، اما در بافت تاریخی استعمار مهاجران بدیع نیستند. تا زمانی که جامعه ما به برتری دادن به پدرسالاری دگرگون سفیدپوستان ادامه دهد، فناوری اجرا شده در این چارچوب تا حد زیادی بی عدالتی های سیستمی موجود را به شیوه های کارآمدتر و فاجعه بارتر تقویت و تشدید خواهد کرد.
اگر واقعاً میخواهیم راههایی را برای حل تهدید وجودی هوش مصنوعی کشف کنیم، باید با یادگیری از خرد کسانی که قبلاً تأثیرات ویرانگر فناوری هوش مصنوعی را میدانند (دقیقاً صداهایی که توسط رسانههای نخبه به حاشیه رانده شدهاند)، شروع کنیم.
بهبود بستر اجتماعی
در عوض رسانه ها بیشتر به رهبران صنعت هوش مصنوعی، دانشمندان کامپیوتر و مقامات دولتی روی می آورند. این کارشناسان چند راه حل اداری برای بحران هوش مصنوعی ما ارائه می دهند، از جمله اقدامات نظارتی، اقدام دولت/رهبری و محدودیت های استفاده از هوش مصنوعی. در حالی که این رویکردهای از بالا به پایین ممکن است جلوی موج هوش مصنوعی را بگیرد، اما به مسائل سیستمی زیربنایی که فناوری را به ابزار دیگری برای تخریب تبدیل می کند (که به طور نامتناسبی جوامعی را که در حاشیه قدرت در جامعه زندگی می کنند، ویران می کند)، نمی پردازند.
ما نمی توانیم بدون توجه به مشکلات بسیار واقعی و امروزی که باعث رنج و عذاب بشری می شوند، روی کاهش تهدیدات آینده تمرکز کنیم. برای تغییر موثر در نتایج فناوری، باید زمینه اجتماعی را که این ابزارها در آن به کار گرفته شدهاند، بهبود دهیم.
یکی از راههای کلیدی که فنآوران برای حل بحران هوش مصنوعی در حال بررسی هستند «همسویی هوش مصنوعی» است. به عنوان مثال، OpenAI گزارش می دهد که هدف تحقیقات هم ترازی آنها این است " که هوش عمومی مصنوعی (AGI) را با ارزش های انسانی همسو کند و از نیت انسان پیروی کند."
با این حال، زیرساخت های هوش مصنوعی موجود از نظر ارزشی خنثی نیست. برعکس، اتوماسیون ارزشهای نظام سرمایهداری سرعت، بهرهوری و کارایی آن را منعکس میکند. بنابراین، هرگونه تلاش معنادار برای همسویی هوش مصنوعی نیز نیازمند از بین بردن این چارچوب بهرهبردار است تا بهجای بازگشت سرمایهها، برای رفاه انسان بهینه شود.
همکاری بر سر سلطه
چه نوع سیستمی را می توانیم تصور کنیم که در آن فناوری ما در خدمت انسانیت جمعی ما باشد؟ ما میتوانیم بر اساس دانش کسانی که ظلم و ستم رمزگذاری شده در زیرساختهای فناوری را تجربه کردهاند و/یا عمیقاً مطالعه کردهاند، شروع کنیم.
روها بنجامین ایده "کد جدید جیم" را معرفی کرد تا نشان دهد که چگونه زیرساخت های فناوری ما نابرابری های موجود را تحت پوشش "عینیت"، "نوآوری" و "خیرخواهی" تقویت می کند. در حالی که فناوری ممکن است جدید باشد، کلیشهها و تبعیضها همچنان با سیستمهای ارزشی برتریطلب سفیدپوست تثبیت شده همسو میشوند. او ما را تشویق میکند که «نوآوری آهستهتر و آگاهانهتر از نظر اجتماعی را بخواهیم»، نوآوری که «برابری را بر کارایی، [و] خیر اجتماعی را بر الزامات بازار اولویت دهد».
آدری واترز ما را وادار میکند تا روایتهای غالب در مورد فناوری را زیر سوال ببریم، و تبلیغات و هیاهوی فناوری را که پیشرفت را تنها با فناوری می سنجد، نپذیریم. او توضیح میدهد که چگونه این داستانها به ندرت تنها بر اساس واقعیتها، بلکه بر روی خیالپردازیهای با انگیزهی قدرت اقتصادی ساخته می شود و به ما یادآوری میکند که «نیازی نیست آینده را به نخبگان شرکت واگذار کنیم».
سافیا نوبل نشان میدهد که چگونه نفوذ نامتناسب شرکتهای فناوری اینترنتی از طریق انتخاب کالاهای عمومی برای منافع خصوصی باعث آسیب میشود. برای مقابله با این نیروها، او "تقویت کتابخانه ها، دانشگاه ها، مدارس، رسانه های عمومی، بهداشت عمومی و موسسات اطلاعات عمومی" را پیشنهاد می کند.
این محققان کارهای آهسته ای را شناسایی می کنند که ما باید به طور جمعی در آن شرکت کنیم تا شرایطی را برای این فناوری ایجاد کنیم که آینه همکاری به جای سلطه، ارتباطات به جای جدایی و اعتماد به جای سوء ظن باشد. اگر بخواهیم به حکمت آنها توجه کنیم، به رسانههایی نیاز داریم که هوش مصنوعی را چیزی فراتر از حوزه کاری تکنولوژیستها بدانند و صدای فعالان، شهروندان و دانشمندان را نیز درگیر کنند. پوشش رسانهای نیز باید این فناوریها را نه بهعنوان بیطرف، بلکه بهعنوان مکانیسمهایی که در یک چارچوب تاریخی و اجتماعی عمل میکنند، زمینهسازی کند.
اکنون بیش از هر زمان دیگری شاهد بدبختی انسانی ناشی از ساختارهای استخراجی و استثمارگرانه اقتصادی و سیاسی جهانی هستیم که مدت ها در زیر پوششی از «پیشرفت فناوری» پنهان شده است. ما باید احساس کنیم که مجبور نیستیم این حقایق را پنهان کنیم، طوری که گویی میتوانیم راه خود را به سمت هلاکت طی کنیم، بلکه باید به طور جمعی برای آزادی آیندهای که به آن نیاز داریم مبارزه کنیم - نه تحت کنترل ترس، بلکه با امید.
منبع: Fair.org
ترجمه سلیم حیدری