به گزارش مخاطب۲۴ به نقل از اداره کل ارتباطات و امور بین الملل شرکت مخابرات ایران:نگاهی از لنز تجاری به هوش مصنوعی باعث شده است تا شرکتها توانمندیهای هوش مصنوعی را بیش از حد تصور کنند یا نیاز نظارت انسانی را حتی با وجود برخی از پیامدهای پرهزینه، دست کم بگیرند. این موضوع به ویژه در بحث قوانین حق نشر یا کپیرایت اهمیت زیادی دارد، جایی که تفکر انسانانگاری به قیاسهای مشکلسازی بین یادگیری انسان و آموزش هوش مصنوعی منتهی میشود.
آنچه مطالعه میکنید ترجمهای از مقاله ونچربیت در بحث انسانانگاری هوش مصنوعی است که به تفاوتهای اصلی کارکرد هوش مصنوعی با ذهن انسان و برداشتهای اشتباه در این حوزه میپردازد.
تله زبانی
به نحوه صحبت کردنمان دقت کنید: ما میگویم هوش مصنوعی «یاد میگیرد»، «فکر میکند»، «میفهمد» و حتی «خلق میکند.» این عبارتهای انسانی شاید طبیعی به نظر برسند، اما گمراهکننده هستند. وقتی میگوییم که یک مدل هوش مصنوعی «یاد میگیرد»، قرار نیست شبیه به یک دانشآموز انسانی درک بیشتری پیدا کند. در عوض این سیستم تجزیهتحلیل آماری پیچیدهای روی حجم عظیمی از دادهها انجام میدهد، وزن و پارامترهای آنها را در شبکه عصبی خود براساس اصول ریاضی تعیین میکند. هیچ خبری از درک، لحظه یورکا، جرقه خلاقیت یا فهمیدن به معنای واقعی آن نیست، تنها شاهد الگوهای پیچیدهتر هستیم.
این سادهانگاری زبانی را نمیتوان تنها در معنا خلاصه کرد. همانطور که در مقاله استدلال گمراهکننده هوش مصنوعی مولد برای استفاده منصفانه گفته میشود: «استفاده از زبان انسانانگارانه برای توصیف توسعه و عملکرد مدلهای هوش مصنوعی گمراهکننده است، زیرا القا میشود که این مدل پس از آموزش مستقل از محتوای کارهایی که براساس آن آموزش دیده است، عمل میکند.» این اشتباه پیامدهای واقعی را به دنبال دارد که عموما بر تصمیمات قانونی و سیاستگذاری تاثیر میگذارد.
انفصال ذهنی
شاید خطرناکترین جنبه انسانانگاری هوش مصنوعی، پوشاندن تفاوتهای بنیادین هوش انسانی و ماشینی است. با اینکه برخی از سیستمهای هوش مصنوعی در یک سری از انواع استدلال و وظایف تجزیهتحلیلی عملکرد بهتری دارند، اما مدلهای بزرگ زبانی (LLM ها) که بخش اصلی گفتمان امروز پیرامون هوش مصنوعی هستند و ما نیز در اینجا روی آنها تمرکز داریم، براساس الگوهای تشخیص پیچیدهای فعالیت میکنند.
این سیستمها با پردازش حجم عظیمی از داده، روابط آماری بین کلمات، جملات، تصاویر و دیگر ورودیها را شناسایی کرده و یاد میگیرند تا در هر زنجیرهای عضو بعدی (مثل کلمه بعدی در جمله) را پیشبینی کنند. وقتی میگوییم آنها «یاد میگیرند»، ما در واقع فرایند بهینهسازی ریاضیاتی را توصیف میکنیم که دقت این سیستمها را با اتکا به دادههای آموزشی افزایش میدهد.
این مثال از تحقیقات برگلوند و همکارانش را در نظر بگیرد: مدلی که براساس محتوای آموزشی مبنی بر «مساوی بودن A با B» آموزش دیده است، معمولا نمیتواند همانند یک انسان استدلال کرده و نتیجه بگیرد و که «B هم مساوی با A است.» اگر یک هوش مصنوعی بیاموزد والنتینا ترشکوا اولین زنی بود که به فضا رفت، شاید پاسخ سوال «والنتینا ترشکوا که بود؟» را به درستی ارائه کند، اما در پاسخ به سوال «اولین زن در فضا چه کسی بود؟» به مشکل میخورد. این محدودیت یک تفاوت بنیادین را بین تشخیص الگو و استدلال واقعی به نامیش میگذارد؛ تفاوتی بین پیشبینی زنجیره کلمات و درک معنای آنها.
معمای پیچیده حق نشر
سوگیری به سمت انسانانگاری هوش مصنوعی تبعات مهمی برای بحث در مورد هوش مصنوعی و حق نشر دارد. ساتیا نادلا، مدیرعامل مایکروسافت، به تازگی آموزش هوش مصنوعی را با یادگیری انسانی مقایسه کرده و پیشنهاد میکند که هوش مصنوعی باید بتواند همانند انسانها از کتابهایی که حق نشر دارند یاد بگیرد. این قیاس به خوبی خطر تفکر انسانانگارانه هوش مصنوعی را در بحث اخلاق و مسئولیت هوش مصنوعی به نمایش میگذارد.
برخی معتقدند که برای درک یادگیری انسان و آموزش هوش مصنوعی باید این مقایسه را تغییر داد. وقتی انسانها کتاب میخوانند، ما نسخهای از آنها را کپی نمیکنیم، ما آن کتاب را درک کرده و مفاهیم آن را درونی میکنیم. سیستمهای هوش مصنوعی، اما باید واقعا نسخهای از آن اثر را کپی کنند (اثری که معمولا هم بدون اجازه یا پرداخت هزینه بهدست آمده است) و آن را به معماری خود اضافه کرده و این نسخه را برای فعالیت درست نگهداری کنند. اثر مربوطه پس از «یادگیری» برخلاف ادعای شرکتهای هوش مصنوعی، از بین نمیرود بلکه در شبکههای عصبی سیستم باقی میماند.
نقطه کور تجاری
انسانانگاری هوش مصنوعی نقاط کور خطرناکی را در تصمیمگیری تجاری ایجاد میکند که فراتر از نقایص ساده عملیاتی است. وقتی مدیران و تصمیمگیرندگان هوش مصنوعی را «خلاق» یا «هوشمند» به لحاظ انسانی در نظر بگیرند، این مساله ممکن است به زنجیرهای از پیشفرضها و مسئولیتهای حقوقی احتمالی منجر شود.
بزرگانگاری توانمندیهای هوش مصنوعی
یکی از حوزههایی که انسانانگاری باعث خطر میشود، تولید محتوا و پیروی از حق نشر است. وقتی کسبوکارها هوش مصنوعی را قادر به «یادگیری» مشابه انسان قلمداد کنند، شاید به نادرست فرض را بر این بگذارند که محتوای ساخته هوش مصنوعی با نگرانیهای حق نشر همراه نیست. چنین اشتباهی باعث میشود تا شرکتها سیستمهای هوش مصنوعی که محتوای دارای حق نشر را بازتولید میکنند به کار گیرند و در نتیجه در معرض خطر ادعاهای نقض حق نشر قرار گیرند.
در اعمال فیلتر صحیح محتوایی و مکانیزمهای نظارتی با شکست مواجه شوند.
به غلط فرض را بر این بگذارند که هوش مصنوعی به خوبی محتوای عمومی را از محتوای دارای حق نشر تشخیص میدهد.
ضرورت نظارت انسانی را در فرایند تولید محتوا نادیده بگیرند.
نقطه کور پیروی از قانون برونمرزی
سوگیری انسانانگارانه در مواردی که پیروی از قانون برونمرزی را در نظر میگیریم خطراتی را به دنبال دارد. همانطور که دانیل جرویس، هارالامبوس مارمانیس، نوام شمتوف و کاترین زالر رولند در «اصل موضوع: حق نشر، آموزش هوش مصنوعی و LLM ها» توضیح میدهند، قانون حق نشر براساس اصول مشخص خاص هر قلمرو عمل میکند و هر حوزه قضایی قوانین خود را درمورد نقض حق نشر و استثناها دارد.
ماهیت قلمرو محور قوانین کپیرایت، یک شبکه پیچیده از مسئولیتپذیریهای احتمالی را پدیدار میکند. شرکتها شاید به اشتباه فرض را بر این بگذارند که سیستمهای هوش مصنوعی میتوانند آزادانه از محتوای دارای حق نشر در حوزههای مختلف به «یادگیری» بپردازند، و در نتیجه متوجه نشوند که یادگیری مجاز در یکی از کشورها ممکن است در دیگری نقض قانون باشد.
این مساله از آنجایی اهمیت دارد که انسانانگاری هوش مصنوعی باعث میشود تا شرکتها تعهدات قانونی برونمرزی را نادیده یا دست کم بگیرند. این برداشت اشتباه و مطلوب که هوش مصنوع همانند انسانها «یاد میگیرد» با این واقعیت در تضاد است که هوش مصنوعی شامل عملیاتهای پیچیده نسخهبرداری و ذخیرهسازی است که با تعهدات قانونی در دیگر قلمروها همراه هستند. این برداشت نادرست از نحوه عملکرد هوش مصنوعی در کنار ماهیت قلمرو محور قوانین حق نشر با خطرات قابل توجهی برای کسبوکارهای بینالمللی همراه میشود.
بهای انسانی
یکی از مهمترین هزینههای انسانانگاری هوش مصنوعی، بار احساسی آن است. امروز موارد متعددی را از وابستگی انسان به چتباتهای هوش مصنوعی به عنوان یک دوست یا معتمد مشاهده میکنیم. این مساله به ویژه برای افراد آسیبپذیری که ممکن است اطلاعات شخصی را با این ابزارها به اشتراکبگذارند یا به دنبال حمایت احساسی از آن باشند، خطرناک است. با اینکه پاسخهای هوش مصنوعی به نظر دلگرمکننده میرسند، اما در واقع برآمده از الگوهای پیچیدهای براساس دادههای آموزشی هستند و هیچ درک یا ارتباط احساسی واقعی در آن وجود ندارد.
این ضعف احساسی را ممکن است در تنظیمات حرفهای نیز مشاهده کنیم. هرچه ابزارهای هوش مصنوعی بیشتر در کار روزمره ما ادغام میشوند، ممکن است سطح اعتماد نامناسبی بین کارکنان با این سیستمها شکل گیرد و آنها را به جای ابزار، همانند همکار خود ببینند. درنتیجه کارکنان ممکن است اطلاعات محرمانه را خیلی راحت با این ابزارها به اشتراک بگذارند یا اعتماد نابهجا را به خوبی گزارش ندهند. با اینکه در حال حاضر چنین شرایطی را به ندرت مشاهده میکنیم، اما همین موارد نادر اهمیت انسانانگاری هوش مصنوعی و تاثیر احتمالی آن بر قضاوت و وابستگی ناسالم به سیستمها را نشان میدهند. این سیستمها با وجود پاسخهای پیچیده قادر به درک واقعی یا اهمیت دادن نیستند.
رهایی از دام انسانانگاری
با این تفاسیر راه پیش رو کدام است؟ ما اول از همه باید بیان درستتری را در مورد هوش مصنوعی استفاده کنیم. به جای اینکه بگوییم هوش مصنوعی «یاد میگیرد» یا «درک میکند»، بهتر است بگوییم «دادهها را پردازش میکند» یا «خروجیهایی را براساس الگوهای موجود در دادههای آموزشی تولید میکند.» مساله در اینجا تنها موشکافی و دقت نیست، بلکه چنین بیانی به درک بهتر نحوه کار این سیستمها نیز کمک میکند.
در مرحله دوم باید سیستمهای هوش مصنوعی را براساس آنچه هستند ارزیابی کنیم، نه تصوری که از آنها داریم؛ بنابراین باید در کنار تاکید بر توانمندیهای خارقالعاده آنها، به محدودیتهای بنیادین آنها نیز اشاره کنیم. هوش مصنوعی میتواند حجم عظیمی از داده را پردازش و الگوهایی که از چشم انسان پنهان هستند را شناسایی کند، اما توان دکر، استدلال یا خلق به طریقه انسانی را ندارد.
در آخر هم باید چارچوب و سیاستهایی را در نظر بگیریم که به جای تصورات ما از قابلیتهای انسانمانند، مشخصههای واقعی هوش مصنوعی را هدف بگیرند. این مساله به ویژه در مورد قوانین حق نشر اهمیت دارد، جایی که تفکر انسانانگارانه ممکن است به تصورات نادرست و نتیجهگیریهای قانونی نامناسب منجر شود.
مسیر پیش رو
همینطور که سیستمهای هوش مصنوعی در تقلید از خروجیهای انسانی پیشرفتهتر میشود، میل به انسانانگاری نیز افزایش مییابد. این سوگیری انسانانگارانه بر همه چیز از ارزیابی ما از توانمندیهای هوش مصنوعی تا ارزیابی خطرات آن، تاثیر میگذارد. همانطور که دیدیم، این مساله چالشهای متعددی را پیرامون قانون حق نشر و پیروی از قانون تجاری به دنبال دارد. وقتی ما قابلیتهای یادیگری انسان را به سیستمهای هوش مصنوعی نسبت میدهیم، باید بدانیم که ماهیت بنیادین آنها و واقعیت فنی آنها در نحوه پردازش و ذخیره اطلاعات را درک کنیم.
درک هوش مصنوعی و واقعیت آن (سیستمهای پیچیده پردازش اطلاعات و نه سیستمهای یادگیرنده انسانمانند) در تمام حوزههای حاکمیت و اجرای هوش مصنوعی اهمیت حیاتی دارد. با عبور از تفکر انسانانگارانه میتوانیم چالشهای سیستمهای هوش مصنوعی را از بررسی اخلاقی و خطرات امنیتی گرفته تا پیروی از قوانین حق نشر برونمرزی و حاکمیت دادههای آموزشی بهتر درک کنیم. چنین درک دقیقی به کسب و کارها در تصمیمگیری صحیح کمک میکند و همچنین حامی سیاستگذاری بهتر و تنظیم گفتمان عمومی است.
هرچه زودتر از ماهیت واقعی هوش مصنوعی استقبال کنیم، با دست بازتری میتوانیم به پیامدهای جدی اجتماعی و چالشهای عملی آن در جهان اقتصادیمان بپردازیم.