مخاطب۲۴- هوش مصنوعی توانسته در مدت کوتاهی توجه همه را بهخود جلب کند. در ابتدا ماجرا از ویژگیهای نسبتا ساده شروع شد و حالا مدیرعامل OpenAI حتی از مغز مجازی صحبت میکند. طبیعی است که عدهای از ویژگیها و قابلیتهای هوش مصنوعی هیجانزده شوند و عدهای نیز نسبت به خطرات آن هشدار دهند. اخیرا نیز رویکرد تاریکی توسط برخی شرکتها آغاز شده است که نشان میدهد هوش مصنوعی حتی مردگان را هم رها نخواهد کرد.
رباتهای جدید ترکیبی از دنیای مردگان و هوش مصنوعی هستند.
امروزه چتباتها محبوبیت بسیار بالایی در میان کاربران دارند. برخی آنها را بهعنوان مرجعی برای پاسخگویی به سوالهای گوناگون میدانند و برخی نیز آنها را به جایگاه دوست و همدم ارتقا دادهاند. حتی گفته میشود که تعداد بالایی از نوجوانان نمیتوانند روز خود را بدون هوش مصنوعی سپری کنند. حالا نیز شاهد ظهور نوع جدیدی از چتباتها هستیم که به آنها رباتهای مرده گفته میشود.
شرکتهای مختلف میتوانند با استفاده از هوش مصنوعی یک نسخه شبیهسازیشده از مردگان شما را آماده کنند. این نسخه قادر است با شما در مورد موضوعات مختلف گفتگو کرده و احساسات مختلف را از خود نشان دهد. جالب اینجاست که چنین چیزی نیز با پرداخت تنها ۱۰ دلار ممکن خواهد شد. افرادی که رباتهای مرده را امتحان کردهاند میگویند که ارتباط مجدد با عزیزان حتی بهصورت مصنوعی آرامشبخش است.
در واقع اینگونه بهنظر میرسد که هوش مصنوعی توانسته مردگان را زنده کند. هرچند برخی افراد این موضوع را نگرانکننده میدانند و معتقد هستند که در آینده مشکلات زیادی را ایجاد خواهد کرد. بهباور این افراد، شرکتهایی که مسئول چتباتهای مرده هستند باید به برخی مسائل اجتماعی و اخلاقی پاسخ دهند. این شرکتها نمیتوانند بدون توجه به مشکلات احتمالی صرفا از پیشرفت علوم رباتیک و هوش مصنوعی برای رسیدن به اهداف خود استفاده کنند.
اولین سوال مهم این است که چه کسی پس از مرگ یک فرد دادههای او را در اختیار خواهد گرفت. تاثیر روانی این فناوری بر بازماندگان فرد فوت شده چیست؟ رباتهای مرده ممکن است برای چه اهداف دیگری استفاده شوند؛ و اینکه چهکسی میتواند یک ربات را برای همیشه غیرفعال کند؟ این پرسشها شاید زمانی میتوانستند در رابطه با یک فیلم علمیتخیلی مطرح شوند؛ اما حالا مربوط به نگرانیهای ما از آینده نزدیک هستند.
بیایید برای درک هرچه بهتر خطر سوء استفاده هوش مصنوعی از مردگان این سناریو خیالی را در نظر بگیریم. مادربرگ یک زن ۲۸ ساله فوت میکند. او تصمیم میگیرد که پیامهای متنی و صوتی فرد متوفی را درون یک برنامه خاص بارگذاری کند. برنامه موردنظر نیز به او اجازه میدهد که هروقت بخواهد با نسخه شبیهسازیشده مادربزرگ خود ارتباط تصویری برقرار کند.
وقتی دوره آزمایشی رایگان به پایان رسید، نوبت سوء استفاده هوش مصنوعی از مردگان میرسد. در این هنگام مادربزرگ داستان ما سیگنالهای تبلیغاتی مختلف را بهصورت غیرمستقیم ارسال خواهد کرد. طبیعتا فرد ارتباط عاطفی شدیدی با این ربات برقرار خواهند کرد. همین نیز سبب میشود که نسبت به حالت عادی آسیبپذیرتر باشند و بهراحتی پیامهای تبلیغاتی را قبول کند.
در این حالت کارشناسان توصیه میکنند که برای جلوگیری از آسیبهای روانی و اجتماعی، زمان مشخصی برای ارتباط با متوفی تعیین شود. پس از آن نیز هوش مصنوعی میتواند آیینی را برای تدفین دیجیتالی فرد برگزار کند. چنین صحبتهایی شاید در سال ۲۰۱۸ مسخره بهنظر میرسیدند؛ اما اخبار فناوری در ماههای اخیر نشان میدهد که باید با جدیت به آنها فکر کنیم.
بهباور کارشناسان باید قوانینی در خصوص میراث دیجیتال فرد وضع شوند تا دیگران از آن برای اهداف مالی خود استفاده نکنند. البته نمیتوان انتظار داشت که استفاده هوش مصنوعی از دادههای مردگان بهصورت کامل غیرقانونی اعلام شود، اما حداقل میتوان محدودیتهایی برای آن ایجاد کرد. بهعنوان مثال رباتهای مرده (بهجز شخصیتهای تاریخی) نباید هرگز در شبکههای اجتماعی ظاهر شوند.
برخی افراد نیز بر این باور هستند که رباتهای مرده باید در دسته ابزار پزشکی قرار بگیرند. آنها میتوانند در مواردی به فرد کمک کنند؛ اما باید سلامت روانی فرد در اولویت باشد. تصور کنید فردی هنوز از نظر دیجیتالی زنده است و در زندگی روزمره یک خانواده حضور دارد. آیا کودکان برای درک فقدان فیزیکی فرد دچار مشکل نخواهند شد؟ آیا وابستگی شدید به دنیای هوش مصنوعی و مردگان نمیتواند فرد را از زندگی اجتماعی خود محروم کند؟
همچنین مسئله غیرفعال کردن ربات مرده نیز مهم جلوه میکند. همیشه بازماندگان فرد متوفی عقاید یکسانی ندارند. در این حالت چهشخصی قادر خواهد بود تدفین دیجیتالی ربات را انجام دهد؟ یک نگرانی مهم دیگر در رابطه با ترکیب هوش مصنوعی و مردگان این است که شرکتهای گوناگون در مورد نگهداری از دادههای افراد چندان شفافیت بهخرج ندهند. در این حالت احساسات و عواطف شما میتواند صرفا ابزاری برای سودآوری دیگران باشد.