مخاطب 24- به گزارش ساینس تایمز، این فناوری که «د ویو» (De Wave) نام دارد، امواج مغزی افراد را از طریق الکتروانسفالوگرام ثبت و آنها را به شکل متنی رمزگشایی میکند.
به گفته دانشمندان، پیشرفتهای بیشتر این فناوری در آینده میتواند به بیماران آسیبدیده از سکته مغزی و فلج کمک کند تا بتوانند با محیط اطراف خود ارتباط برقرار کنند و حتی هدایت ماشینهایی مانند بازوهای بیونیک یا رباتها را برعهده بگیرند.
چین تنگ لین، دانشمند علوم رایانهای از دانشگاه فناوری سیدنی، میگوید این پژوهش، امواج الکتروانسفالوگرافی را بهطور مستقیم به زبان تبدیل میکند و پیشرفت قابلتوجهی در این زمینه محسوب میشود.
اگرچه «د ویو» برمبنای مجموعه معیارهای تعریفشده برای دقت، تنها به ۴۰درصد دست پیدا کرده، اما این میزان در مقایسه با استاندارد پیشین برای ترجمه امواج مغزی ۳درصد بهبود یافته است.
دانشمندان میگویند هدف آنها بهبود دقت این فناوری تا حدود ۹۰ درصد است و بهعبارتدیگر، رسیدن به میزانی که نرمافزارهای تشخیص گفتار و تبدیل صوت به متن، کار میکنند.
روشهای دیگر ترجمه امواج مغزی به زبان، در عمل پیچیدهتر از اینها است و در آن روشها به جراحیهای تهاجمی برای کاشت الکترودها یا دستگاههای امآرای (MRI) بزرگ و گرانقیمت نیاز است. این باعث میشود که روشهای دیگر برای استفاده و کاربرد روزمره عملی نباشند.
به گفته لین، این نخستین باری است که روشهای کدگذاری مجزا در فرایند ترجمه مغز به متن ترکیب میشود. به گفته او، ادغام این شیوه با مدلهای زبان بزرگ، مرزهای جدیدی را در علوم اعصاب و هوش مصنوعی باز میکند.
لین و تیم تحقیقاتی او از مدلهای زبان آموزشدیده بهره گرفتند که ترکیبی از سیستمی به نام برت با جیپیتی بود. آنها این مدل را بر روی مجموعه دادههای موجود در افرادی که ردیابی چشم و فعالیت مغز آنها را پیشازاین حین خواندن متن ثبت کرده بودند، آزمایش کردند.
این روش به سیستم کمک کرد تا بیاموزد الگوهای موج مغزی را با کلمات تطبیق دهد. مسئله بر سر این است که وقتی چشم فرد از یک کلمه به کلمه دیگر میرود، مغز او در زمان پردازش هر کلمه درنگ کوتاهی میکند. ترجمه امواج خام الکتروانسفالوگرام به کلمات، بدون ردیابی چشم، انجام این کار را دشوارتر میکند.
مسئله بعدی این است که مغز افراد مختلف فاصله میان کلمات را به یک شیوه پردازش نمیکند و این همان جایی است که هوش مصنوعی نقش خود را در فناوری جدید یادشده ایفا میکند.
درواقع، پژوهشگران توانستند هوش مصنوعی را با دادههای مدلهای زبانی مثل جیپیتی آموزش دهند تا بتواند فاصله میان کلمات را تشخیص دهد و امواج مغزی را به کلمات موردنظر ترجمه کند.
البته این فناوری هنوز در تشخیص کلمات مشکلاتی دارد و برای نمونه کلمهای همچون «مرد» را با «نویسنده» اشتباه میگیرد. دانشمندان میگویند دلیل این امر آن است که وقتی مغز این واژگان را پردازش میکند، ممکن است الگوهای موج مغزی مشابهی تولید شده باشد. اما این مدل بهرغم چالشها توانسته است نتایج معناداری را به دست آورد.
به گفته دانشمندان، این پژوهش از فناوریهای پیشین قابلاطمینانتر است، چراکه آنها تنها بر روی نمونههای بسیار کوچکی آزمایش شده بودند.
پژوهشگران میگویند که هنوز راه زیادی برای پیشرفت این فناوری در پیش است و سیگنالها در حال حاضر در مقایسه با الکترودهای کاشتهشده در مغز نسبتا پرسروصدا محسوب میشوند.
به گفته دانشمندان، ترجمه افکار بهصورت مستقیم از مغز، پیشرفت بزرگ و درعینحال چالشبرانگیزی است و با در نظر گرفتن پیشرفتهای سریع در مدلهایی نظیر چت جیپیتی باید به روشهای رمزگذاری مشابه توجه بیشتری داشت. این پژوهش که جزئیات آن در همایش «NeurIPS ۲۰۲۳» ارائهشده، در پایگاه دادههای آرکایو در دسترس است.
منبع: مهر