متاورس؛ یک راه فرار هوشمندانه در برابر نظارت افکار عمومی

ainews11
10 min readNov 9, 2021

شاید بهترین تعریف برای متاورس، «دنیای واقعی مجازی باشد که در آن هر کاری می‌توانید انجام دهید». البته «هر کاری»، قیدی است که مارک زاکربرگ در تعریف کلان پروژه فیس‌بوک تعریف کرده است. به بیان دیگر، با اعلام تغییر نام برند فیس‌بوک به متا، نگاه‌ها بار دیگر به این هوش مصنوعی دوخته شد. در این فاصله کلیدواژه‌های مرتبط با این موضوع چند میلیون بار در موتور جستجوی گوگل سرچ شده و بسیاری می‌خواهند بدانند زاکربرگ این بار با چه ایده‌ای می‌خواهد دنیا را غافلگیر کند.

تحلیل واژه متاورس

ابتدا باید خود واژه Metaverse را بررسی کنیم. پیشوند Meta به معنای فراتر است، ریشه این پیشوند یونانی بوده و در کنار Verse که خلاصه شده واژه Universe بوده، به معنای فراتر از جهان است. Universe به معنای جهان واقعی است، جهانی که آن را از طریق حواس پنج‌گانه تجربه می‌کنیم؛ بنابراین بهتر است ترجمه تحت‌اللفظی این واژه را «فراتر از جهان واقعی» بدانیم.

متاورس به‌مثابه یک کلان پروژه

متاورس یک کلان پروژه در عرصه هوش مصنوعی است. در واقع اعلامیه زاکربرگ درباره تغییر نام فیس‌بوک به متا، صرفاً یک تغییر برند ساده نبود. بلکه نشان از نوعی جاه‌طلبی علمی نیز داشت که بر طبق آن باید کل کلان پروژه متاورس را در چارچوب هوش مصنوعی فهمید.

بر طبق این چشم‌انداز، متاورس به معنای توسعه کارکردهای هوش مصنوعی در عرصه تعاملات کاربران است. یکی از نمونه‌های کوچک متاورس، بازی‌های آنلاین گروهی است. شما در این دست از بازی‌ها آواتار مخصوص خود را می‌سازید و می‌توانید در راستای برنامه‌هایی که برای بازی تعریف شده است، به فعالیت بپردازید. این دست از محیط‌های متاورسی به شما امکان حضور در یک محیط مجازی با تعداد مشخصی از فعالیت و سناریوی از پیش تعریف شده را می‌دهد. بسیار خب، حال تصور کنید که بتوانید به‌عنوان یک انسان آزاد، در واقعیت مجازی زندگی کنید. با این ویژگی که قدرت بی‌نهایت اختیار و تصمیم‌گیری را دارید. این همان رؤیای کلان پروژه متاورس فیس‌بوک است که در ۶ آبان ۱۴۰۰ از سوی زاکربرگ از آن رونمایی شد.

بیشتر بخوانید

شاهکار بخش هوش مصنوعی فیس بوک: جهشی در حوزه بینایی کامپیوتر

به گفته زاکربرگ هدف از این پروژه همان است که در ابتدای پروژه فیس‌بوک گفته شد، یعنی «دور هم جمع کردن مردم»؛ بنابراین تغییر برند فیس‌بوک به متا، معنای دقیقی داشت و آن آغاز یک پروژه بزرگ علمی در زمینه هوش مصنوعی برای توسعه تعامل عمیق‌تر کاربران با یکدیگر در فضای مجازی است.

زاکربرگ به چه می‌اندیشد: از مشاهده کردن تا تجربه کردن

زاکربرگ با تغییر برند خود نشان داد برنامه‌ریزی برای طراحی و توسعه هوش مصنوعی در زمینه پلتفرم‌ها کهنه شده است. علاوه بر این پلتفرم‌های مشهور نظیر فیس‌بوک، اینستاگرام و واتس‌اَپ در آینده‌ای نه چندان دور همگی به بازوهای کلان پروژه متاورس تبدیل خواهند شد. فرضیه‌های که درباره آینده شبکه‌های اجتماعی نام‌برده وجود دارد، حاکی از آن است که کاربران در جهان متاورس می‌توانند آزادانه زندگی کنند. دقت کنید! شاید این نکته شما را به یاد بازی‌های کامپیوتری بیندازد. به طور مثال بازی Second Life که در آن می‌توانستید عاشق شوید، ازدواج کنید و فرزند بیاورید و به طور خلاصه در کنار زندگی واقعی خود یک زندگی مجازی نیز داشته باشید.

اما در متاورس‌های کلاسیک، شما به مشاهده کردن مشغول هستید، شرکت در بازی‌های آنلاین، به راحتی مغز شما را فریفته نمی‌کند. اما زمانی که از هدست‌های پیشرفته استفاده می‌کنید، مغز دچار خطای تمایز فضا می‌شود. یعنی نمی‌تواند فضای واقعی را با موقعیت مجازی که در آن قرار دارید را تمیز دهد.

عوارضی که می‌تواند در پروژه متاورس وجود داشته باشد

در این بخش نمی‌خواهیم درباره کلان پروژه متاورس بداندیشی کنیم. بدون تردید این پروژه جزو مهم‌ترین برنامه‌های تاریخ بشر برای توسعه هوش مصنوعی به حساب می‌آید، اما تذکر و بررسی عواقب احتمالی آن نیز می‌تواند بهره‌مندی ما را از منافع آن بیشتر کند. در ادامه به بررسی مهم‌ترین عوارض احتمالی آن خواهیم پرداخت.

  • عدم تعهد کارگزاران پروژه متاورس به اخلاق انسانی: یکی از ظرفیت‌های منفی موجود در متاورس که امکان آسیب‌رسانی به جوامع انسانی را دارد، عدم پایبندی برنامه‌ریزان و مجریان این پروژه به اخلاق انسانی است. کاربران در متاورس می‌توانند معرض انواع خشونت‌ها، سوءقصد‌ها، هک شدن و یا دزدیده اطلاعاتشان قرار گیرند. یا حتی گروه‌های خشونت‌طلب و تفرقه‌افکن تشکیل شوند و آموزش‌های مخربی را برای عضوگیری بین نوجوانان راه‌اندازی کنند
  • فریب مغز: مطالعات نشان داده است که مغز انسان می‌تواند نسبت به فضای مجازی واکنش نشان دهد. به این معنا مغز می‌تواند فریب بخورد که در یک فضای واقعی قرار دارد و عواطف متفاوتی را از خود نشان دهد. این موضوع در صورتی که بتواند ترشحات هورمونی لذت‌بخش را به همراه داشته باشد، به احتمال بسیار زیاد کاربران را دچار وابستگی شدید می‌کند. این خطر به ویژه در رابطه با کاربران نوجوان بسیار زیاد است
  • انزوا و وابستگی: یکی از عوارض مستقیم مربوط به وابستگی به شبکه‌های مجازی، انزوا و گوشه‌گیری است. مطالعات انجام شده نشان می‌دهد وابستگی نوجوانان به شبکه‌های اجتماعی در ایالات متحده، مخرب‌تر از مواد مخدر بوده و باعث شده درصد بالایی از نوجوانان احساس انزوا کنند. شخصیت‌های منزوی به شدت وابسته هستند و نمی‌توانند در تعهدات اجتماعی نقش ایفا کنند
  • تقویت گرایش‌های ضداجتماعی: متاورس به کاربران آزادی عمل وسیعی می‌دهد. این یعنی فرد می‌تواند نوعی کاربری به‌دور قیود قانونی و اخلاقی را تجربه کند. در این شرایط کاربر می‌تواند خشونت بدون حد مرزی را تجربه کرده و به نوعی متاورس به محلی برای آموزش او تبدیل می‌شود. مطالعات نشان داده است نوجوانانی که به دوستان خود اقدام به شلیک کرده‌اند، پیش از آن در بازی‌های خشن آنلاین فعالیت داشتند. حتی در این گزارش تأکید شده میزان دقت در هدف‌گیری نوجوانانی که بازی‌های اکشن را تجربه کرده‌اند بسیار زیاد است. این بدان معناست که بازی‌های آنلاین می‌تواند به‌مثابه نوعی آموزش تلقی شده و نحوه خشونت‌ورزی را به کاربران آموزش دهند. مطالعات نشان می‌دهد در نوجوانان، هیجانات ناشی از دوران بلوغ می‌تواند از طریق قرارگیری آن‌ها در معرض این بازی‌ها، به گرایش‌های ضداجتماعی تبدیل شود.

بیشتر بخوانید

محیط کار واقعیت مجازی فیسبوک و آشنایی با آن

زمانی که کلان پروژه متاورس را از نزدیک نگاه می‌کنیم، یک نکته بسیار برجسته است. نکته آن است که زاکربرگ به این می‌اندیشد تا کاربر را از مشاهده کردن واقعیت مجازی به تجربه کردن آن بکشاند. این تجربه، با توجه به بی‌حد و حصر بودن آن بسیار وسوسه‌کننده است. به خصوص برای نوجوانان که غریزه کنجکاوی در آن‌ها بسیار زیاد است، می‌تواند این گروه را در برابر آسیب‌هایی که برای کلان پروژه متاورس برشمردیم صدمه‌پذیر کند.

متاورس و ساختار جبری اعصاب انسان

پیچیده‌ترین عضو بدن مغز است. البته پیچیدگی آن مربوط به عدم کشف الگوهای ثابت علمی در تعریف ارتباط با بدن و جایگاه‌شناسی برخی از انگیزش‌های انسانی در آن است. اما نکته قالب توجه بین مغز و متاورس آن است که مغز با اینکه تا به امروز توانسته حجم عظیمی از علوم و معارف بشری را ایجاد کند و زیست انسانی را تعالی ببخشد، اما بر اساس ساختار طبیعی‌اش نمی‌تواند تمایز واقعیت مجازی را از واقعیت بیرونی تفکیک کند.

به طور مثال زمانی که در حال یک بازی کامپیوتری هستید، به دستور مغز هورمون‌های لذت و هیجان یعنی آدرنالین و دوپامین ترشح می‌شود. در حالی که فعالیت فیزیکی ندارید. حتی گزارشات متعددی از وابستگی و رابطه عاشقانه افراد با آواتارهای مجازی وجود دارد که همگی نشان از عدم توانایی مغز در تمایز هویت واقعی و مجازی است. این فریب مغز ناشی از ساختار جبری آن است. احساسات و عواطف انسانی در گرو میزان ترشحات هورمونی از سوی مغز هستند.

یعنی در صورتی که مغز تحریک (ولو با هویت‌های مجازی) می‌تواند آثار روانی و فیزیکی ایجاد کند. همچنین، این موضوع سبب شده است تا پیوند مردم در سراسر جهان با آواتارهای مجازی و شبکه‌های اجتماعی روز‌به‌روز افزایش یافته و بر تعداد کاربران شبکه‌های اجتماعی افزوده شود.

در هر صورت، حقیقت آن است که فریب مغز با توسعه شبکه اجتماعی مبتنی بر تکنولوژی متاورس می‌تواند بیشتر شده و بر گسل ایجاد شده بین مغز و واقعیت جهان بیرون بیفزاید. این در حالی است که کمپانی‌های بزرگ توسعه پلتفرم‌های اجتماعی نظیر متا، باید به نوعی اخلاق حرفه‌ای در کسب و کار خود نیز متعهد شوند.

بررسی فرضیه فرار هوشمندانه از طریق طرح متاورس

پس از شناسایی چالش‌های کلان پروژه متاورس برای زیست انسانی، لازم است که نگاهی به اخلاق حرفه‌ای کسب و کار شرکت متا بیندازیم. فرضیه این مقاله آن است که زاکربرگ، پروژه متاورس را برای خنثی کردن عوارض منفی شرکت فیس‌بوک مطرح کرده است. همچنین، می‌خواهد با برجسته‌سازی این پروژه، افکار عمومی را از فعالیت‌های غیرحرفه‌ای یا غیرانسانی مجموعه‌های تحت اختیارش و به طور ویژه فیس‌بوک دور سازد. در ادامه به بررسی شواهد مورد نظر در این زمینه می‌پردازیم.

شاهد اول: افشاگری‌های فرانسس هاگن علیه زاکربرگ

در ۱۵ اکتبر امسال، برابر با ۱۳ مهر ۱۴۰۰ هاگن از اعضای کمیته راست‌کرداری مدنی فیس‌بوک، مدارک متعددی را به دادگاه تسلیم کرد که نشان از عدم توجه مدیران فیس‌بوک به محتواهای منتشر شده در این پلتفرم دارد. هاگن مدعی شده است، زاکربرگ انسانی جاه‌طلب است که برای رشد موقعیت خود و وایرال شدن محتواها فیس‌بوک به هر ابزاری متوسل می‌شود. او می‌گوید متأسفانه همین رویه سبب شده است تا محتواهای خشن، تفرقه‌افکنانه و مستجهن در این بستر منتشر شود.

بیشتر بخوانید

انقلاب هوش مصنوعی در فیس‌بوک: یک قدم تا شناسایی کامل سخنان نفرت‌انگیز

او می‌گوید به‌کارگیری هزاران نفر برای توسعه الگوریتم‌های امنیتی هوش مصنوعی فیس‌بوک هیچ فایده‌ای در برنداشته است. زیرا این الگوریتم‌ها صرفاً برای محتواهای انگلیسی زبان حساسیت لازم را به خرج می‌دهند. این در حالی است که سایر محتواها در بستر فیس‌بوک بدون نظارت به حال خود رها شده‌اند. همین موضوع باعث شد تا در سال‌های ۲۰۱۰ تا ۲۰۱۵ شبکه‌های تروریستی از زبان‌های محلی و گویش‌های بعضاً ناآشنا برای تشکیل هسته‌های اطلاعاتی خود استفاده کنند.

شاهد دوم: انحلال کمیته راست‌کرداری مدنی فیس‌بوک

در حالی که رفته‌رفته حساسیت اجتماعی بر روی فیس‌بوک و زاکربرگ بیشتر می‌شد، درست یک ماه پس از انتخابات ۲۰۲۰ ایالات متحده، انحلال کمیته راست کرداری مدنی اعلام گردید. جالب است بدانید که وظیفه این کمیته کنترل و نظارت بر استانداردهای اخلاقی و حقوق بشری از سوی فیس‌بوک بود. درست در زمانی که اسناد این کمیته علیه فیس‌بوک در حال انتشار بود، اعلامیه انحلال این کمیته نشان داد که زاکربرگ دارای آن اراده‌ای است که مصالح عمومی را فدای رشد پلتفرم فیس‌بوک کند.

شاهد سوم: گزارش آوریل ۲۰۲۰

در آوریل ۲۰۲۰ گزارشی منتشر شد که ثابت کرد فیس‌بوک کمترین نظارت را بر محتواهای غیرانگلیسی زبان دارند. بر اساس این گزارش، علی‌رغم صرف میلیاردها دلار هزینه و به‌کارگیری نیروی انسانی برای تأمین امنیت این پلتفرم، تنها ۱۹ درصد از محتواهای خشونت‌آمیز، ۱۷ درصد محتوای مستهجن و ۱ درصد محتوای قوم‌گرایانه حذف شده است. به طور مثال تنها ۰.۲ از کل محتواهای نفرت‌پراکنی به زبان و گویش‌های افغانستانی (شامل فارسی، اردو، پشتو، ازبکی و ترکمنی) از این بستر حذف شده است. از طرفی، بر روی زبان عربی که جزو پُرکاربردترین زبان تولید محتوا در این بستر به حساب می‌آید هیچ نظارتی وجود ندارد.

تحلیل: مکانیزم فرار به جلوی مارک زاکربرگ و سرمایه‌گذاری بر روی غریزه خشم

با در نظر گرفتن سه شاهد مطرح شده می‌توان پیش‌زمینه‌های کلان پروژه متاورس را فهمید. اگرچه متاورس افسانه‌ای است که از دهه ۱۹۹۰ در داستان‌های علمی تخیلی مطرح بود. اما امروز در شرف پیوستن به واقعیت است. بدون تردید این یک گام بزرگ در تاریخچه هوش مصنوعی به حساب می‌آید. اما طرح این موضوع از سوی زاکربرگ، بر اساس سه شاهد گردآوری شده نوعی فرار به جلو تلقی می‌شود. تغییر برند و پیش کشیدن یک ایده‌ای نوآورانه در شرایطی که حساسیت‌ها نسبت به پلتفرم فیس‌بوک در حال افزایش بود، بدون تردید می‌تواند موقعیت تیم زاکربرگ را نزد افکار عمومی تقویت کند.

از طرفی بر اساس گزارشات منتشر شده درباره نحوه مدیریت محتوا در فیس‌بوک، می‌توان دریافت که مدیران این شرکت از غریزه خشونت انسان به نفع کسب و کارشان استفاده می‌کنند. در واقع آن‌ها با محدود کردن دایره نظارت به زبان انگلیسی، بستری را برای تولید و انتشار محتوای خشن فراهم می‌کند. گزارشات نیز حاکی از تعمدی بودن این رویه در فیس‌بوک است. به ویژه با در نظر گرفتن گلایه‌هایی که اعضای تیم پژوهش فیس‌بوک منتشر کردند و از تقدم منافع شرکت بر منفعت عمومی حکایت دارد.

باید این موضوع را قدری عمیق‌تر دید. کشفیات روان‌کاوی در یک‌صد سال گذشته ثابت کرده است که انسان به طور طبیعی خشونت‌هایی را در خود بازتولید می‌کند. این خشونت‌ها اگرچه به شکل ساختاری در روان انسان سکنا دارند، اما قوای اجتماعی و ساختارهای فرهنگی اقتصادی می‌توانند زمینه‌های برون‌ریزی خشونت‌های پنهان آدمی را فراهم کنند.

بیشتر بخوانید

تشخیص اشیاء با استفاده از الگوریتم DETR فیس‌بوک

دقیقاً شبیه به غذا خوردن یا تنفس و نیاز جنسی، نیاز به دفع خشونت و مجراهای فرهنگی برای پاک‌سازی انرژی‌های ناشی از این غریزه بسیار حیاتی است. پلتفرم فیس‌بوک، برای وایرال شدن محتوا و افزایش تعاملات کاربران دقیقاً بر روی این غریزه سرمایه‌گذاری کرده است.

در واقع با کاهش یا نبود نظارت بر محتواهای تولید شده، امکان تولید و انتشار محتواهای خشن به غرایز انسانی قدرت بازتولید را می‌دهد به نحوی که بتواند به ساختارهای اجتماعی و خارج از پلتفرم فیس‌بوک نیز تعمیم پیدا کند. این رخداد را می‌توان در همانندسازی کودکان و نوجوانان با محتواها و کاراکترهایی که در پلتفرم فیس‌بوک وجود دارند مشاهده کرد.

سخن آخر

توسعه هوش مصنوعی می‌تواند زمینه را برای برداشتن گام‌های مطمئن‌تر آدمی در علم و دانش فراهم کند. زیرا دقت در محاسبات را افزایش می‌دهد. خطاها را کاهش داده و به‌دور از اشتباهات انسانی، به جای کاربر به تحلیل و محاسبه می‌پردازد؛ بنابراین با تکیه بر هوش مصنوعی می‌توان مدیریت امور انسانی نظیر، ترافیک، اموری شهری، رانندگی، کنترل هواپیما، جت یا فضاپیماها را بدون خطا و با دقت محاسباتی بالا انجام داد.

اما باید توجه کنید که هوش مصنوعی چالش‌های خاص خود را نیز دارد. به طور مثال در پروژه متاورس امکان رشد خشونت قومی، گروهی و یا فردی، انزوا و جامعه‌ستیزی به عنوان آسیب‌های احتمالی این پروژه بحث شد. اما باید در نظر داشته باشید که برشمردن ایرادات احتمالی این پروژه، به معنای منفی‌بافی درباره توسعه هوش مصنوعی نیست، بلکه ما می‌کوشیم تا با بررسی تمامی آثار و جوانب ممکن متاورس، آگاهانه از هوش مصنوعی منتفع شویم.

به نظر شما ایده جدیدی که زاکربرگ در سر دارد چیست و چرا نام فیس‌بوک را به متا تغییر داده است؟

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

--

--