قابلیت عجیب الگوریتم‌های هوش مصنوعی در تشخیص نژاد از روی تصاویر پزشکی

ainews11
3 min readOct 20, 2021

برخی ویژگی‌های ظاهری، مثل رنگ چشم یا پوست می‌توانند سرنخی از نژاد و قومیت افراد باشند. اما بدون این نشانه‌ها، تشخیص نژاد برای انسان‌ها کار آسانی نیست. با این حال، بر اساس پژوهشی جدید که هنوز مورد بازبینی قرار نگرفته، به نظر می‌رسد الگوریتم‌ها از پس انجام این کار برمی‌آیند.

در این پژوهش، محققان پنج مدل متفاوت را روی تصاویر ایکس‌ری قسمت‌های مختلف بدن، از جمله سینه و دست‌ها، آموزش داده و این تصاویر را، بر اساس نژاد بیمار، برچسب زدند. سپس سیستم‌های یادگیری ماشین را به آزمایش گذاشتند تا عملکردشان در پیش‌بینی و تشخیص نژاد افراد از روی تصاویر پزشکی مشخص شود.

عملکرد این سیستم‌ها به طرز باورناکردنی دقیق بود، طوری که ضعیف‌ترین سیستم در ۸۰ درصد مواقع پاسخ درست را ارائه می‌داد. طبق ادعای این مقاله، دقت بهترین سیستم ۹۹ درصد بود.

نویسندگان هشدار داده‌اند: «با این آزمایشات نشان دادیم به راحتی می‌توان به سیستم‌های هوش مصنوعی آموزش داد تا هویت نژادی افراد را از روی تصاویر پزشکی تشخیص دهند. جداسازی این قابلیت از فناوری‌های دیگر و کاهش آن کار بسیار دشواری خواهد بود.

ما به توسعه‌گرها، قانون‌گذاران و کاربرانی که با تحلیل تصاویر پزشکی سروکار دارند، قویاً پیشنهاد می‌کنیم در استفاده از مدل‌های یادگیری عمیق، نهایت احتیاط را به خرج دهند. تشخیص نژاد بیماران از روی تصاویر ایکس‌ری و سی‌تی اسکن کار بسیار آسانی است. این امکان می‌تواند به موقعیت‌های دیگر هم نفوذ کرده، به نابرابری‌های نژادی که در حوزه‌ی بهداشت و درمان به چشم می‌خورند دامن زده و آن‎ها را تداوم بخشد.»

پارلمان بریتانیا در صدد منع ابزارهای جعل عمیق غیراخلاقی

ماریا میلر ، عضور حزب محافظه‌کار پارلمان بیسنگ‌استوک ، معتقد است الگوریتم‌های یادگیری ماشین که تصاویر جعلی برهنه از افراد تولید می‌کنند، باید ممنوع شوند.

این الگوریتم‌ها که با نام جعل عمیق شناخته می‌شوند متکی بر نرم‌افزارهای هوش مصنوعی هستند. ابزارهای جعل عمیقی روی اینترنت وجود دارند که به افراد منحرف اجازه می‌دهند با ورود تصویر یک نفر، تصویر جعلی برهنه‌ آن‌ها را تحویل بگیرند. این ابزارها چهره‌ی فرد را ثابت نگه می‌دارند و یک بدن ساختگی به آن اضافه می‌کنند.

از جمله اقدامات میلر می‌توان به اعتراضات او علیه اخاذی با تصاویر شخصی اشاره کرد. وی معتقد است حتی اگر تصاویر تولید شده جعلی و غیرواقعی باشند، آسیبی که به قربانیان وارد می‌شود واقعی است.

میلر در مصاحبه با Beeb، دستیار صوتی BBC، بیان کرد: «در حال حاضر، ساخت و توزیع عکس‌های شخصی، به صورت آنلاین یا با استفاده از فناوری‌های دیجیتال، بدون رضایت صاحب عکس غیرقانونی تلقی می‌شود.

توزیع آنلاین تصاویر جنسی بدون رضایت فرد، باید جزو جرائم تجاوز جنسی حساب شود تا آسیبی که به زندگی افراد می‌زند را منعکس کند.» میلر قصد دارد این مسئله را در مذاکرات پارلمانی مطرح کند، به امید این‌که قوانین جدیدی برای منع نرم‌افزارهای جعل عمیق در لایحه‌ی امنیت آنلاین بریتانیا تصویب شود.

سرک کشیدن فیس‌بوک در چت‌های خصوصی کاربران

بخش هوش مصنوعی فیس بوک گروهی از مهندسان هوش مصنوعی را به کار گرفته تا بتواند پیام‌های رمزی را بدون رمزگشایی، تجزیه و تحلیل کند.
طبق گزارش The Information، تکنیک رمزگذاری همریخت به شبکه‌های اجتماعی اجازه می‌دهد با سرک کشیدن به چت‌های کاربران در واتساپ، داده‌هایی را جمع‌آوری کنند که به تبلیغات هدفمند کمک می‌کند.

با استفاده از رمزگذاری همریخت، فیسبوک می‌تواند محصولات و خدمات موردعلاقه‌ی افراد را تشخیص دهد. بدین طریق، به محض ورود افراد به حساب‌های کاربری‌شان، تبلیغات مربوطه به آن‌ها ارائه می‌شود.

به نظر می‌رسد کریستین لاتنر سردمدار این اقدامات است؛ لاتنر متخصص رمزنگاری است که اخیراً، بعد از دو دهه مایکروسافت را ترک کرده و به عنوان سرپرست گروه تحقیقات هوش مصنوعی وست کاست به فیسبوک ملحق شده است. سخنگوی فیسبوک در مورد این پروژه گفته است: «هنوز برای پیاده‌سازی رمزنگاری همریخت در واتسپ خیلی زود است.»

منبع: هوشیو

--

--