:
كمينه:۱۴.۷۹°
بیشینه:۱۶.۹۹°
Updated in: ۰۷ ارديبهشت ۱۴۰۳ - ۲۳:۱۵
تهدیدهای هوش مصنوعی

استفاده از هوش مصنوعی برای تولید انبوه چهره‌های قلابی

یک وب سایت اینترنتی استفاده از هوش مصنوعی را برای تولید و نمایش تعداد انبوهی از چهره‌های قلابی آغاز کرده است. این چهره‌ها هیچ تفاوتی با چهره‌های واقعی انسان‌ها ندارند
کد خبر: ۱۳۱۵۴۴
تاریخ انتشار: ۲۹ بهمن ۱۳۹۷ - ۰۸:۳۴
انگجت|  فیلیپ ونگف یک توسعه‌دهنده و برنامه‌نویس تحت وب است که سایتی به نام «این شخص وجود ندارد» را راه‌اندازی کرده است. با ورود به این سایت هر بار چهره انسانی به نمایش درمی‌آید که کاملا واقعی است، اما در عمل وجود ندارد. با هر بار تازه کردن یا رفرش کردن صفحه نیز چهره جدیدی به کاربر نشان داده می‌شود.

سایت یادشده هر بار زن یا مردی را نشان می‌دهد که هر یک از آنها از نظر سن، نژاد و غیره با یکدیگر تفاوت دارند. اما کاربر نمی‌تواند تشخیص دهد چهره‌ای که در حال مشاهده آن است غیرواقعی است.

در سایت مذکور از یک شبکه هوش مصنوعی تولید شده توسط شرکت ان ویدیا استفاده شده که از الگوریتمی خاص برای ارتقای نتایج به نمایش درآمده استفاده می‌کند. این الگوریتم از قابلیت خود آموزی برای ارتقای توانایی‌های خود برخوردار است.

در برخی موارد تعدادی از چهره‌های به نمایش درآمده در بخش‌هایی از صورت و به خصوص چشم‌ها دارای مشکلاتی هستند، اما طراح این سایت می‌گوید مشکل یادشده با استفاده از پردازنده‌های گرافیکی قدرتمندتر و گران قیمت‌تر ان ویدیا قابل حل است. از این فناوری می‌توان برای طراحی و نمایش انواع ابزار و اقلام قلابی دیگر هم استفاده کرد.


تهدیدهای  هوش مصنوعی


 جدیدترین پیشرفت‌های هوش مصنوعی باعث شده است این فناوری انقلابی در انجام کارهای بصری مثل دسته‌بندی تصاویر و تبدیل گفتار به نوشتار عملکرد بسیار خوبی داشته باشد؛ البته هیجان و خوشحالی ناشی از ایجاد این توانایی‌های شگفت‌انگیز در هوش مصنوعی ما را از معایب آن غافل کرده است؛ هوش مصنوعی هنوز راه زیادی برای رسیدن به هوش و استعداد بشر دارد و همین موضوع می‌تواند در آینده‌‌ای نه چندان دور پیامدهای خطرناکی را به‌دنبال داشته باشد؛ زیرا امکان دارد الگوریتم‌های هوش مصنوعی اتفاق‌های غیرقابل انتظاری را رقم بزنند یا دقت نکردن در استفاده از آنها می‌تواند عواقب بدی داشته باشد.

پس از تصادف خودروهای خودران اوبر در ماه مارس سال گذشته، پژوهشگران دریافتند که فناوری این شرکت به‌صورت فاجعه‌باری شکست خورده است؛ اما مسوولان آن می‌توانستند با روشی ساده مانع این شکست شوند.

مشکل بزرگ خودروهای خودران این است که شرکت‌های خودروساز قصد دارند هرچه زودتر این فناوری تجاری‌سازی و به‌صورت گسترده استفاده شود؛ اما این دستاورد بزرگ برخلاف سرمایه هنگفت چند میلیارد دلاری که برای آن صرف شده، هنوز به تکامل کامل نرسیده است.

از سویی دیگر در ماه مارس سال گذشته، اخبار مربوط‌به سوء‌استفاده شرکت کمبریج آنالیتیکا یک شرکت مشاوره‌دهنده سیاسی، از فعالیت‌های مرتبط‌با به‌اشتراک‌گذاری فیسبوک برای تحت‌تاثیر قرار دادن نتیجه انتخابات ۲۰۱۶ امریکا منتشر شد. این خبر سروصدای زیادی به‌ پا کرد و نشان داد که چگونه‌ الگوریتم‌های هوش مصنوعی می‌تواند نوع اخبار و اطلاعات در‌حال جست‌وجو در شبکه‌های اجتماعی را تحت‌تاثیر قرار دهد و ممکن است این توانایی هوش مصنوعی منجر به افزایش اطلاعات نادرست، لطمه زدن به مباحث سالم و منزوی کردن مردم و ایجاد اختلاف‌نظر در میان آنها شود.

مارک زاکربرگ، مدیرعامل فیسبوک، در یکی از جلسه‌های کنگره امریکا مدعی شد که هوش مصنوعی در آینده می‌تواند محتواهای بد و مخرب را شناسایی و مسدود کند؛ البته وی متذکر شد که هوش تا تشخیص معنا و مفهوم ظاهری یا حقیقی متون، تصاویر و ویدیوها فاصله زیادی دارد.

ظاهرا قرار است وعده زاکربرگ در مورد توانایی هوش مصنوعی برای شناسایی و حذف محتواهای مخرب در انتخابات پیش‌روی دو کشور بزرگ آفریقایی یعنی آفریقای جنوبی و نیجریه، آزمایش شود و بررسی بلندمدت این توانایی برای به‌کارگیری آن در انتخابات ۲۰۲۰ امریکا نیز آغاز شده است؛ البته نباید فراموش کنیم که این فناوری می‌تواند زمینه را برای ایجاد فناوری‌های مبتنی برپایه هوش مصنوعی برای گسترش اطلاعات نادرست مانند ربات‌های چت مخرب فراهم کند.

به گزارش سایت تکنولوژی وایرد، سال گذشته تعدادی از کارمندان گوگل مطلع شدند که کارفرمایان آنها فناوری خاصی برای دسته‌بندی شیوه تصویربرداری با پهپاد، در اختیار ارتش امریکا قرار داده‌اند و پس از آن جنبشی بر مبنای استفاده از هوش مصنوعی برای گسترش صلح و آشتی شکل گرفت. کارمندان گوگل نگران بودند که این اقدام کارفرمایان آنها می‌تواند به ارایه فناوری فاجعه‌باری برای آغاز حملات پهپادهای مرگبار و درنتیجه به خطر افتادن جامعه‌ بشریت ختم شود. گوگل درواکنش به این جنبش از پروژه مِیوِن که براساس آن نرم‌افزارهای هوش مصنوعی گوگل در اختیار ارتش امریکا قرار می‌گرفت، خودداری کرد و پس از آن یک کد هوش مصنوعی برای موارد اخلاقی ایجاد شد. نهادهای بسیار مطرح صنعتی و آموزشی کمپینی برای ممنوعیت استفاده از سلاح‌های مستقل ایجاد و از آن حمایت کردند. استفاده نظامی از هوش مصنوعی به‌تازگی آغاز شده است و به‌نظر می‌‌‌رسد که در آینده شدیدا با آن مقابله خواهد شد. درضمن پس از قطع همکاری گوگل با ارتش امریکا، شرکت‌های بزرگ فناوری دیگر مثل مایکروسافت و آمازون هم حاضر به مشارکت در این اقدام غیرانسانی نشده‌اند.

اگرچه سرمایه‌گذاری پنتاگون برای استفاده از هوش مصنوعی در حال افزایش است، اما فعالان حقوق‌بشر امیدوارند پیمان ممنوعیت استفاده از سلاح‌های مستقل که دربرخی از جلسه‌های سازمان ملل در حال بررسی است، در سال میلادی جاری اجرا شود تا این سلاح‌ها تهدیدی بزرگ برای بشر نباشند.

درحال‌حاضر در بسیاری از کشورها (به‌خصوص چین)، به‌صورت گسترده‌ای از هوش مصنوعی برای نظارت دولت و پلیس بر مردم استفاده می‌شود و آمازون نیز در حال فروختن این فناوری به سازمان‌های مهاجرت و قانون‌گذار امریکا است. در آینده فناوری تشخیص چهره در وسایل‌نقلیه و وب‌کم‌ها هم نیز مورد استفاده قرار خواهد گرفت و علاوه‌بر شناسایی صورت افراد، حرکت آنها نیز کنترل خواهد شد؛ اما امسال قوانینی برای کنترل استفاده از آن وضع خواهد شد.