2024-04-29@15:12:15 GMT
۱۲۴ نتیجه - (۰.۰۰۲ ثانیه)
جدیدترینهای «جعل عمیق»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
خبرگزاری علم و فناوری آنا؛ ویدئوها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته میشوند و گاهی آنقدر واقعی به نظر میرسند که تشخیص آنها از واقعیت دشوار است. این فناوری بارها مشکلساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کردهاند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر میشود و کارشناسان حوزه فناوری در تلاش هستند تا راههایی برای شناسایی و پیشگیری از آسیبهای جعل عمیق پیدا کنند. به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و میخواهم همچنان...
این توصیه بخشی از مجموعه دستورالعملهایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غولهای دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید میکند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنتهای کاربران است به نحوی که شرکت پیامرسان بتواند محتوای مضر و آسیبرساننده را پیدا کرده و مثلا برای آن برچسب هشدار بگذارد. نهاد اجرایی اتحادیه اروپا مجموعهای از اقدامات را برای کنترل شرکتهای بزرگ فناوری مجازی، به ویژه در مورد تعدیل محتوا، به اجرا گذاشته است. بزرگترین ابزار اروپا در این زمینه قانون خدمات دیجیتال است که بر اساس آن این بلوک ۲۲ بستر دیجیتال از جمله...
ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکتهای بزرگ فناوری دیجیتال از جمله فیسبوک و تیکتاک خواست تا محتویات جعل عمیق (دیپفیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه دستورالعملهایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غولهای دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید میکند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنتهای کاربران است به نحوی که شرکت پیامرسان بتواند محتوای مضر و آسیبرساننده را پیدا کرده و مثلا برای آن برچسب هشدار...
به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، میتوانند نتایج زیانباری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانونگذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفنهای همراه از جمعیت پیشی میگیرد، قانونگذاران برزیل تصمیم هفته گذشته استفاده از فناوری جمع عمیق را ممنوع کردند و برای استفاده از این فناوری با اهداف انتخاباتی، خطمشیهایی تعیین کردند. توسعه سریع هوش مصنوعی که با عرضه چت جی پی تی در سال ۲۰۲۲ سرعت گرفته، چشمانداز جهان آنلاین را تغییر داده و همزمان باعث ترس و نگرانی در مورد آینده شده. اما در کشوری که پیش از این هم...
ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانیهای عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است. همانقدر که تصاویر دستکاری شده پیچیدهتر میشوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروریتر میشود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبههای مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد. با کنترلهای صحیح و هوشیار بودن نسبت به خطرات احتمالی...
به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامهای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شده و خطرات احتمالی آن را در این نامه متذکر شدهاند. این گروه از کارشناسان با همراهی اندرو کریچ (Andrew Critch)، متخصص هوش مصنوعی از دانشگاه برکلی در نامه سرگشاده خود نوشتند: «امروزه، در جعل عمیق اغلب از تصاویر جنسی، تقلبی یا اطلاعات نادرست سیاسی استفاده میشود و چون هوش مصنوعی به سرعت در حال پیشرفت است ساخت جعل عمیق را بسیار آسانتر میکند.» در این نامه با عنوان «زنجیره تأمین جعل عمیق را بر هم بزنید»، توصیههایی در مورد شیوه قانونگذاری برای جعل عمیق ارائه شده است، از جمله...
جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی بهویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساختهشده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته میشوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیبهایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر میگذرانید برگردان گزارش ساینس در خصوص جعل عمیق است. در محتواهای جعل عمیق از الگوریتمهایی استفاده میشود که با استفاده از تصویر یا صدای افراد نسخهای جعلی میسازند و صدایی را تولید میکنند که هرگز...
ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته میشود. ویدیوهای تولید شده با هوش مصنوعی میتوانند به طور قانع کنندهای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار میکند که میتواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحتالشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیکهای تشخیص دیپفیک را که امروزه در دسترس هستند،...
به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز، پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی...
ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در...
ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم. این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکراتها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرمافزاری درست شده و با چه تعداد از رایدهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است. اما این اتفاق یک موضوع را روشن کرد: نهادهای ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند. تاثیر جعل عمیق بر جامعه، و...
زیسان: در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم. به گزارش زیسان به نقل از پولتیکو، این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکراتها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرمافزاری درست شده و با چه تعداد از رایدهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است. اما این اتفاق یک موضوع را روشن کرد: نهادهای ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند. تاثیر جعل عمیق...
ایتنا - آمریکا قصد دارد انتشار و بهاشتراکگذاری عکسهای برهنه افراد را که به صورت دیجیتال دستکاری شدهاند به یک جرم فدرال تبدیل کند. جوزف مورل نماینده دموکرات ایالت نیویورک روز سهشنبه بار دیگر «لایحه جلوگیری از جعل عمیق تصاویر نقاط خصوصی بدن» را ارائه کرد. این لایحه بهاشتراکگذاری غیرمجاز عکسهای برهنهای را که با ابزارهای دیجیتال دستکاری شدهاند ممنوع میکند. این لایحه قبلا ارائه شده بود، ولی حالا نماینده جمهوریخواه تام کین از نیوجرسی هم به عنوان حامی مشترک به آن پیوسته است. علاوه بر جرمانگاری اشتراکگذاری این تصاویر، لایحه پیشنهادی امکان طرح دعوای حقوقی علیه مجرمان را هم به قربانیان میدهد. مورل در بیانیه خود گفت: «منتظر حادثه دستهجمعی بعدی نمانیم تا خبرساز شود....
بالاخره سیاست با همه بیپدر و مادری، نامردی، کثیف بودن و با وجود همه حرفهایی که پشت سرش میزنند، لابد خوبیهایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه آن، ماجرای «جعل عمیق» یا همان دیپفیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعهشناسان و حتی سیاستبازان و سیاستورزان هم صدایشان بابت این دستهگل هوش مصنوعی و قرن۲۱ درآمده است. زلف این، دُم آن اگر فکر میکنید داریم بیدلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره میزنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل...
ایتنا - برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفتهای هراسانگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری تواناییهای دیگر از جمله کاربردهای عملی چتجیپیتی. سال ۲۰۲۳ سالی مهم در تاریخ هوش مصنوعی بود. اما این تنها آغاز ماجرا بود. برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفتهای هراسانگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری تواناییهای دیگر از جمله کاربردهای عملی چتجیپیتی. پدیده هوش مصنوعی، پدیده جدیدی نیست و از دههها پیش تاکنون وجود داشته است. اما آنچه که با گذشته متفاوت است این است که اکنون مردم عادی نیز با استفاده از چتجیپیتی شرکت...
در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با فناوری جدیدی که میتواند صحت عکسها را تأیید کند، با این مشکل مقابله میکنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. به گزارش خبرآنلاین، امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری به عکاسان و سایر متخصصانی که نیاز دارند از اعتبار کار خود اطمینان حاصل کنند، کمک میکند. نیکون این ویژگی را در دوربینهای بدون آینه خود ارائه میکند، در حالی که سونی و کانن نیز آن...
شرکتهای کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل میکند. به گزارش ایسنا و به نقل از آیای، در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با فناوری جدیدی که میتواند صحت عکسها را تأیید کند، با این مشکل مقابله میکنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری...
یکی از تواناییهای سیستمهای هوش مصنوعی جعل عمیق توانایی شبیهسازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که میتواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرمافزار جدید به نام ضدجعل(AntiFake) میتواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیتهای هوش مصنوعی، از نسخههای جعلی صدای افراد به همراه ویدیوهای جعلی میتوان به گونهای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته است. علاوه بر این مواردی وجود داشته که افراد تماسهای تلفنی دریافت کردهاند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده...
فیلمها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی میتواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روشهایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعهای از تصاویر منتشر شد که نشان میداد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظهکاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همهگیری کووید-۱۹ مورد انتقاد قرار گرفته بود. هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه...
گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوریهای مدرن از هوش مصنوعی گرفته تا ارتباطات بیسیم فوق سریع، در سالهای اخیر کار و زندگی مردم را متحول کردهاند. ضمن لذت بردن از راحتی این فناوریها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسرهای زیادی پیش خواهد آمد. استیو وزنیاک، یکی از بنیان گذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداریها و اطلاعات غلط را سختتر کند. مقامات در حال مبارزه با کلاهبرداران آنلاین و گروههای تبهکار پشت سر آنها هستند، با این حال کلاهبرداریها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایجترین تلههای آنلاین میپردازیم که با کمک فناوریهایی مانند هوش...
مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که میتواند آسیبهای زیادی ایجاد کند و گوگل عمدا قابلیتهای عمومی هوش مصنوعی بارد را محدود میکند. به گزارش ایران اکونومیست و به نقل از فاکسبیزنس، ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیوهای جعلی از چهرههای شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد. پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی(Scott Pelley) مصاحبه کنندهی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیتهایی برای هوش مصنوعی بارد(Bard) خود قائل شده است. پیچار به...
به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ دولت انگلیس در لایحه امنیت برخط (online) هرگونه انتشار تصاویر و ویدئوهای ناشی از "جعل عمیق" (deepfake) را که بدون رضایت افراد، آنان را در این تصاویر و فیلمهای آزار دهنده نشان میدهد، ممنوع میکند.به گزارش خبرگزاری صدا و سیما از لندن، روزنامه گاردین نوشت در روش "جعل عمیق " با دستکاریهای دیجیتال، تصویر یا ویدئوهایی جعلی و توهین آمیز از افراد تهیه میشود و اکنون وزارت دادگستری انگلیس میگوید به علت افزایش موارد "جعل عمیق" در سالیان اخیر باید قوانین سخت گیرانه وضع شود تا بازدارنده باشد.این روزنامه نوشت براساس گزارش وزارت دادگستری انگلیس، در یک مورد که افراد با استفاده از "جعل عمیق" لباسهای یک زن را از تنش در آوردند...
یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانیها در حالی عنوان میشوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخشها توانستهاند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک میکند. اینها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفتهای تکنولوژیکی، مسائل و...
یکی از دردسرهایی که فناوری جعل عمیق برای مردم، بهویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلمهای دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایتهای متعددی از افراد جامعه دریافت کرده است مبنی بر اینکه مجرمان و کلاهبردارهای مجازی از چهرهشان با استفاده از جعل عمیق، تصاویر و فیلمهای مستهجن ساخته و آنها را تهدید به انتشار این تصاویر جعلی کردهاند. این مجرمان معمولا تصاویر جعلی را در رسانههای اجتماعی، انجمنهای عمومی یا وبسایتهای مستهجن منتشر میکنند. در فناوری جعل عمیق، میتوان تصاویری آنقدر واقعی از چهره یک نفر روی بدن یک نفر دیگر ایجاد کرد...
چندین شبکه رادیو و تلویزیون روسیه پس از هک شدن، سخنان جعلی ولادیمیر پوتین رئیس جمهوری این کشور را پخش کردند که در آن پیغام جعلی، اعلام "وضعیت اضطراری" شده بود. به گزارش مشرق،دیمیتری پسکوف سخنگوی کاخ کرملین به خبرگزاری تاس گفت که رئیس جمهور پوتین هیچ سخنرانی اضطراری رادیو و تلویزیون در روز دوشنبه انجام نداده و ویدئو نمایش داده شده در رسانههای اجتماعی، یک نفوذ بوده است. پسکوف ضمن تاکید بر اینکه اوضاع تحت کنترل است و خطر دفع شده، در این خصوص توضیح داد: هیچ سخنرانی وجود نداشت. درست است که در برخی مناطق نفوذ صورت گرفته است. به ویژه، میدانم که یک نفوذ در «رادیو میر» و برخی از شبکهها انجام شده است. شرکت بینالمللی رادیو...
ایتنا - به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
ایتنا - کارشناسان میگویند میلیاردها کاربر آیفون و گوشیهای اندروید در معرض خطر حملات هوش مصنوعی قرار دارند دارندگان گوشیهای هوشمند ممکن است در معرض خطر کلاهبرداری و خالی کردن حساب بانکی باشند. این نوع کلاهبرداریها عموما مبتنی بر روشهای هوش مصنوعی، تقلید صدا، تبلیغات تلهگذاری (فیشینگ) و همچنین فناوری ساخت تصاویر جعل عمیق (دیپ فیک) اجرا میشوند. تقلید صدای هوش مصنوعی تقلید صدا به کمک فناوری هوش مصنوعی مشابه حملات تلهگذاری است که به منظور تلاش برای کسب اطلاعاتی مانند نام کاربری، گذرواژه، اطلاعات حساب بانکی و مانند آنها از طریق جعل یک وبسایت، آدرس ایمیل و مانند آنها صورت میگیرد. به گزارش ایتنا و به نقل از ایندیپندنت، در چنین حملاتی، کلاهبرداران ممکن است با...
به گزارش جام جم آنلاین، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعلهای عمیق واقعیتر هشدار داد. نیل ساهوتا، کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت میکند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیکها تصویری آینهای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد میشود. برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شدهاند، مانند ویدیویی که نشان میداد ولودیمیر زلنسکی رئیسجمهور اوکراین به کشورش میگوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که...
یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعلهای عمیق واقعیتر هشدار داد. نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت میکند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیکها تصویری آینهای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد میشود. برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شدهاند، مانند ویدیویی که نشان میداد ولودیمیر زلنسکی رئیسجمهور اوکراین به کشورش میگوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایهگذاری و...
ایتنا - بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد. به گزارش ایتنا و به نقل از ایندیپندنت، جدیدترین نسخه «میدجرنی»، که از متنهای مکتوب ساده تصویر تولید میکند، در مقایسه با نسخههای پیشین فناوری هوش مصنوعی مولد که معمولا دستهای انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر میکشند، پیشرفت قابلتوجهی را نشان میدهد. به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجیهای متنوعتر، دامنه سبکشناختی گستردهتر،...
دیپ فیک فناوری پیچیدهای است که ویدئو و صوتهای جعلی با استفاده از هوش مصنوعی تولید میکند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا میزنند. این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمیرسد، روزی که جهان شاهد انبوهی از فایلهای صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا...
ایتنا - مقامهای ایالات متحده در گذشته هشدار دادهاند که کشورهایی مانند روسیه به دستکاری رسانههای اجتماعی متوسل میشوند. رهبرانی که بر برخی از محرمانهترین ماموریتهای ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بیسابقهای از جنگافزارند: «جعلعمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقعنما به کار میگیرد. به گزارش ایتنا و به نقل از ایندیپندنت، طبق سندی تدارکاتی که خبرگزاری اینترسپت کشف کرده است، ستاد فرماندهی عملیات ویژه ایالات متحده (سوکام)، متشکل از نیروهای نخبه تفنگداران دریایی، نیروی زمینی، دریایی و هوایی، جویای ابداع «نسل آینده فناوری «جعلعمیق» یا فناوریهای مشابه آن به منظور تولید پیام و عملیات اثرگذاری به روشهای غیرسنتی است». سوکام در درخواستهای تدارکاتی اخیر و در چارچوب عملیات مخفیانه...
ایتنا - سایتی که به طور مجازی عکس زنان را برهنه میکند، در هشت ماه نخست سال ۲۰۲۱، سیوهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر میکند. سرش را دودستی میگیرد. میگوید: «واقعا شرمآور است. زشت است، من شرمندهام.» همسرش پشت سر او اشکهایش را با دستمالی مچاله پاک میکند. به گزارش ایتنا و به نقل از ایندیپندنت، چند روز قبل، برندون ایوینگــ که دنبالکنندههایش در پلتفرم پخش آنلاین توییچ (Twitch) او را به نام اتریوک (Atrioc) میشناسندــ در جریان یک پخش زنده، صفحه مانتیورش را به اشتراک گذاشت. یکی از تبهای باز قابلمشاهده یک سایت پورنو پولی را نشان میداد که کارش تولید تصاویر جنسی با هوش مصنوعی یا «جعل...
به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود. نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین...
طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده میشود، حرفهای میشوند و میتوانند آسیبرسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بودهاند، ممکن است در سالهای آینده تهاجمیتر شوند. بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کردهاند. اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure میگوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیکهای هوش مصنوعی طراحی شده...
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که دادههای چهره و صدا را تغییر میدهند، از 10 ژانویه 2023 (20 دی) اجرایی میشود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل عمیق و سرویس های آن اعمال کند. قوانین اداره فضای سایبری چین (CAC) که روز یکشنبه منتشر شد، از افراد در برابر جعل هویت با جعل عمیق بدون رضایت آنها محافظت میکند. اداره فضای سایبری چین گفت که این اقدام با هدف محدود کردن خطرات ناشی از فعالیت های ارائه شده توسط چنین پلتفرم هایی که از یادگیری عمیق یا واقعیت مجازی برای تغییر هرگونه...
به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مککلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت میتواند نسخههای...
به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفتآور برای شناسایی تماسهای ویدیویی جعل عمیق کشف کردهاند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند. این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارتآپ مستقر در لندن است و قصد داشت با سوءاستفاده از شخصیت تام کروز برای تولید ویدئوهای جعل عمیق مقابله کند. این شرکت از DeepFaceLive استفاده کرد که یک برنامه محبوب برای تولید تصاویر جعل عمیق ویدیویی و تبدیل یک داوطلب به افراد مشهور است. بسیاری از چهره ها زمانی که مستقیم به جلو نگاه می کردند، دقیق و مشابه با افراد مورد تقلید بودند. اما هنگامی که چهره...
ایتنا - دانشمندان میگویند که درک نحوه تشخیص جعل عمیق بهوسیله مغز، به ایجاد الگوریتمهایی برای شناسایی آنلاین آنها کمک میکند. مطالعهای جدید نشان میدهد مغز انسان قادر است بهطور ناخودآگاه جعل عمیق (دیپ فیک) را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند. دیپ فیکها، ویدیوها، تصاویر، صدا یا متنیاند که معتبر به نظر میرسند، اما شبیهسازی کامپیوتریاند که برای گمراه کردن و تحت تاثیر قرار دادن افکار عمومی طراحی میشوند. در این مطالعه که اخیرا در نشریه ویژن ریسرچ منتشر شده، آمده است افرادی سعی کردند جعل عمیق را تشخیص بدهند و با استفاده از اسکن مغزی الکتروآنسفالوگرافی (ئیئیجی) ارزیابی شدند. به گفته دانشمندان، ازجمله دانشمندان...
گوگل، فیس بوک، توییتر و سایر شرکتهای فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حسابهای دیپ فیک در پلتفرمهای خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار میرود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار بهروزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار بهروزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
ایتنا - چهرههای مصنوعی ۷. ۷ برابر قابل اعتمادتر از چهرههای واقعی و زنان به مراتب قابل اعتمادتر از مردها بودند. یک پژوهش جدید حاکی از آن است که به نظر میرسد چهرههای جعلی ایجاد شده با هوش مصنوعی برای انسان قابل اعتمادتر از صورتهای واقعی است. این فناوری که به نام «جعل عمیق» شناخته میشود، یک روش یادگیری الگوریتمی آموزش کامپیوتر است که در آن از هوش مصنوعی و آموزش عمیق برای ایجاد چهرههایی که به نظر واقعی میآیند، استفاده میشود. گاه حتی میتوان از این روش برای القای پیامهایی ازجمله اهانتهای جعلی باراک اوباما علیه دونالد ترامپ یا دستکاری ویدیوی سخنرانی ریچارد نیکسون برای آپولوی ۱۱ استفاده کرد که هرگز گفته نشده است. پژوهشگران...
به گزارش گروه سوادرسانه خبرگزاری فارس، برخی افراد تصور میکنند جلوههای ویژه فقط مختص فیلمهای سینمایی و اکشنهای هالیوودی است اما وقتی شما روی عکسها و فیلمهای گوشی تلفن همراهتان فیلترهای مختلف میگذارید در واقع از نوعی جلوههای ویژه استفاده میکنید. اگر زمانی با ظهور نرمافزارهای ویرایش تصویر مانند فتوشاپ، امکان تولید تصاویر غیرواقعی امکانپذیر شد اما امروز یک گروه مبتدی میتوانند بهسادگی و به کمک هوش مصنوعی با تکنولوژی جعل عمیق، فیلمهای جعلی از افراد مختلف تولید کنند. در حال حاضر هیچ راهی برای تشخیص این نوع فیلمها وجود ندارد مگر هوشمندی و ذکاوت مخاطب و این یعنی نهتنها ممکن است تصاویر جعلی باشند بلکه ممکن است فیلمی که از یک سیاستمدار یا یک فرد مشهور برای شما ارسال...
امروزه اکثر افراد میتوانند با کمک نرم افزارهای ویرایش تصاویر از جلوههای ویژه استفاده و تصاویری جعلی و غیر واقعی تولید کنند. خبرگزاری میزان - مرکز توسعه فرهنگ و هنر در فضای مجازی نوشت: برخی افراد تصور میکنند جلوههای ویژه فقط مختص فیلمهای سینمایی و اکشنهای هالیوودی است، اما وقتی شما روی عکسها و فیلمهای گوشی تلفن همراهتان فیلترهای مختلف میگذارید در واقع از نوعی جلوههای ویژه استفاده میکنید. اگر زمانی با ظهور نرمافزارهای ویرایش تصویر مانند فتوشاپ، امکان تولید تصاویر غیرواقعی امکانپذیر شد، اما امروز یک گروه مبتدی میتوانند بهسادگی و به کمک هوش مصنوعی با تکنولوژی جعل عمیق، فیلمهای جعلی از افراد مختلف تولید کنند. در حال حاضر هیچ راهی برای تشخیص این نوع فیلمها وجود ندارد مگر...
آفتابنیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بیضرر استفاده شود، اما از این فناوری میتوان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار میگیرند در واقع فیلمها یا عکسهای تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که میتواند کاملاً واقعی به نظر برسد. این تصاویر به قدری میتوانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
انتشار ویدئویی جعلی موسوم به «جعل عمیق» (Deep Fake) از تام کروز (بازیگر و تهیهکننده معروف هالیوود) در فضای مجازی باعث شد میلیونها کاربر اینترنت به وحشت بیفتند. به گزارش گروه فرهنگی خبرگزاری دانشجو، انتشار ویدئویی جعلی موسوم به «جعل عمیق» (Deep Fake) از تام کروز (بازیگر و تهیهکننده معروف هالیوود) در فضای مجازی باعث شد میلیونها کاربر اینترنت به وحشت بیفتند. اگرچه تام کروز در ویدئوی مذکور، حرف یا حرکت وحشتناکی انجام نداده و تنها درباره نظافت صنعتی خطاب به کاربران شبکه اجتماعی «تیکتاک» سخن گفته، اما طراحی رفتار و لحن بیان و حرکات بسیار متنوع و سریع او در این ویدئو، شاید هیچکس حتی نزدیکترین افراد به این هنرپیشه معروف را دچار تردید نکند. اگرچه پیش از...
به گزارش همشهری آنلاین، ایسنا به نقل از آیای، همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و میتواند انقلابی در نحوه ترجمه فیلمها به زبانهای دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند. همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و میتواند...
یک هوش مصنوعی جدید میتواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، Hن هم به شکل روان صحبت کنند. به گزارش ایسنا و به نقل از آیای، همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی...
یک فناوری جدید "دیپفیک" یا همان جعل عمیق به افراد مشهور اجازه میدهد صدای خود را مجوز دار کنند. با وجود نگرانیهای فزاینده از این واقعیت که فناوری "دیپفیک"(deepfake) یا "جعل عمیق" میتواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکتها هنوز هم تلاش میکنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکتها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپفیک" که "مارول.ایآی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکتهای...
یک فناوری جدید "دیپفیک" یا همان جعل عمیق به افراد مشهور اجازه میدهد صدای خود را مجوز دار کنند. به گزارش ایسنا و به نقل از آیای، با وجود نگرانیهای فزاینده از این واقعیت که فناوری "دیپفیک"(deepfake) یا "جعل عمیق" میتواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکتها هنوز هم تلاش میکنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکتها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپفیک" که "مارول.ایآی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد...
محققان دانشگاه واشنگتن هشدار دادهاند تهیه تصاویر ماهوارهای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک میتواند امنیت ملی کشورها را به خطر بیندازد. پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانیهای امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهوارهای جعلی کشیده شده است. این پژوهشگران میگویند با استفاده از الگوریتمهای هوش مصنوعی و از طریق تغذیه این الگوریتمها با استفاده از عکسها و نقشههای ماهوارهای مختلف، میتوان تصاویر ماهوارهای جعل عمیق تهیه کرد که حاوی جادهها، ساختمانها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمانها، جادهها و غیره در...
برای کسانی که از آینده میترسند و همواره نگران هستند بخشهای دلهرهآور فیلمهای تخیلی روزی به حقیقت بپیوندد، باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. ناطقان: روزنامه ایران در ترجمه مقالهای از نیویورکتایمز نوشت: «در حالی که میلیونها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکههای اجتماعی مشاهده میکردند، مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.ویدیویی که در تیکتاک، توئیتر و سایر شبکههای اجتماعی بین میلیونها کاربر دست به دست شد توسط یک هنرمند جلوههای تصویری و با شبیهسازی یکی از برنامههای «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفتوگوی تلویزیونی در...
برای کسانی که از آینده میترسند و همواره نگران هستند بخش های دلهرهآور فیلمهای تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. به گزارش روزنامه نیویورک تایمز، در حالی که میلیونها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکههای اجتماعی مشاهده میکردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است. ویدیویی که در تیکتاک، توئیتر و سایر شبکههای اجتماعی بین میلیونها کاربر دست به دست شد توسط یک هنرمند جلوههای تصویری و با شبیهسازی یکی از برنامههای «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفتوگوی تلویزیونی در سال...
دانشمندان با آزمایش پیشرفتهترین آشکارسازهای فناوری "دیپفیک"(deepfake) به معنای "جعل عمیق" ثابت کردند که میتوان آنها را نیز فریب داد. به گزارش ایسنا و به نقل از انگجت، دانشگاهها، سازمانها و غولهای فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند "جعل عمیق" را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند. اکنون گروهی از دانشمندان علوم رایانه از دانشگاه "سن دیگو" هشدار دادهاند که آشکارسازهای "جعل عمیق" هنوز هم با وجود این ابزارها قابل فریب دادن هستند. این تیم در کنفرانس بینش رایانه ای "WACV 2021" که به صورت آنلاین برگزار شد، با درج ورودیهایی در هر فریم ویدیویی نشان داد که چگونه میتوان...
دکتر اسحاقی امروز سه شنبه در گفت وگو با خبرنگار ایرنا تصریح کرد: هم مسئولان و هم رسانه ملی و مطبوعات داخلی باید با اتخاذ رویکردی متفاوت، گفتمان سیاسی تازهای را برای پوشش و روایت رویدادهای انتخاباتی و طرح آن در حوزه عمومی داشته باشند و در عین حال، به شدت مراقب «اخبار جعلی» و «دیپ فیک» (جعل عمیق) باشند. این نویسنده حوزه ارتباطات جمعی با تاکید بر اینکه داغ شدن تنور انتخابات و پیروزی در آن بدون حمایت و همراهی رسانه ها ممکن نیست، ضرورت برنامه ریزی درست در این عرصه را گوشزد کرد و و در همین زمینه به سرنوشت «دونالد ترامپ» اشاره کرد که در انتخابات اخیر امریکا، بیش از پیامد رفتارهایش نظیر خودشیفتگی و یا اقداماتی همچون پیمان شکنی های...
به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، پیام کریسمس ملکه بریتانیا به برخی شایعات درباره سلامت وی دامن زد. تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئو، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال بیان اظهاراتی درباره شاهزاده هری و مگان مارکل، زوج سلطنتی است. جعل عمیق یا دیپ فیک ترکیبی از کلمههای جعلی و یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که ممکن است در آن لحظه و در آن مکان فرد مورد نظر اصلا حضور...
آفتابنیوز : «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در...
«deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت. به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر...
«deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، او...
خبرگزاری فارس ـ گروه رسانه ـ علیرضا سپهوند: «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از...
به گزارش جام جم آنلاین از مهر، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده «هری» و «مگان مارکل» زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل...
به گزارش تابناک به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش...
خبرگزاری مهر: به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل...
تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحثهایی را در رسانههای بریتانیا برانگیخته است. در این ویدئوی پنج دقیقهای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده میشود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای هوش مصنوعی فیلمها به نحوی تغییر داده میشوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای...
کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آنهایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و میخواهند آبروی کسی را ببرند، مدتهاست «فتوشاپ» را کنار گذاشته و سراغ فناوریهای تازه رفتهاند. مجید تربتزاده / کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آنهایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و میخواهند آبروی کسی را ببرند، مدتهاست «فتوشاپ» را کنار گذاشته و سراغ فناوریهای تازه رفتهاند. این ما هستیم که هنوز در شوخیها و تصوراتمان وقتی قرار است از قلابی بودن یک...
به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، دیپ فیک یا جعل عمیق یک تکنیک عجیب برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. این تکنولوژی تصاویر و فیلمهای موجود را بر روی فیلمهای منبع قرار میدهد و فیلم جعلی به دست آمده، ترکیب چند ویدیو با هم است. جعل عمیق فرد یا افرادی را درحال انجام کاری در یک موقعیت نشان میدهد که هرگز آن کار در واقعیت اتفاق نیفتاده است. بیشتر بخوانید تخت گاز چین در تولید انبوه فناوری جدید + فیلم کد ویدیو دانلود فیلم اصلی انتهای پیام/
محققان در کشورهای مختلف تلاش میکنند تا با استفاده از فناوریهای هوشمند ویدئوهای جعلی را شناسایی و آنها را به کاربران معرفی کنند. به گزارش خبرنگار حوزه علم، فناوری و دانشبنيان گروه فناوری خبرگزاری آنا، یکی از تبعات فناوری که هنوز به طور کامل وجه ترسناک خود را نشان نداده است، فناوری جعل عمیق نام دارد. در فناوری جعل عمیق(deep fake) فیلمهایی جعلی از افراد ساخته میشود که امکان سواستفاده را برای تبهکاران به وجود میآورد. بیشتر بخوانید: انحراف علم بهدست سودجویان/ هوش مصنوعی چگونه موجب حملات سایبری میشود؟ به طور قطع نمیتوان جلوی پیشرفت فناوری را گرفت. اما آیا در تماشای یک ویدئوی جعل عمیق(deep fake)، میتوان نسبت به ساختگی بودن محتوای ویدئو آگاه شد؟ همزمان با پیشرفت...
در پی انتشار ویدئویی در فضای مجازی از خواندن ترانه «ایران من» با لبخوانی جمعی از چهرههای مشهور تاریخ معاصر ایران كه با فناوری «جعل عمیق» ساخته شده بود، به ابعاد گوناگون کاربردهای این فناوری میپردازیم. به گزارش گروه رسانههای دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیدهاید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب میكند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا میكند كنترل كاملی روی اطلاعات دزدیده شده میلیونها كاربر دارد؟ یا فیلمی كه شخصیتهای بزرگ و مبارز تاریخ كشورمان از میرزاكوچكخان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان...
به گزارش خبرنگار گروه علم و فناوری ایسکانیوز، یک روزنامه نگار، تحقیقی ویدیویی از افشاگر ناشناسی دریافت می کند که در آن کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ روزنامه نگار فیلم را از طریق ابزاری تخصصی بررسی می کند و در میابد ویدئو آن چیزی نیست که به نظر می رسد. در حقیقت، این جعل عمیق است، ویدیویی که با استفاده از هوش مصنوعی با یادگیری عمیق ساخته شده است. کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپ فیک» را در صحبت های خود مطرح می کنند که در اصل از ترکیب عبارت های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل...
آفتابنیوز : شبکه تلویزیونی "راشا تودی" روز سهشنبه تبلیغی طنزگونه تحت عنوان «ترامپ به اینجا آمده تا "آر تی" (راشا تودی) را دوباره با عظمت کند!» منتشر کرد. این ویدیوی جنجالی، نوامبر ۲۰۲۰ را به تصویر میکشد که ترامپ پس از شکست در انتخابات مقابل جو بایدن پیشنهاد مجریگری میزبان در راشا تودی مسکو را دریافت کرده است. یک بازیگر با مشخصات ظاهری ترامپ در این فیلم دیده میشود که فایلهای صوتی از رئیسجمهوری آمریکا روی صدای آن به گوش میخورد و آنها جملات و عبارات چاپلوسانه و اغراقآمیز درباره ولادیمیر پوتین، رئیسجمهوری روسیه، ستایش کرملین و انتقاد از رسانههای جریان اصلی هستند. ظاهرا هدف این ویدیوی راشا تودی سر کار گذاشتن منتقدانی است که ترامپ را دستآموز پوتین...
با تکنولوژی جعل عمیق آشنا شوید
مایکروسافت برای مقابله با جعل عمیق از دو برنامه مبتنی بر هوش مصنوعی رونمایی کرد. به گزارش خبرنگار حوزه علم، فناوری و دانشبنیان گروه دانشگاه خبرگزاری آنا از تک اورگ، دنیای کنونی با چالشهای مختلفی در رابطه با سوءاستفاده از فناوریهای مدرن دیجیتالی روبرو است. این مسائل غالباً با پردازش و دستکاری تصویر همراه هستند که با استفاده از هوش مصنوعی و الگوریتمهای یادگیری عمیق، محصولی بهنام جعل عمیق یا تصاویر مهندسیشده تولید میشود. درحالت عادی تشخیص این تصاویر از حقیقت دشوار است. تحقیقاتی که اخیراً از استاد دانشگاه پرینستون، یعقوب شاپیرو منتشر شده، نشان میدهد که کمپینهایی که بهدنبال نفوذ در مخاطب هستند، غالباً حقایق قابلتأیید عینی را تحریف میکنند. در این تحقیق خاص، 74درصد از کل کمپینهای...
ایتنا - مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکسها و ویدئوها مورد بررسی و توجه قرار میدهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست. شیوع کرونا و در پیش بودن انتخابات ریاست جمهوری آمریکا نگرانی در مورد انتشار ویدئوهای جعل عمیق را افزایش داده و از همین رو مایکروسافت ابزاری برای شناسایی این ویدئوها عرضه کرده است. به گزارش ایتنا از مهر، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکسهای موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند. در نهایت ابزار مذکور بعد از بررسی عکسها و فیلمهای ارسالی به آنها...
به گزارش خبرگزاری مهر به نقل از انگجت، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکسهای موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند. در نهایت ابزار مذکور بعد از بررسی عکسها و فیلمهای ارسالی به آنها امتیاز اعتماد میدهد یا شانس واقعی بودن آنها را بر مبنای درصد نمایش میدهد. مایکروسافت تحلیل ویدئوها را با استفاده از ابزار خود به صورت فریم به فریم انجام میدهد. مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکسها و ویدئوها مورد بررسی و توجه قرار میدهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست. تولیدکنندگان محتوا و فعالان حوزه...
اپلیکیشن چینی تیک تاک با هدف مقابله با انتشار اخبار و اطلاعات دروغ و جلوگیری از دخالت در انتخابات آمریکا وعده داده که با ویدئوهای جعل عمیق مقابله کند. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از انگجت، تیک تاک که تلاش دارد به هر نحو ممکن امکان فعالیت در آمریکا را برای خود حفظ کند، می گوید این اپلیکیشن با هرگونه تولید و انتشار ویدئوهای دروغین جعل عمیق که در آنها گفتار و کلام دروغین به افراد و چهره های مشهور نسبت داده می شود مقابله می کند. هدف از این کار جلوگیری از خدشه دار شدن واقعیت و آسیب دیدن اشخاص عنوان شده است. ونسا پاپاس از مدیران ارشد تیک تاک در بیانیه...
به گزارش انگجت، بر اساس قوانین جدید توییتر دیگر نمیتوان آن دسته از ویدئوهای مبتنی بر جعل عمیق را که آسیبهای احتمالی به همراه دارند، در پلتفرم این شبکه اجتماعی منتشر کرد. به علاوه این شرکت همچنین با برچسب زدن بر توییتهای حاوی مضامین مبتنی بر این فناوری، به افراد کمک میکند تا محتوای حقیقی را از محتوای دستکاری شده تشخیص دهند. بر این اساس، توییتر از تاریخ ۵ مارس (۱۵ اسفند) بر توییتهای حاوی «محتوای دستکاری شده یا ساختگی» نشان میگذارد، دامنه دیده شدن آنها را محدود میکند و به کاربرانی که قصد لایک یا بازنشر چنین مضامینی را دارند، هشدار میدهد. دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که در تولید یا تغییر محتوای ویدیویی استفاده میشود تا...
ایتنا - شرکت بایت دنس که مالک اپلیکیشن شبکه اجتماعی تیک تاک است، قابلیتی را به طور آزمایشی به این برنامه افزوده که تولید ویدئوهای جعل عمیق را با دریافت یک عکس ممکن میکند. شرکت بایت دنس که مالک اپلیکیشن شبکه اجتماعی تیک تاک است، قابلیتی را به طور آزمایشی به این برنامه افزوده که تولید ویدئوهای جعل عمیق را با دریافت یک عکس ممکن میکند. به گزارش ایتنا از مهر، قابلیت یادشده که Face Swap نام دارد در قالب کدهایی به برنامه تیک تاک و هم به اپلیکیشن چینی دوئین افزوده شده است. با فعال کردن قابلیت مذکور افراد تنها باید چهره خود را اسکن کنند و سپس منتظر تهیه ویدئویی جعلی و قلابی بر مبنای تصویر...
به گزارش خبرگزاری مهر به نقل از انگجت، قابلیت یادشده که Face Swap نام دارد در قالب کدهایی به برنامه تیک تاک و هم به اپلیکیشن چینی دوئین افزوده شده است. با فعال کردن قابلیت مذکور افراد تنها باید چهره خود را اسکن کنند و سپس منتظر تهیه ویدئویی جعلی و قلابی بر مبنای تصویر خود باشند. محققان امنیتی در مورد اضافه شدن چنین قابلیتی به شبکه اجتماعی تیک تاک هشدار داده و میگویند ویدئوهای جعل عمیق برای کلاهبرداری و اقدامات فریبکارانه قابل استفاده هستند و تسهیل تولید ویدئوهای مذکور ایده بدی است. همچنین از طریق قابلیت یادشده میتوان دادههای حساس بیومتریک شخصی افراد را هم سرقت کرد و این مساله هم موجب نگرانی است. هنوز مشخص نیست آیا قابلیت...
خبرگزاری رویترز با همکاری شرکت فیس بوک یک دوره آنلاین برای کمک به روزنامه نگاران به منظور شناسایی تصاویر، اصوات و ویدئوهای جعل عمیق برگزار می کند. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از انگجت، مدت برگزاری این دوره آنلاین ۴۵دقیقه است و به روزنامه نگاران امکان میدهد تا با ابزار لازم به منظور شناسایی محتوای جعل عمیق آشنا شوند. پیشرفت فناوری هوش مصنوعی باعث شده تا برخی افراد کلاهبردار و متخلف به منظور تاثیرگذاری بر افکار عمومی و فریب مردم فایل های ویدئویی،صوتی و تصاویر دروغینی را منتشر کنند. در این تصاویر و فایلها معمولا شخصیتهای سیاسی و اجتماعی مشهور در حال اظهار نظرهایی جنجالی هستند. کارشناسان هشدار میدهند که گسترش...
شرکت امنیتی مک آفی ویدئوهای جعل عمیق را یک تهدید سایبری عمده در سال 2020 دانست و از ضرورت برخورد با آن خبر داد. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از آسین ایج، ویدئوهای جعل عمیق که با استفاده از هوش مصنوعی به تقلید از سخنرانیهای افراد مشهور و سیاستمداران می پردازند، چنان دقیق جعل می شوند که تشخیص قلابی بودن آنها تقریبا غیرممکن است و از همین رو مک آفی این پدیده را یک تهدید امنیتی جدی دانسته است. مک آفی در گزارش امنیتی تازه خود برای سال 2020 تاکید کرده که ماهیت جرائم سایبری در حال تغییر است و باید قوانین جدیدی به منظور مقابله با این شرایط وضع شوند....