Web Analytics Made Easy - Statcounter
2024-04-29@08:39:42 GMT
۲۰۰ نتیجه - (۰.۰۱۴ ثانیه)

جدیدترین‌های «دیپ فیک»:

بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
    احتمالا در سال‌های اخیر همه ما نمونه‌هایی از دیپ‌فیک‌ها را دیده، با آنها مواجه شده یا حداقل اسمشان را شنیده‌ایم.  تصاویر و صداهایی غیر واقعی که به سختی می‌توان آنها را از واقعیت تشخیص داد. به گزارش عصرایران به نقل از ساوت چاینا مورنینگ پست، پیشرفت‌های سریع در هوش مصنوعی منجر به ایجاد و انتشار تصاویر و ویدئوهای دیپ فیک بیشتر در فضای مجازی شده است اما بسیاری نیز از این فناوری در جهت فریب و استفاده غیر اخلاقی، کلاه‌برداری مالی و انتخاباتی بهره برده‌اند. در فوریه سال جاری میلادی چندین نفر از مدیران ارشد مالی یک شرکت چند ملیتی در هنگ کنگ در یک جلسه ویدئویی آنلاین از یکی از کارمندان خود خواستند تا مبلغ زیادی پول را انتقال...
    احتمالا در سال‌های اخیر همه ما نمونه‌هایی از دیپ‌فیک‌ها را دیده، با آنها مواجه شده یا حداقل اسمشان را شنیده‌ایم.  تصاویر و صداهایی غیر واقعی که به سختی می‌توان آنها را از واقعیت تشخیص داد. به گزارش عصرایران به نقل از ساوت چاینا مورنینگ پست، پیشرفت‌های سریع در هوش مصنوعی منجر به ایجاد و انتشار تصاویر و ویدئوهای دیپ فیک بیشتر در فضای مجازی شده است اما بسیاری نیز از این فناوری در جهت فریب و استفاده غیر اخلاقی، کلاه‌برداری مالی و انتخاباتی بهره برده‌اند. در فوریه سال جاری میلادی چندین نفر از مدیران ارشد مالی در یک جلسه ویدئویی آنلاین از یکی از کارمندان خود خواستند تا مبلغ زیادی پول را انتقال دهد. کمی بعد مشخص شد این جلسه...
    به گزارش خبرگزاری علم و فناوری آنا به نقل از سی‌جی‌تی‌ان، جعلی بودن فناوری هوش مصنوعی به سرعت در حال تبدیل به یکی از بزرگ‌ترین مشکلاتی است که ما در فضای آنلاین با آن روبه‌رو هستیم. تصاویر، ویدئو‌ها و صدا‌های فریبنده در نتیجه افزایش و استفاده نادرست از ابزار‌های هوش مصنوعی مولد در حال گسترش هستند. از آنجایی که تقریباً هر روز دیپ‌فیک‌های هوش مصنوعی منتشر می‌شوند و همه افراد از تیلور سویفت گرفته تا دونالد ترامپ را به تصویر می‌کشند، تشخیص اینکه چه چیزی واقعی و چه چیزی واقعی نیست سخت‌تر می‌شود. شرکت‌های تولیدکننده‌ ویدئو و تصویر مانند اپن‌ای‌آی، ساخت دیپ‌فیک را با دسترسی‌هایی که در اختیار می‌گذارند برای افراد بدون نیاز به هیچ‌گونه مهارت فنی خاصی آسان کرده‌اند،...
    ایتنا - دیپ‌فیک‌های هوش مصنوعی اغلب برای ایجاد آسیب استفاده می‌شوند، اما روش‌های موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی می‌کنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانی‌های عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است.  همانقدر که تصاویر دستکاری شده پیچیده‌تر می‌شوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروری‌تر می‌شود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبه‌های مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد.  با کنترل‌های صحیح و هوشیار بودن نسبت به خطرات احتمالی...
    ایتنا - کارشناسان هوش مصنوعی و پیشگامان این حوزه در نامه‌ای سرگشاده با تاکید بر ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری شدند. کارشناسان هوش مصنوعی مدیران اجرایی صنعتی از جمله یوشوا بنجیو به عنوان یکی از پیشگامان این حوزه در نامه سرگشاده ای با توجه به ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری در این باره شدند. در این نامه که توسط اندرو کریچ محقق هوش مصنوعی نوشته شده، آمده است: امروزه دیپ فیک ها شامل تصاویر هرزنگاری، کلاهبرداری یا اخبار جعلی سیاسی هستند. از آنجا که هوش مصنوعی به سرعت در حال پیشرفت است و ساخت دیپ فیک‌ها را ساده‌تر می کند، به اقدامات امنیتی بیشتری نیاز است....
    به گزارش خبرگزاری مهر به نقل از رویترز، کارشناسان هوش مصنوعی مدیران اجرایی صنعتی از جمله یوشوا بنجیو به عنوان یکی از پیشگامان این حوزه در نامه سرگشاده ای با توجه به ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری در این باره شدند. در این نامه که توسط اندرو کریچ محقق هوش مصنوعی نوشته شده، آمده است: امروزه دیپ فیک ها شامل تصاویر هرزنگاری، کلاهبرداری یا اخبار جعلی سیاسی هستند. از آنجا که هوش مصنوعی به سرعت در حال پیشرفت است و ساخت دیپ فیک ها را ساده تر می کند، به اقدامات امنیتی بیشتری نیاز است. دیپ فیک ها تصاویر، اصوات و ویدیوهایی هستند که با الگوریتم های هوش مصنوعی ابداع شده اند و...
    جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئو‌ها و صدا‌های جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است. در محتوا‌های جعل عمیق از الگوریتم‌هایی استفاده می‌شود که با استفاده از تصویر یا صدای افراد نسخه‌ای جعلی می‌سازند و صدایی را تولید می‌کنند که هرگز...
    نشریه پولیتیکو گزارش داد که در بزرگ‌ترین سال انتخاباتی تاریخ، شرکت‌های ادوبی، گوگل، متا، مایکروسافت، اپن آی و تیک تاک در حال آماده کردن پیش نویس یک طرح مشترک هستند که بر اساس آن اقدامات جدی‌تری را برای مبارزه با اخبار جعلی و دیپ فیک  اتخاذ خواهند کرد. این نشریه می‌گوید شرکت‌های فوق احتمالا جزئیات برنامه مشترک خود را در کنفرانس امنیتی مونیخ که روز جمعه برگزار می‌شود، ارائه خواهند کرد.  این برنامه که در آستانه انتخابات گسترده امسال در کشور‌های گوناگون تدوین می‌شود، قرار است ابزار‌های جدیدی ارائه دهد که با انتشار اخبار جعلی توسط هوش مصنوعی مبارزه می‌کند. اضافه کردن واتر مارک (متن یا لوگوی خاصی که روی تصاویر قرار می‌گیرد) یکی از این ابزار‌ها خواهد بود....
    ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است.  در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته می‌شود. ویدیوهای تولید شده با هوش مصنوعی می‌توانند به طور قانع کننده‌ای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار می‌کند که می‌تواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحت‌الشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیک‌های تشخیص دیپ‌فیک را که امروزه در دسترس هستند،...
    به گزارش خبرگزاری مهر به نقل از انگجت، ۲ شرکت در تگزاس به انبوهی از تماس های رباتیک مرتبط شده اند که از هوش مصنوعی برای تقلید صدای جوبایدن رییس جمهور آمریکا استفاده کرده بود. این صوت دیپ فیک از رای دهندگان نیوهمپشایر می خواست در انتخابات مقدماتی ریاست جمهوری این ایالت شرکت نکنند. به گفته جان فورملا دادستان کل ایالت نیوهمپشایر در ژانویه ۲۰۲۴ میلادی حدود ۲۵ هزار تماس رباتیک با ساکنان این ایالت گرفته شده است. فورملا اعلام کرد تحقیقات منبع تماس های رباتیک را به ۲ شرکت تگزاسی به نام های «لایف کورپوریشن» و «لینگوتلکام» مرتبط کرده است. تاکنون هیچ اتهامی علیه شرکت ها یا مالک لایف کورپوریشن ثبت نشده است. تحقیق در این زمینه همچنان...
    در حال حاضر قانون مستقلّی در کشور برای دیپ فیک‌ها و جرایمی که از طریق این فناوری ارتکاب پیدا می‌کند وضع نشده است و به علاوه علی رغم ورود این فناوری به کشور، هنوز ضوابطی توسط مراجع ذی صلاح برای استفاده از این فناوری در کشور به تصویب نرسیده تا حدود استفاده از این فناوری در عرصه‌های مختلف برای کاربران آن تشریح شود. یک وکیل دادگستری گفت: خلاء وجود قوانین خاص در خصوص بزهکاری از طریق فناوری دیپ فیک که بر پایه هوش مصنوعی بنا شده است با وجود قوانین و مقررات دیگری در حوزه جرایم رایانه‌ای و برخی دیگر از قوانین، تا اندازه‌ای قایل جبران است، ولی با توجه به ابعاد گسترده این فناوری و سرعت رشد و توسعه...
    به گزارش «تابناک»، سیدمهدی حجتی در گفت‌وگو با  ایسنا در رابطه با استفاده از دیپ فیک برای اهداف مجرمانه و غیر اخلاقی گفت: فناوری های نوین مانند سایر ابزارهای ساخت دست بشر مانند چاقویی دو لب عمل می کند؛ به نحوی که می توان از آنها برای امور مشروع و تسهیل امور دشوار در زندگی روزمره استفاده کرد و یا از آنها به عنوان یک ابزار برای اهداف و اغراض مجرمانه و نامشروع سود برد. این وکیل دادگستری با بیان این که فناوری دیپ فیک، علاوه بر آنکه فرصتی قابل توجه برای فعالیت های مشروع هنری در حوزه های مختلف صوتی و تصویری ایجاد کرده است، افزود؛ این فناوری در عین حال می تواند تهدیدی جدی برای حریم خصوصی افراد،...
    زی‌سان: درحالی که جهان منتظر پاسخ آمریکا به حمله پهپادی که برج ۲۲ در اردن است، تصویری از جو بایدن با لباس نظامی در پلتفرم «ایکس» به صورت گسترده منتشر شده است. حقیقت این تصویر چیست؟ تصویر منتشر شده جو بایدن رئیس جمهور آمریکا را نشان می‌دهد که لباس نظامی به تن کرده و پشت میز جلسه‌ای که شامل پرسنل نظامی بوده، نشسته است. اما با بررسی این تصویر مشخص شده است که این تصویر با استفاده از فناوری «دیپ فیک - جعل عمیق» تولید شده است. پیشتر نیز تصاویری جنجالی درباره تیلور سوئیفت خواننده مطرح آمریکایی با کمک هوش مصنوعی و دیپ فیک ساخته شده بود. tags # جو بایدن
    ایتنا - بررسی جنجال اخیر تیلور سوئیفت: در مواجهه با تکنولوژی دیپ‌فیک (جعل عمیق) قانون چه کاری از دستش ساخته است؟ آیا تصاویر تام هنکس در حال تبلیغ برنامه دندانپزشکی، پاپ فرانسیس با یک کاپشن جذاب یا سناتور آمریکایی رند پل، روی پله عمارت کنگره با یک حوله حمام قرمز نشسته را دیده‌اید؟ یا مصاحبه‌ای را تماشا کردید که باراک اوباما که اصولاً به مبادی‌آداب بودن شهره بود، دونالد ترامپ را یک احمق خطاب کرده است؟ یا اخیراً تصاویر زننده‌ای از تیلور سوئیفت که به‌طور گسترده در شبکه‌های اجتماعی منتشر شد؟ همه‌ این‌ها «دیپ‌فیک» یا تصاویر جعلی بودند که با واقعیت مو نمی‌زد. هوش مصنوعی نرم‌افزاری را طراحی کرده که کار فتوشاپ‌کارها را ساده کرده و با کمی...
    هوش مصنوعی نرم‌افزاری را طراحی کرده که کار فتوشاپ‌کار‌ها را ساده کرده و با کمی دانش، در عرض چند دقیقه می‌توانید تصاویری را خلق کنید که تشخیص‌اش از تصاویر واقعی بسیار سخت است. همانطور که در مورد تیلور سوئیفت، سنای آمریکا لازم دید که باید به لحاظ حقوقی چنین مواردی را بیشتر موردتوجه قرار دهد، برای همه هم این زنگ خطر به صدا در می‌آید که در این وضعیت، چه باید کرد؟ حقوق چه‌کاری از دستش ساخته است؟ به گزارش هم میهن، در این گزارش به این پرداختیم و در گفتگو با وحید آگاه، استاد دانشگاه علامه طباطبایی از منظر حقوقی این موضوع را مورد نقد و بررسی قرار دادیم که تحت چه قوانینی می‌توان با دیپ‌فیک مقابله کرد و...
    تولید عکس‌های جعلی با استفاده از هوش مصنوعی یکی از جنبه‌های خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. به گزارش خبرآنلاین، پس از اینکه عکس‌های جعلی و مستهجن تیلور سوییفت میلیون‌ها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرم‌انگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکه‌های اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیه‌ای اعلام کرد که این تصاویر را حذف و حساب‌های مرتبط با آن‌ها را محدود کرده است. این در حالی است که بر اساس برخی آما تصاویر جعلی تیلور...
    به گزارش خبرگزاری خبرآنلاین، تولید عکس‌های جعلی با استفاده از هوش مصنوعی یکی از جنبه‌های خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. پس از اینکه عکس‌های جعلی و مستهجن تیلور سوییفت میلیون‌ها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرم‌انگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکه‌های اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیه‌ای اعلام کرد که این تصاویر را حذف و حساب‌های مرتبط با آن‌ها را محدود کرده است. این در حالی است که بر اساس برخی آما تصاویر جعلی...
    به گزارش خبرگزاری خبرآنلاین، تولید عکس‌های جعلی با استفاده از هوش مصنوعی یکی از جنبه‌های خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. پس از اینکه عکس‌های جعلی و مستهجن تیلور سوییفت میلیون‌ها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرم‌انگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکه‌های اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیه‌ای اعلام کرد که این تصاویر را حذف و حساب‌های مرتبط با آن‌ها را محدود کرده است. این در حالی است که بر اساس برخی...
    افزایش انتشار اطلاعات نادرست امروزه چالش‌های پیچیده‌ای ایجاد کرده است. آمار‌ها نشان می‌دهد انتشار محتوای دستکاری‌شده در فضای رسانه‌های سنتی و دیجیتال گسترش یافته است. اطلاعات نادرست، از درمان‌های غلط برای همه‌گیری کرونا گرفته تا اخبار جعلی که ناخواسته توسط شهروندان به اشتراک گذاشته می‌شود، به اکوسیستم اطلاع‌رسانی رسوخ کرده است. افزایش انتشار اطلاعات نادرست به طور عمده ناشی از مقاصد سیاسی، فناوری دیپ‌فیک یا ویدئو‌های ساختگی، تله کلیکی یا بیان محتوا با هدف فریب کاربر و مسائل دیگر است. نتیجه این مساله، کاهش اعتماد عمومی و ایجاد تهدید علیه گفتمان دموکراتیک است. چنین وضعیتی ایجاب می‌کند راه‌حل‌هایی ارائه شود که هم در عین بیان واقعیت، آزادی بیان نیز حفظ شود. هدف از این تحلیل آن است که با...
    آیا ما در عصر جنگ روایتها به سرمی بریم؟ آیا توسعه بیش از پیش هوش مصنوعی بر گسترش این جنگ و شکل، نوع و قالب آن اثر خواهد گذاشت؟ دیپ فیک ها چه نقش و تاثیری در این میان می توانند داشته باشند؟ آیا محتواهای جعلی از تکنیک‌ها و حتی ابزارهای این جنگ یا همان جنگ رسانه ای خواهند بود؟ تولید و نشر محتواهای جعلی چه تبعاتی دارند و نقاط آسیب رسانی آنها بیش از هر چیز کدامند؟ به جز آسیب رسانی آنها به اکوسیستم خبری و اطلاع رسانی چه مشکلاتی را حاصل می کنند؟ چه کسانی در نبردهای رسانه ای و غلبه بخشیدن به روایت مدنظر خود موفق ترند و علل این توفیق (از منظر آنها) چیست؟ تولید...
    دیپ فیک (Deepfake) نوعی هوش مصنوعی است که برای ایجاد صداها، تصاویر و ویدیوهای جعلی استفاده می‌شود. نام دیپ فیک هم فناوری مورد استفاده و هم محتوای جعلی ناشی از آن را به خوبی توصیف می‌کند، چرا که به ساخت محتوای جعلی (Fake) با استفاده از یادگیری عمیق (Deep Learning) اشاره می‌کند. دیپ فیک ها اغلب محتوای موجود را تغییر می‌دهند، جایی که به عنوان مثال چهره یک نفر با دیگری عوض می‌شود. علاوه بر این همچنین محتوای کاملاً منحصر به‌فرد هم ایجاد می‌کنند که در آن شخصی در حال انجام یا گفتن چیزی است که هرگز انجام نداده یا نگفته است. بزرگترین خطری که دیپ فیک ایجاد می‌کند، توانایی آن‌ها در انتشار اطلاعات نادرست است. به عنوان...
    آمریکا قصد دارد، با تدوین برخی سیاست‌ها، استفاده از هوش مصنوعی و سایر رسانه‌ها در راستای فریب مخاطبان را محدود کند. ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاست‌ها، استفاده از هوش مصنوعی و سایر رسانه‌ها در راستای فریب مخاطبان را محدود کند. طبق قانونی که انتظار می‌رود در روز‌های آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپین‌های انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در فرایند تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همچنین استفاده از محتوای دیپ‌فیک بدون نشانه‌گذاری شفاف را تا ۹۰ روز پس از انتخابات نیز ممنوع است.بر اساس قانون میشیگان، هر شخص، کمیته یا نهادی که تبلیغات یک نامزد را بر عهده دارد، باید استفاده خود...
    ایتنا - هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود. آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه‌ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم. به گزارش ایتنا از مهر، دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند. مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام...
    به گزارش خبرگزاری مهر به نقل از رویترز، آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم. دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند. مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام کنند و نسبت به تاثیرات منفی ویدئوهای دیپ فیک بر جامعه ابراز نگرانی کرد. فرایند پیش نویس کردن قوانین همچنین برای فردی که محتوا را آپلود می کند و هم...
    به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، دو منبع آگاه به رویترز گفتند که دولت هند روز جمعه به فیس‌بوک و یوتیوب هشدار داد که مکرراً به کاربران یادآوری کنند که قوانین محلی، آن‌ها را از پست کردن محتوای شامل فحاشی یا اطلاعات نادرست منع می‌کند. این هشدار توسط معاون «راجیو چاندراسخار» وزیر فناوری اطلاعات هند، در جلسه ای غیرعلنی اعلام شد و او گفت که بسیاری از شرکت ها شرایط استفاده خود را با وجود قوانین 2022 به روز نکرده اند. این قوانین محتوای مضر برای کودکان یا جعل هویت شخص دیگری را ممنوع می کند. این در بحبوحه نگرانی‌های فزاینده درباره دیپ‌فیک‌ها رخ می‌دهد و یکی از وزیران ارشد هند گفته که این...
    با توجه به گسترش یافتن استفاده از فناوری‌های مولد مبتنی بر هوش مصنوعی مانند «دیپ‌فیک»، شرکت‌های بزرگ فناوری سعی دارند از تاثیر احتمالی آنها بر انتخابات ۲۰۲۴ آمریکا جلوگیری کنند. به گزارش ایسنا و به نقل از فست کمپانی، با وجود فناوری‌های مولد هوش مصنوعی که اکنون تقریبا برای همه در دسترس هستند، شاید فصل انتخابات سال آینده آمریکا فضای اطلاعاتی را به سالنی از آینه تبدیل کند که در آن هیچ کس مطمئن نباشد که چه محتوایی واقعی است و چه چیزی توسط هوش مصنوعی تولید شده است. اگر افراد سیاسی در سال‌های ۲۰۱۶ و ۲۰۲۰ رسانه‌های اجتماعی را به سلاح تبدیل کردند، در سال ۲۰۲۳ ممکن است با دیپ‌فیک‌ها به این عرصه وارد شوند. آمریکایی‌ها اکنون از...
    ایتنا - ویدیو‌های جعلی پدیده جدیدی نیستند، اما پیشرفت تکنولوژی آن‌ها را کاملاً پیشرفته کرده است. این روز‌ها و با توجه به پیشرفت فنون تصویربرداری و تصویر سازی، تولید ویدئو کلیپ‌های جعلی نیز افزایش یافته است. در این گزارش مجموعه نکاتی که باید در مورد ویدیو‌های جعلی بدانید، معرفی شده است: ویدیو‌های جعلی چیست؟ ویدیو‌های جعلی ویدئو‌هایی هستند که با استفاده از تکنیک‌های هوش مصنوعی (AI) برای تبدیل تصویر یا صدای یک فرد به تصویر یا صدای شخص دیگری ایجاد می‌شوند و به نظر می‌رسد که او چیز‌هایی را گفته یا انجام داده است که هرگز نگفته یا انجام نداده است. ویدئو‌های جعلی چگونه ساخته می‌شوند؟ ویدیو‌های جعلی با استفاده از ترکیبی از شبکه‌های رمزگذاری و رمزگشایی...
    به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، این چالش در آمادگی های مربوط به کمپین های پیش از انتخابات ریاست جمهوری ۲۰۲۴ میلادی آمریکا اهمیت زیادی یافته است. این درحالی است که شکوفایی هوش مصنوعی مولد در سال گذشته به افزایش تولید تصاویر جعلی منجر شد که تا حد زیادی واقعی به نظر می رسیدند. در پی این روند تصاویر دیپ فیک یا محتوای دستکاری شده که شباهت زیادی به یک شخصیت واقعی دارند نیز گسترده تر شدند. چنین رویدادی ممکن است در بستر سیاسی برای متهم کردن رقبا به ارائه اظهار نظر یا انجام کاری استفاده شود که رای دهندگان را گمراه می کند. هفته گذشته گروه «پابلیک سیتیزن» از FEC پرسیده آیا می تواند قانونی در...
    مطالعه ای تازه نشان داده است فناوری هوش مصنوعی Deepfake بعید است بتواند واقعیت را به طور کامل تشخیص دهد. محققان هشدار دادند از آن جایی که انسان‌ها قادر به تشخیص بیش از یک چهارم نمونه‌های گفتاری تولید شده توسط هوش مصنوعی نیستند، به سختی می‌توانند تشخیص دهند که دیپ‌فیک‌ها، ویدیو‌ها یا کلیپ‌های صوتی جعلی هستند که شبیه صدا یا ظاهر یک شخص واقعی هستند.نگرانی‌ها در مورد استفاده مجرمان و کلاهبرداران از فناوری هوش مصنوعی برای فریب مردم به منظور به دست آوردن پول افزایش یافته است.دانشمندان کشف کرده اند که مردم تنها در ۷۳ درصد مواقع می‌توانند تفاوت بین گفتار واقعی و دیپ فیک را تشخیص دهند؛ در حالی که گفتار دیپ فیک اولیه ممکن است به هزاران...
    به گزارش خبرنگار خبرگزاری علم و فناوری آنا،‌ آیا می‌توانید تشخیص دهید صدایی که هم‌اکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد می‌دانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابل‌اعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است. این بدان معناست که میلیارد‌ها نفر از افرادی که زبان‌های رایج دنیا را درک می‌کنند، به‌طور بالقوه در معرض خطر کلاهبرداری یا اطلاعات نادرست قرار دارند. کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیک‌های گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپ‌ها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی...
    به گزارش خبرنگار خبرگزاری علم و فناوری آنا،‌ آیا می‌توانید تشخیص دهید صدایی که هم‌اکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد می‌دانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابل‌اعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است. این بدان معناست که میلیارد‌ها نفر از افرادی که زبان‌های رایج دنیا را درک می‌کنند، به‌طور بالقوه در معرض خطر کلاهبرداری یا اطلاعات نادرست قرار دارند. کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیک‌های گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپ‌ها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی...
    جهان شاهد نوآوری‌های سریعی در فناوری هوش مصنوعی بوده و همین موضوع باعث ایجاد نگرانی‌هایی شده است.  استفاده بدخواهانه و مخرب از سیستم‌های هوش مصنوعی می‌تواند باعث مرگ و ویرانی «وحشتناک» شود. آنتونیو گوترش خواستار تشکیل یک نهاد جدید سازمان ملل برای مقابله با تهدیدات ناشی از این فناوری شد.  گوترش گفت که استفاده مضر از هوش مصنوعی برای اهداف تروریستی، جنایی یا دولتی همچنین می‌تواند باعث «آسیب روانی عمیق» شود. وی می‌گوید که حملات سایبری مبتنی بر هوش مصنوعی عملیات‌های حافظ صلح سازمان ملل و عملیات بشردوستانه را هدف قرار می‌دهند. به گفته وی، استفاده بدخواهانه از سیستم‌های هوش مصنوعی برای اهداف تروریستی، جنایی یا دولتی می‌تواند به سطوح وحشتناک مرگ و ویرانی، آسیب‌های روانی گسترده و آسیب‌های روانی...
    به گزارش خبرنگار مهر، تولید دیپ فیک (deep fake) یکی از توانمندی‌های هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده می‌شود. این اصطلاح هم فناوری و هم محتوای گمراه‌کننده‌ای که تولید می‌کند را در بر می‌گیرد. دیپ‌فیک‌ها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض می‌شود، محتوای منبع موجود را تغییر می‌دهند. آن‌ها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد. بزرگ‌ترین خطری که دیپ‌فیک ایجاد می‌کند، توانایی‌اش در انتشار اطلاعات نادرستی است که به نظر قابل‌اعتماد می‌آید. مورد دیگر نگرانی‌هایی است که در مورد احتمال دخالت دیپ‌فیک در انتخابات و تبلیغات انتخاباتی مطرح...
    خبرگزاری آریا- گیتس می‌گوید هوش مصنوعی می‌تواند منجر به مشکلاتی مانند رواج دیپ‌فیک، الگوریتم‌های غیرمنصفانه و تقلب در مدارس شود، اما این مشکلات قابل حل هستند.به گزارش خبرگزاری آریا،بیل گیتس، یکی از بنیان‌گذاران مایکروسافت به پتانسیل هوش مصنوعی معتقد است و اغلب روی این موضوع تأکید می‌کند که مدل‌هایی مانند ChatGPT مهم‌ترین پیشرفت فناوری از زمان ظهور رایانه‌های شخصی هستند. بیل گیتس اشاره می‌کند که هرچند ظهور هوش مصنوعی می‌تواند منجر به مشکلاتی مانند رواج دیپ‌فیک، الگوریتم‌های غیرمنصفانه و تقلب در مدارس شود، اما مشکلات ناشی از این فناوری قابل حل هستند.گیتس در پست جدید وبلاگ خود با عنوان «خطرات هوش مصنوعی واقعی اما قابل کنترل هستند» نوشت: «در میان تمام چیزهایی که درباره هوش مصنوعی نوشته شده است...
    دیجیاتو نوشت: گیتس می‌گوید هوش مصنوعی می‌تواند منجر به مشکلاتی مانند رواج دیپ‌فیک، الگوریتم‌های غیرمنصفانه و تقلب در مدارس شود، اما این مشکلات قابل حل هستند. «بیل گیتس»، یکی از بنیان‌گذاران مایکروسافت به پتانسیل هوش مصنوعی معتقد است و اغلب روی این موضوع تأکید می‌کند که مدل‌هایی مانند ChatGPT مهم‌ترین پیشرفت فناوری از زمان ظهور رایانه‌های شخصی هستند. بیل گیتس اشاره می‌کند که هرچند ظهور هوش مصنوعی می‌تواند منجر به مشکلاتی مانند رواج دیپ‌فیک، الگوریتم‌های غیرمنصفانه و تقلب در مدارس شود، اما مشکلات ناشی از این فناوری قابل حل هستند. گیتس در پست جدید وبلاگ خود با عنوان «خطرات هوش مصنوعی واقعی اما قابل کنترل هستند» نوشت: «در میان تمام چیزهایی که درباره هوش مصنوعی نوشته شده است و این نوع نوشته‌ها کم هم...
    به گزارش خبرگزاری صدا وسیما،  رگولاتور( تنظیم کننده)  اینترنت چین اولین لیست خود را از تامین کنندگان تایید شده فناوری "دیپ‌فیک" منتشر کرده است، زیرا مقامات چینی به دنبال این هستند که این فناوری به سرعت در حال تکامل را زیر چتر امنیت ملی قرار دهند. فهرست سفید که توسط اداره سایبری چین (CAC) منتشر شد، صاحبان ۴۱ الگوریتم( تنظیم کننده)   از جمله غول‌های فناوری تنست، بیدو و علی‌بابا را معرفی می‌کند. این الگوریتم‌ها مطابق با مقررات اداری در مورد این فناوری برای سرویس اطلاعات اینترنتی که از ۱۰ ژانویه اجرایی و ثبت شدند. این مقررات ارائه دهندگان خدمات دیپ فیک را که می‌توانند بر افکار عمومی یا جامعه تأثیر بگذارند را پوشش می‌دهد. دیپ فیک (جعل عمیق)، یک روش برای...
    ایتنا - به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوری‌خواهان، سخنرانی می‌کند و می‌گوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوق‌العاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاست‌جمهوری ایالات متحده به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
    به گزاش خبرگزاری صداوسیما به نقل از رویترز، هیلاری کلینتون در ویدئویی که در شبکه‌های اجتماعی منتشر شده، می‌گوید­: من ران دیسانتیس را بسیار دوست دارم. او همان مردی است که این کشور به آن نیاز دارد. به رقابت‌های ریاست‌جمهوری آمریکا در سال ۲۰۲۴ خوش آمدید، جایی که واقعیت قابل درک است. ویدئو‌های دیپ‌فیک از کلینتون و بایدن، (ویدئو‌های واقع گرایانه و در عین حال ساختگی ایجاد شده توسط الگوریتم‌های هوش مصنوعی) ­از جمله هزاران ویدئویی هستند که در شبکه‌های اجتماعی منتشر می‌شوند و واقعیت و داستان را در دنیای دو قطبی شده سیاست آمریکا ادغام می‌کنند. براساس مصاحبه‌های رویترز با دو نفر، در حالی که چنین ویدئو‌هایی چندین سال است که وجود دارد، در سال گذشته توسط تعدادی ابزار...
    خبرگزاری آریا-رئیس مایکروسافت بزرگترین نگرانی در مورد هوش مصنوعی را دیپ فیک و محتوای نادرست که واقعی به نظر می‌رسد، عنوان کرد.به گزارش سرویس علمی آریا،رئیس مایکروسافت می‌گوید تقلب‌های عمیق بزرگ‌ترین نگرانی هوش مصنوعی هستندبه گزارش خبرگزاری صداوسیما به نقل از رویترز، برد اسمیت، رئیس مایکروسافت گفت: بزرگترین نگرانی من در مورد هوش مصنوعی، دیپ فیک و محتوای نادرست که واقعی به نظر می‌رسد، است.اسمیت در سخنرانی در واشنگتن با هدف پرداختن به این موضوع که چگونه می‌توان هوش مصنوعی را به بهترین شکل ممکن تنظیم کرد، خواستار اقداماتی که باعث می‌شود مردم بدانند چه زمانی یک عکس یا ویدئو واقعی است و چه زمانی برای افداف خطرناک، از طریق هوش مصنوعی شده، شد.او گفت: ما به طور جدی...
    پلیس چین فردی را به جرم تولید محتوای دیپ فیک با استفاده از چت GPT دستگیر و براساس تصمیم مقامات قضایی این کشور روانه زندان کرد. گروه علمی و فناوری خبرگزاری برنا؛ مردی که خبری جعلی درباره تصادف یک قطار در چین و کشته شدن ۹ نفر منتشر کرده بود، توسط پلیس چین دستگیر شد. این دستگیری نخستین تلاش دولت چین برای اجرای قانون، تنظیم و کنترل استفاده از هوش مصنوعی محسوب می‌شود. این خبر جعلی از سوی بیش از ۲۰ حساب در یک سکوی وبلاگ‌نویسی متعلق به شرکت بایدو منتشر شده است و بیش از ۱۵ هزار نفر آن را دیده‌اند. این مجرم به اتهام تولید محتوای جعلی به وسیله فناوری جعل عمیق یا دیپ فیک بازداشت شده است....
    فناوری دیپ‌فیک و تولید تصاویر جعلی توسط هوش مصنوعی تشخیص حقیقت و دروغ را هر روز دشوارتر از دیروز می‌کند. به تازگی فیلمی جعلی با تصاویر تولید شده توسط هوش مصنوعی منتشر شده که نشان می‌دهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد. به گزارش خبرآنلاین به نقل از فوربس، دیپ‌فیک (Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیو‌های دروغ، اما واقع گرایانه ساخته می‌شوند. امروزه ویدیو‌های دیپ‌فیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر می‌شوند. با پیشروی بدون محدودیت این فناوری و عدم تشخیص آن‌ها از ویدئو‌های واقعی توسط کاربران، به زودی تشخیص مرز بین حقیقت و دروغ عملا غیرممکن خواهد شد. دیپ‌فیک‌ها با فریب دادن مردم در مورد افراد...
    «دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی می‌شود، فایل‌هایی که سبب می‌شود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد. گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوری‌های مرتبط با هوش مصنوعی بعد از معرفی چت‌بات‌ها توسط مایکروسافت بار دیگر بر سر زبان‌ها افتادند، کاربران مختلف هیجان‌زده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند. چت‌بات‌ها البته برای همۀ جهان خوشایند نبوده‌اند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیش‌بینی می‌کند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای...
    ایتنا - سایتی که به طور مجازی عکس‌ زنان را برهنه می‌کند، در هشت ماه نخست سال ۲۰۲۱، سی‌وهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر می‌کند. سرش را دودستی می‌گیرد. می‌گوید: «واقعا شرم‌آور است. زشت است، من شرمنده‌ام.» همسرش پشت سر او اشک‌هایش را با دستمالی مچاله پاک می‌کند. به گزارش ایتنا و به نقل از ایندیپندنت، چند روز قبل، برندون ایوینگ‌ـ‌‌ـ که دنبال‌کننده‌هایش در پلتفرم پخش آنلاین توییچ (Twitch) او را به نام اتریوک (Atrioc) می‌شناسندــ در جریان یک پخش زنده، صفحه‌ مانتیورش را به اشتراک گذاشت. یکی از تب‌های باز قابل‌مشاهده یک سایت پورنو پولی را نشان می‌داد که کارش تولید تصاویر جنسی با هوش مصنوعی یا «جعل‌...
      به گزارش سرویس بین الملل خبرگزاری صداوسیما، پایگاه اینترنتی آنالیتیک اینسایت با اشاره به خطرات فناوری نسبتاً جدید دیپ فیک راه‌هایی برای جلوگیری از آثار منفی آن بر افراد و جوامع پیشنهاد کرد. حال که استفاده از فناوری دیپ فیک (جعل عمیق) گسترده‌تر شده است، مقابله با سوءاستفاده احتمالی از این ابزار قدرتمند حیاتی است. از فیلم‌ها و عکس‌هایی که با استفاده از فناوری دیپ فیک ایجاد می‌شود می‌توان برای اهداف مختلف، از جمله سرگرمی و آموزش استفاده کرد. با این حال، این فیلم‌ها و تصاویر را می‌توان برای انتشار اطلاعات جعلی و گمراه کننده، انتشار فیلم‌ها و عکس‌های جعلی از افراد و دیگر اشکال سوءاستفاده به کار برد. برای مقابله با سوءاستفاده از این فناری می‌توان تدابیری اتخاد...
    چین قصد دارد تا نخستین بسته از مقررات سختگیرانه خود درباره تولید و انتشار ویدیوهای جعلی (دیپ فیک) را اجرا کند خبرگزاری برنا- گروه علمی و فناوری؛ نخستین بسته از مقررات چین برای مقابله با ویدیوهای جعلی یا دیپ فیک قرار است که طی ماه ژانویه منتشر شود، اقدامی که باید آن را تلاشی از سوی دولت این کشور برای افزایش نظارت بر انتشار محتوا در فضای مجازی قلمداد کرد. رسانه سی‌ان‌بی‌سی آمریکا در ادامه گزارش خود می‌آورد؛ دیپ فیک‌ها نوعی از فایل‌های تصویری هستند که برای ساخت یا تغییر آن‌ها از هوش مصنوعی استفاده شده است. به گزارش برنا این ویدیوها کاربردهای مختلفی به خصوص در عرصه عملیات روانی دارند، برای مثال تصور کنید که انتشار یک ویدیو جعلی...
    چین قصد دارد قوانین سختگیرانه‌تری برای فناوری دیپ فیک اجرا کند. رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که داده‌های مربوط به صورت و صدا را تغییر می‌دهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا می‌شود. به نظر می‌رسد این کشور سعی دارد سختگیری‌های بیشتری برای فناوری «دیپ فیک» و سرویس‌های آن اعمال کند.اداره فضای سایبری چین (CAC) این قوانین در اواخر دیروز صادر کرد که در مقابل جعل هویت افراد با دیپ فیک بدون رضایت آن‌ها محافظت می‌کند. دیپ فیک در حقیقت فناوری است که عکس‌ها را طوری دستکاری می‌کند که به طور مجازی با نمونه اصلی غیر قابل تمایز هستند و می‌توان به آسانی از آن‌ها برای دستکاری واقعیت یا اخبار جعلی استفاده...
    اگر موفق به رصد اخبار سرویس علمی و فناوری نشده‌اید، در ادامه لینک خبر‌های پربازدید از نگاه کاربران را برای شما به نمایش گذاشته‌ایم. تاثیرات باکتری روده بر اختلالات روانی طبق تحقیقات دانشمندان، برخی از باکتری‌ها ممکن است علائم افسردگی را تشدید کنند. شاخص کیفیت هوا در تهران ناسالم برای تمام گروه‌های سنی رئیس گروه سلامت هوا و تغییر اقلیم وزارت بهداشت گفت: بیماران قلبی، تنفسی، مادران باردار، سالمندان و بیماران دیابتی در سطح شهر تردد نداشته باشند. افزایش قیمت برخی از دارو‌ها با موافقت سازمان غذا و دارو + اسامی دارو‌ها افزایش قیمت برخی از اقلام دارویی، با پیشنهاد شرکت‌های تولیدی و موافقت سازمان غذا و دارو همراه شده است. اجتناب از درمان‌های خانگی برای خشکی پوست عضو...
    روزانه در سایت «نبض فناوری» گزید‌ه‌ای از آخرین اخبار و مطالب جذاب پیرامون اخبار فناوری، استارتاپ‌ها و رویدادهای حوزه تکنولوژی تهیه و منتشر می‌گردد. گزارش کامل از گزیده‌ خبرهای امروز «نبض فناوری» ( https://nabzefanavari.ir ) را با کلیک بر تیتر آن بخوانید.   چین قوانین دیپ فیک را اجرایی می کند   آخرین وضعیت بازار رمزارزها در جهان ( 21 آذر 1401 )   آپدیت اندروید 13 برای سامسونگ گلکسی M13 5G منتشر شد   معرفی تغییرات در سرچ گوگل  
    ایتنا - ​​​​​​​رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که داده های مربوط به صورت و صدا را تغییر می دهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا می شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری برای فناوری «دیپ فیک » و سرویس های آن اعمال کند. به گزارش ایتنا از مهر، اداره فضای سایبری چین (CAC) این قوانین در اواخر دیروز صادر کرد که در مقابل جعل هویت افراد با دیپ فیک بدون رضایت آنها محافظت می کند. دیپ فیک در حقیقت فناوری است که عکس ها را طوری دستکاری می کند که به طور مجازی با نمونه اصلی غیر قابل تمایز هستند و می توان به آسانی...
    دریافت 923 KB ویدیویی در اینترنت به اشتراک گذاشته شده است که تصویر یک زن بازیگر واقعی و یک دیپ‌فِیک (جعل عمیق) تولیدشده توسط هوش مصنوعی را به نمایش می‌گذارد و کاربران باید تشخیص دهند کدامیک واقعی است. کاربران به این نتیجه رسیدند که تصویر جعلی بسیار قانع‌کننده به‌نظر می‌رسد. در این کلیپ کوتاه که در توییتر به اشتراک گذاشته شده است، الیزابت اولسن (Elizabeth Olsen)، که تصویرش با هوش مصنوعی تولید شده است، در یک طرف و اسکارلت جوهانسون (Scarlett Johansson) در طرف دیگر حضور دارد. هر دوی آن‌ها در حال صحبت‌کردن هستند و حرکات و مدل موی آن‌ها به هم شباهت دارد. بسیاری از کاربران توییتر از اینکه هر دوی آن‌ها کاملاً واقعی به نظر می‌رسند، شگفت‌زده شده‌اند؛...
    کلیپی در شبکه‌های مجازی منتشر شده است که تصویر یک بازیگر زن و یک دیپ‌فِیک (تصویر تولیدشده با هوش مصنوعی) را در کنار هم به نمایش می‌گذارد. شباهت این دو به یکدیگر، باعث شگفتی و در عین حال ترس کاربران از آینده شده است. به گزارش گروه علم و آموزش ایران اکونومیست از وبگاه دِیلی مِیل (Daily Mail)، ویدیویی در اینترنت به اشتراک گذاشته شده است که تصویر یک زن بازیگر واقعی و  یک دیپ‌فِیک (جعل عمیق) تولیدشده توسط هوش مصنوعی را به نمایش می‌گذارد و کاربران باید تشخیص دهند کدامیک واقعی است. کاربران به این نتیجه رسیدند که تصویر جعلی بسیار قانع‌کننده به‌نظر می‌رسد. در این کلیپ کوتاه که در توییتر به اشتراک گذاشته شده است، الیزابت اولسن (Elizabeth...
    در سال ۱۹۱۷، کمی پس از اختراع دوربین‌های شخصی، تصاویری تکان‌دهنده از کودکانی که در کنار ارواح یا موجودات اساطیری قرار داشتند، در سرتاسر دنیا منتشر شدند! صحت این تصاویر توسط تعدادی از متخصصین آن زمان تایید شدند و آرتور کونان دویل، نویسنده سرشناس رمان‌های علمی تخیلی و معمایی هم به گسترش مفاهیم برگرفته از این تصاویر کمک کرد. چندین دهه بعد، کودکان حاضر در این تصاویر که به افرادی میان‌سال تبدیل شده بودند تایید کردند که این تصاویر تماما ساختگی بوده و با سرهم کردن قطعات مختلف کاغذ ساخته شده بودند. بنابراین تاریخچه انتشار تصاویر تقلبی با هدف سرگرمی، کلاهبرداری یا ترساندن افراد، قدمتی به اندازه دوربین‌های همراه دارد! در تمام این سال‌ها میل انسان به ساخت تصاویر مختلف...
    آفتاب‌‌نیوز : هفته گذشته گزارش شد که ویلیس امتیاز بازآفرینی دیجیتال چهره‌اش را به یک کمپانی دیپ‌فیک روسی موسوم به دیپ‌فیک فروخته است. ویلیس در ماه مارس گذشته در پی ابتلا به آفازی از بازیگری بازنشسته شد. با این حال نمایندگان ویلیس به «بی‌بی‌سی» می‌گویند: «شایعه فروش امتیاز نادرست است... بروس نمی‌تواند هیچ امتیازی را به هیچ‌کس بفروشد، این امتیاز به صورت پیش‌فرض به خودش تعلق دارد.» «کلایدر» ادعا کرده بود که ویلیس پس از آزمایش این تکنولوژی برای یک تیزر تلویزیونی روسی با این قرارداد موافقت کرده است: «از دقتی که شخصیتم پیدا کرده بود راضی بودم. یک مینی-فیلم در ژانر اکشن-کمدی معمول من است. به نظر من، فرصتی عالی است برای بازگشت به گذشته. با ظهور این تکنولوژی...
    به گزارش خبرگزاری خبرآنلاین،‌ چندی پیش خبری به صورت گسترده در رسانه منتشر شد که بر اساس آن بروس ویلیس حق استفاده از چهره‌اش را به یک کمپانی دیپ‌فیک فروخته است. در پی جنجال‌هایی که با انتشار این خبر به پا شد، سخنگوی بروس ویلیس دست به کار شد و اعلام کرد که این بازیگر هیچ قراردادی با این کمپانی نبسته است. بیشتر بخوانید: فیلم | بروس ویلیس بازیگر فیلم‌های جان سخت «چهره‌اش را فروخت» کمپانی دیپ‌فیک هم اعلام کرد که بروس ویلیس مالک تمام حقوق چهره‌ خود است. ویلیس چند ماه پیش پس از ابتلا به بیماری زبان‌پریشی از دنیای بازیگر خداحافظی کرد. فناوری دیپ‌فیک با استفاده از هوش مصنوعی و یادگیری ماشین‌ ویدئوهای...
    به گزارش همشهری آنلاین، هفته گذشته گزارش شد که ویلیس امتیاز بازآفرینی دیجیتال چهره‌اش را به یک کمپانی دیپ‌فیک روسی موسوم به دیپ‌فیک فروخته است. ویلیس در ماه مارس گذشته در پی ابتلا به آفازی از بازیگری بازنشسته شد. با این حال نمایندگان ویلیس به «بی‌بی‌سی» می‌گویند: «شایعه فروش امتیاز نادرست است... بروس نمی‌تواند هیچ امتیازی را به هیچ‌کس بفروشد، این امتیاز به صورت پیش‌فرض به خودش تعلق دارد.» بوریس ویلیس دوباره به جان سخت باز می‌گردد؟  برد پیت بهترین نقش هایش را در این فیلم ها بازی کرده است | بازیگری که از عهده نقش‌های متفاوت به خوبی بر می‌آید  "دیپ فیک" کاری می‌کند که بازیگر مورد علاقه‌تان به زبان شما صحبت کند! «کلایدر» ادعا کرده بود که ویلیس پس...
    به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مک‌کلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت می‌تواند نسخه‌های...
    سرویس جدید مجهز به هوش مصنوعی که می تواند پرتره ها را به سر سخنگو تبدیل کند، روز دوشنبه توسط D-ID معرفی شد. به گزارش خبرنگار گروه علمی و فناوری خبرگزاری برنا؛ سرویس جدید مجهز به هوش مصنوعی که می تواند پرتره ها را به سر سخنگو تبدیل کند، روز دوشنبه توسط D-ID معرفی شد. این اپلیکیشن‌های سلف‌سرویس که Creative Reality Studio نامیده می‌شوند، می‌توانند تصویر یک چهره را با گفتار به ویدیو تبدیل کنند. هدف این سرویس سازندگان محتوای تجاری ، واحدهای یادگیری و توسعه، بخش‌های منابع انسانی، بازاریابان، تبلیغ‌کنندگان و تیم‌های فروش است، اما هر کسی می‌تواند این فناوری را در وب‌سایت D-ID امتحان کند. این نرم افزار به عنوان راهی برای متحرک سازی پرتره های قدیمی ارائه شد....
    به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد. سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها...
    به گزارش اقتصادآنلاین به نقل از باشگاه خبرنگاران، در حالی که افراد در حالت هوشیاری نمی‌توانند تفاوت بین صورت‌های واقعی و جعلی را تشخیص دهند، اما یافته‌های دانشگاه سیدنی نشان می‌دهد مغز افراد دارای چنین توانایی هست. زمانی که صحبت از دیپ فیک‌ها می‌شود، این مسأله به میان می‌آید که چطور می‌توان واقعیت را از تقلب تشخیص داد؟ اما حال دانشمندان علوم اعصاب دانشگاه سیدنی راه جدیدی را برای این مسأله کشف کردند. آن‌ها دریافتند ذهن افراد می‌تواند صورت‌های جعلی ساخته شده بوسیله هوش مصنوعی را تشخیص دهد؛ حتی صورت‌هایی را که افراد نمی‌توانند گزارش دهند کدام چهره واقعی و کدام جعلی است. تصاویر و ویدئو، صدا‌ها و متن‌های دیپ فیک، به وسیله رایانه و برای گمراه ساختن شما و...
    در حالی که افراد در حالت هوشیاری نمی‌توانند تفاوت بین صورت‌های واقعی و جعلی را تشخیص دهند، اما یافته‌های دانشگاه سیدنی نشان می‌دهد مغز افراد دارای چنین توانایی هست. زمانی که صحبت از دیپ فیک‌ها می‌شود، این مسأله به میان می‌آید که چطور می‌توان واقعیت را از تقلب تشخیص داد؟ اما حال دانشمندان علوم اعصاب دانشگاه سیدنی راه جدیدی را برای این مسأله کشف کردند. آن‌ها دریافتند ذهن افراد می‌تواند صورت‌های جعلی ساخته شده بوسیله هوش مصنوعی را تشخیص دهد؛ حتی صورت‌هایی را که افراد نمی‌توانند گزارش دهند کدام چهره واقعی و کدام جعلی است. تصاویر و ویدئو، صدا‌ها و متن‌های دیپ فیک، به وسیله رایانه و برای گمراه ساختن شما و تحت تأثیر قرار دادن افکار عمومی طراحی...
    اخیرا اطلاعیه‌ای از سوی پلیس امنیت داخلی آمریکا FBI صادر شده است که می‌تواند هشداری جدی برای همۀ سلبریتی‌های هنری و سیاسی جهان باشد به گزارش خبرنگار خبرگزاری برنا، بر اساس آخرین اطلاعیه‌های مرکز بررسی شکایات جرائم اینترنتی FBI، طی روزها و ماه‌های گذشته شکایت‌های زیادی دربارۀ تلاش افراد برای جعل و استفاده از تصاویر، ویدیوها و ... جهت دستیابی به موقعیت‌های شغلی به این مرکز می‌رسد.جعلی عمیق چیست؟Deepfakes یا جعل عمیق توسط مایکروسافت اینطور تعریف می‌شود؛ "عکس‌ها، فیلم‌ها یا فایل‌های صوتی دستکاری شده توسط هوش مصنوعی (AI) با استفاده از روش‌هایی پیچیده که تمایز آن‌ها نسبت به نمونۀ اصلی را دشوار می‌کند.رایج ترین دیپ فیک‌ که این روزهای جهان، ساخت ویدیو با استفاده از جایگزینی تصاویر فردی مشهور با شخصی عادی...
    ایتنا - ​​​​​​​دیپ فیک‌ و اطلاعات شخصی سرقتی برای مقاصد بی‌شمار فریبنده از جمله فیشینگ و سرقت هویت، به کمک کلاهبرداران اینترنتی می‌آیند. مرکز شکایات جرایم اینترنتی در اف‌بی‌آی در مورد مجرمان سایبری که برای درخواست موقعیت‌های کاری از راه دور از دیپ‌فیک و اطلاعات شخصی استفاده می‌کنند، هشدار داد. نقش‌های مورد بررسی شامل فناوری اطلاعات و برنامه‌نویسی رایانه، پایگاه داده و عملکردهای شغلی مرتبط با نرم‌افزار است، دسترسی به اطلاعات حساس شرکت، مانند اطلاعات شخصی مشتری، داده‌های مالی، پایگاه‌های اطلاعاتی شرکت یا اطلاعات اختصاصی هم از موارد نقض‌شده بود. به گزارش ایتنا از ایسنا، دیپ‌فیک گزینه ترجیحی عوامل تهدید برای رسیدن به شغل دلخواه است. دیپ‌فیک، ویدئوها، صداها یا تصاویری هستند که توسط هوش مصنوعی تقلید می‌شوند...
    دیپ فیک‌ و اطلاعات شخصی سرقتی برای مقاصد بی‌شمار فریبنده از جمله فیشینگ و سرقت هویت، به کمک کلاهبرداران اینترنتی می‌آیند. به گزارش ایران اکونومیست، مرکز شکایات جرایم اینترنتی در اف‌بی‌آی در مورد مجرمان سایبری که برای درخواست موقعیت‌های کاری از راه دور از دیپ‌فیک و اطلاعات شخصی استفاده می‌کنند، هشدار داد. نقش‌های مورد بررسی شامل فناوری اطلاعات و برنامه‌نویسی رایانه، پایگاه داده و عملکردهای شغلی مرتبط با نرم‌افزار است، دسترسی به اطلاعات حساس شرکت، مانند اطلاعات شخصی مشتری، داده‌های مالی، پایگاه‌های اطلاعاتی شرکت یا اطلاعات اختصاصی هم از موارد نقض‌شده بود. دیپ‌فیک گزینه ترجیحی عوامل تهدید برای رسیدن به شغل دلخواه است. دیپ‌فیک، ویدئوها، صداها یا تصاویری هستند که توسط هوش مصنوعی تقلید می‌شوند و با تقلید از یک...
    به‌گزارش همشهری آنلاین به‌نقل از کوین‌تلگراف، ایلان ماسک در توییتی نوشت «من به حمایت از دوج‌کوین ادامه خواهم داد». روز پنج‌شنبه، دادگاه منطقه‌ای نیویورک شکایتی را علیه ایلان ماسک و شرکت‌هایش، اسپیس ایکس و تسلا، به دلیل طرح ادعای پانزی بودن رمرارز دوج‌کوین دریافت کرد. ترفند پانزی که ایلان ماسک در تبلیغ دوج‌کوین به آن متهم شده نوعی عملیات سرمایه‌گذاری کلاه‌بردارانه است. بسیاری از سیستم‌های هرمی از این ترفند کلاه‌بردارانه استفاده می‌کنند.  در این شکایت از ماسک ۲۵۸ میلیارد دلار غرامت خواسته شد و در عین حال از دادگاه درخواست شد تجارت دوج‌کوین را به عنوان قمار در ایالات متحده ممنوع کند. این شکایت در جامعه رمزارز با استقبال مواجه نشد و بسیاری از کارآفرینان به تمسخر آن پرداختند. واکنش...
    ایتنا - ​​​​​​​طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیک و حساب های کاربری جعلی در پلتفرم شان انجام دهند. پیش بینی می‌شود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند. به گزارش ایتنا از مهر، این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است. قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل...
    به گزارش اقتصاد آنلاین به نقل از ایسنا، انتظار می‌رود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار به‌روزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار به‌روزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ فیک‌ها، جعل‌های بسیار واقعی هستند که با استفاده از تکنیکهای رایانه‌ای، ایجاد می شوند و باعث نگرانی جهانی به خصوص درباره استفاده از جعل عمیق در زمینه سیاسی شده‌اند. کد رفتار به‌روزشده همچنین به مقررات جدید...
    گوگل، فیس بوک، توییتر و سایر شرکت‌های فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حساب‌های دیپ فیک در پلتفرم‌های خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار می‌رود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار به‌روزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار به‌روزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
    شبکه‌های اجتماعی، فیسبوک، گوگل آلفابت و توئیتر باید اقداماتی را برای مقابله با اخبار جعلی در برنامه‌های خود انجام دهند یا بر اساس آیین‌نامه قاره سبز به اتحادیه اروپا جریمه‌های سنگین بپردازند. به گزارش سایت رویترز، انتظار می‌رود کمیسیون اروپا برای مبارزه با اخبار جعلی، قانون خود را به روز رسانی کرده و آن را در دسترس شبکه‌های اجتماعی قرار دهد. این قانون برای اولین بار در سال ۲۰۱۸ تنظیم شده بود که در حال حاضر برای مقابله با این نوع اخبار به یک طرح نظارتی تبدیل و مسئولیت آن بین تنظیم‌کننده‌ها و امضاکنندگان تقسیم شده است. قانون به روز شده نمونه‌هایی از رفتار‌های دستکاری مانند دیپ فیک و حساب‌های جعلی را بیان می‌کند که امضاکنندگان باید با آن‌ها...
    به گزارش خبرگزاری مهر به نقل از رویترز، پیش بینی می شود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند. این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است. قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل می کند. در سند مربوط به این دستورالعمل آمده است: امضا کنندگان باید با توجه به جدیدترین شواهد در مورد رفتارها و تاکتیک ها، تکنیک ها و رویه های (TTP) عوامل مخرب در...
    به نظر می رسد گوگل سرویس دیپ فیک مبتنی بر هوش مصنوعی خود را بسته است. مدتی است که فعالان حوزه هوش مصنوعی به سرویسی دست یافته اند که دیپ فیک نام دارد و می‌تواند عکس‌ها و فیلم‌ها را به صورت جعلی، با دقت زیاد و بسیار شبیه به نمونه اصلی بسازد به گونه‌ای که تشخیص آن توسط مخاطبان عام سخت بوده و با نمونه‌های اصلی اشتباه گرفته می‌شود.این سرویس شاید در موقعیت‌هایی بتواند مفید باشد، اما پس از دسترسی همگانی به آن، سوءاستفاده‌هایی از این سرویس صورت گرفت؛ حتی تصور این موضوع هم سخت نیست که ساخت تصاویر و فیلم‌های جعلی چقدر می‌تواند از نظر حقوقی و قضایی هم برای افراد دردسر ساز باشد.بر اساس شنیده‌ها گویا گوگل به...
    مدتی است که فعالان حوزه هوش مصنوعی به سرویسی دست یافته اند که دیپ فیک نام دارد و می‌تواند عکس‌ها و فیلم‌ها را به صورت جعلی، با دقت زیاد و بسیار شبیه به نمونه اصلی بسازد به گونه‌ای که تشخیص آن توسط مخاطبان عام سخت بوده و با نمونه‌های اصلی اشتباه گرفته می‌شود. این سرویس شاید در موقعیت‌هایی بتواند مفید باشد، اما پس از دسترسی همگانی به آن، سوءاستفاده‌هایی از این سرویس صورت گرفت؛ حتی تصور این موضوع هم سخت نیست که ساخت تصاویر و فیلم‌های جعلی چقدر می‌تواند از نظر حقوقی و قضایی هم برای افراد دردسر ساز باشد. بر اساس شنیده‌ها گویا گوگل به تازگی به مضرات این فناوری پی برده و سرویس دیپ فیک خود را برای...
    به گزارش شفقنا از ایسنا، سرویس Colaboratory که به اختصار Colab خوانده می‌شود، یک منبع رایانشی آنلاین است که به محققان اجازه می‌دهد کد پایتون را مستقیما از طریق این مرورگر اجرا کنند و همزمان از منابع رایانشی رایگان شامل GPU ها برای انجام پروژه‌هایشان استفاده کنند. به دلیل ماهیت چند هسته‌ای GPUها، Colab برای آموزش پروژه‌های یادگیری ماشینی مانند مدلهای دیپ فیک (جعل عمیق) یا انجام تحلیل دیتا، ایده آل است. دیپ فیکها می‌توانند آموزش داده شوند تا چهره‌ها را در کلیپهای ویدیویی تغییر دهند و حالات چهره واقعی اضافه کنند تا نتیجه کار واقعی به نظر برسد؛ هر چند که جعلی است. آنها برای انتشار اخبار فیک و ساخت کلیپهایی برای انتقام یا سرگرمی، مورد استفاده قرار می...
    ایتنا - ​​​​​​​گوگل بی‌سر و صدا پروژه‌های دیپ فیک را در سرویس Colaboratory خود ممنوع کرد و به استفاده گسترده از منابع این پلتفرم برای هدف مذکور پایان داد. سرویس Colaboratory که به اختصار Colab خوانده می‌شود، یک منبع رایانشی آنلاین است که به محققان اجازه می‌دهد کد پایتون را مستقیما از طریق این مرورگر اجرا کنند و همزمان از منابع رایانشی رایگان شامل GPU ها برای انجام پروژه‌هایشان استفاده کنند. به دلیل ماهیت چند هسته‌ای GPUها، Colab برای آموزش پروژه‌های یادگیری ماشینی مانند مدلهای دیپ فیک (جعل عمیق) یا انجام تحلیل دیتا، ایده آل است. به گزارش ایتنا از ایسنا، دیپ فیک‌ها می‌توانند آموزش داده شوند تا چهره‌ها را در کلیپهای ویدیویی تغییر دهند و حالات چهره...
    دیپ‌فیک‌ها، کلاه‌برداری‌های عاشقانه و کلاه‌برداری‌های رمزارزی، برخی از تاکتیک‌های هک مورد استفاده مجرمان در سراسر جهان به‌شمارمی‌روند. طی سه ماهه نخستِ سال ۲۰۲۲ شرکت خدمات امنیت سایبری جهانی NortonLifeLock گزارش داد که بیش از ۱۸میلیون حمله در هند و بیش از ۱۹۵۷۹۴ حمله روزانه را متوقف کرده است. به گزارش خبرنگار ایمنا، «نورتون» یک شرکت امنیت سایبری برای کاربران عادی اینترنتی است که راه‌حل‌های حفاظتی دارد و در صنعت خود نیز پیشرو است. به گفته این شرکت، حدود ۶۰ هزار مورد تلاش برای فیشینگ و ۳۲ هزار مورد کلاه‌برداری با پشتیبانی فنی بوده است؛ کلاه‌بردارها درحال‌حاضر از طرح‌های دیپ‌فیک و رمزارز برای دسترسی به اطلاعات مالی یا شخصی استفاده می‌کنند. به گفته NortonLifeLock، دیپ‌فیک‌ها، کلاه‌برداری‌های عاشقانه و کلاه‌برداری‌های رمزارزی، سه...
    برخی از فناوری‌ها بعدها برای اهداف مجرمانه استفاده شده‌اند. دیپ‌فیک نمونه‌ای از چنین فناوری‌هایی محسوب می‌شود. برنامه‌های مبتنی بر هوش مصنوعی چهره فردی را با چهره دیگری در یک فیلم یا عکس جایگزین می‌کند. قربانی دیپ‌فیک‌ها اغلب افراد مشهور، سلبریتی‌ها و سیاستمداران هستند. دیپ‌ فیک ترکیبی از دو کلمه «Deep» و «Fake» است. دیپ به فناوری هوش مصنوعی که با نام یادگیری عمیق شناخته می‌شود اشاره دارد. فناوری دیپ‌فیک در رسانه‌های مصنوعی برای تولید محتوای جعلی و جایگزین یا ترکیب‌کردن چهره‌ها و گفتار و دستکاری احساسات استفاده می‌شود. به عبارت دیگر، دیپ‌فیک می‌تواند انجام کاری را توسط شخصی به‌صورت دیجیتالی شبیه‌سازی کند و این در حالی است که آن شخص آن کار را انجام نداده است. موضوع دیپ‌فیک سروصدای بسیاری...
    ایتنا - ​​​​​​​رگولاتور فضای سایبری چین پیش نویس قوانینی را برای تهیه کنندگان محتوا صادر کرد که وضعیت استفاده از داده های مربوط به شناسایی چهره و صوت را دگرگون می‌کند. این جدیدترین اقدام برای مقابله با فناوری «دیپ فیک» و ایجاد یک فضای سایبری است که ارزش های چینی را ترویج می کند. به گزارش ایتنا از مهر، طبق اسناد منتشر شده در وب سایت اداره فضای سایبری چین، این قوانین در اصل فناوری های گسترده تری را در بر می گیرند مانند مواردی که با استفاده از الگوریتم ها متن، صوت و ویدئو تولید و اصلاح می کنند. هر پلتفرم یا شرکتی که از یادگیری عمیق یا واقعیت مجازی برای تغییر محتوای آنلاین استفاده...
    به گزارش خبرگزاری مهر به نقل از رویترز، این جدیدترین اقدام برای مقابله با فناوری «دیپ فیک» و ایجاد یک فضای سایبری است که ارزش های چینی را ترویج می کند. طبق اسناد منتشر شده در وب سایت اداره فضای سایبری چین، این قوانین در اصل فناوری های گسترده تری را در بر می گیرند مانند مواردی که با استفاده از الگوریتم ها متن، صوت و ویدئو تولید و اصلاح می کنند. هر پلتفرم یا شرکتی که از یادگیری عمیق یا واقعیت مجازی برای تغییر محتوای آنلاین استفاده می کند باید به اخلاق و قوانین جامعه احترام بگذارد و تغییر ایجاد شده نیز باید در جهت سیاسی صحیح انجام شود. قوانین مذکور از جعل هویت افراد به وسیله تصاویر دیپ...
    فرارو- «من آینده را نمی‌دانم من اینجا نیامده‌ام که به شما بگویم این ماجرا چگونه به پایان می‌رسد من اینجا آمده‌ام تا به شما بگویم چگونه آغاز می‌شود». این مونولوگ پایانی فیلم «ماتریکس» ساخته شده در سال ۱۹۹۹ میلادی بود زمانی که «کیانو ریوز» در نقش «نئو» هشداری جدی به ماشین‌های کنترل کننده جهان داد، زیرا متوجه شده بود که بشریت در یک واقعیت شبیه‌سازی شده گرفتار شده است. به گزارش فرارو به نقل از بی بی سی ورلد؛ این فیلم در زمانی اکران شد که جامعه در آستانه انقلاب اینترنتی قرار داشت و در هزاره‌ای مضطرب به سر می‌برد. فیلم نه تنها به پیشرفت‌های فناوری در آن دوره اشاره کرد بلکه پرسش‌های گسترده‌ای را در مورد اینترنت، آگاهی و...
    یک فناوری جدید با هوش مصنوعی و با استفاده از زرق و برق چشم‌ها تشخیص می‌دهد که ویدئو واقعی است یا با Deepfake ساخته شده است. به گزارش مشرق، یک ابزار جدید به لطف تجزیه و تحلیل قرنیه‌ها قادر به تشخیص و تفکیک فناوری Deepfake از یک ویدئوی واقعی است. با این هوش مصنوعی دیگر هیچ چیز نمی‌تواند ما را فریب دهد. همیشه گفته شده که چشم‌ها آینه روح هستند و به نظر می‌رسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک متمایز کند. دیپ فیک به زبان ساده فناوری است که صورت ما را روی بدن فرد دیگری می‌گذارد. بسیاری این کار را برای سرگرمی یا...
    به گزارش youm7؛ ویدئویی در شبکه‌های اجتماعی منتشر شده که فردی به نام یی لانگ ماسک در چین خودش را ایلان ماسک چینی معرفی می‌کند. کاربران نیز پس از انتشار این ویدئو به این فرد چینی لقب دوقلوی ایلان ماسک ، ثروتمندترین مرد جهان، و مدیرعامل شرکت تسلا و اسپیس ایکس را دادند. البته برخی از کاربران بر این باورند که ویدئوی منتشر شده نتیجه یک تعامل دیجیتالی روی ویدئو شخص دیگری است که با افزودن چهره واقعی ایلان ماسک روی چهره صاحب اصلی ویدئو و به صورت دیپ فیک ساخته شده است. کاربران می‌گویند با نگاه کردن به حرکات لب‌ها و چشم‌ها در فیلم می‌توان به جعلی بودن فیلم پی برد. با این حال، کسانی که در دیپ فیک...
    به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، اگر از علاقمندان به اخبار فناوری و دستگاه‌های مدرن هستید و امروز موفق به رصد اخبار سرویس فضای مجازی در حوزه دریچه فناوری نشده‌اید، در ادامه لینک ۱۰ خبر پربازدید از نگاه کاربران را برای شما به نمایش گذاشته‌ایم. نمایش صفحه موبایل روی رایانه با کدام اپلیکیشن‌ بهتر انجام می‌شود؟ برنامه هایی هستند که امکان نمایش و اجرای تلفن همراه را روی کامپیوترها با سیستم عامل های مختلف آسان می کنند که در این خبر به یکی از آن ها اشاره شده است. تاریخ رسمی عرضه ویندوز ۱۱ مشخص شد شرکت مایکروسافت رسما اعلام کرد که سیستم عامل دسکتاپ ویندوز ۱۱ در ماه اکتبر عرضه خواهد شد. ناسا برنامه‌ ای...
    به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از آی ای؛ به تازگی گزارشی در پایگاه MIT Technology Review منتشر شده و در آن آمده که یک استارتاپ قصد دارد نسخه دیپ فیکی از چهره افراد را می‌خرد و با استفاده از نرم افزار‌های هوش مصنوعی، محصولات و خدمات آموزشی را به مردم می‌فروشد. این استارتاپ از زمان تاسیس تاکنون حدود ۱۰۰ چهره ترکیبی ساخته و می‌خواهد این تعداد را افزایش بدهد. این شرکت اعلام کرده که برای فروش چهره و استفاده از آن در تبلیغات دیپ فیک، حتما نیازی به چهره زیبا نیست. بیشتر بخوانید برنامه‌ هایی که دیپ فیک را به دنیای تلفن همراه آوردند صف کشیدن مردم برای شرکت در پروژه...
    به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، یک کمپانی، با پردازش تصاویر و هوش مصنوعی دیپ فیک، چند فیلم را دوبله کرد.در این روش، لحن و صدای بازیگران تغییر نمی‌کند، اما زبان آن‌ها تغییر می‌کند؛ دیالوگ‌ها با حرکات دهان بازیگران هماهنگ می‌شود.     بیشتر بخوانید اسب با هوشی که نقاشی می‌کشد! + فیلم   کد ویدیو دانلود فیلم اصلی انتهای پیام/
    آفتاب‌‌نیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
    به گزارش همشهری آنلاین، ایسنا به نقل از آی‌ای، همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و می‌تواند انقلابی در نحوه ترجمه فیلم‌ها به زبان‌های دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...