Web Analytics Made Easy - Statcounter
2024-04-29@10:58:21 GMT
۱۲۴ نتیجه - (۰.۰۰۱ ثانیه)

«اخبار جعل عمیق»:

بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
    خبرگزاری علم و فناوری آنا؛ ویدئو‌ها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته می‌شوند و گاهی آنقدر واقعی به نظر می‌رسند که تشخیص آنها از واقعیت دشوار است. این فناوری بار‌ها مشکل‌ساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کرده‌اند. با پیشرفت فناوری، تشخیص...
     این توصیه بخشی از مجموعه دستورالعمل‌هایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غول‌های دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید می‌کند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنت‌های کاربران است...
    ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکت‌های بزرگ فناوری دیجیتال از جمله فیس‌بوک و تیک‌تاک خواست تا محتویات جعل عمیق (دیپ‌فیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه‌ دستورالعمل‌هایی است که کمیسیون اروپا...
    به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، می‌توانند نتایج زیان‌باری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانون‌گذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفن‌های همراه از جمعیت پیشی می‌گیرد،...
    ایتنا - دیپ‌فیک‌های هوش مصنوعی اغلب برای ایجاد آسیب استفاده می‌شوند، اما روش‌های موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی می‌کنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک)...
    به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامه‌ای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شده و خطرات احتمالی آن را در این نامه متذکر شده‌اند. این گروه از کارشناسان با همراهی اندرو کریچ (Andrew Critch)، متخصص هوش مصنوعی از...
    جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئو‌ها و صدا‌های جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ...
    ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است.  در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته می‌شود. ویدیوهای تولید شده با هوش مصنوعی می‌توانند به طور قانع کننده‌ای از افراد حقیقی...
    به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز،‌ پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری...
    ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر...
    ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیه‌سازی کرده بود هنوز جزئیات زیادی نمی‌دانیم. این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکرات‌‌ها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این...
    زی‌سان: در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیه‌سازی کرده بود هنوز جزئیات زیادی نمی‌دانیم. به گزارش زی‌سان به نقل از پولتیکو، این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکرات‌ها را از شرکت در انتخابات منصرف کند. مشخص...
    ایتنا - آمریکا قصد دارد انتشار و به‌اشتراک‌گذاری عکس‌های برهنه افراد را که به صورت دیجیتال دستکاری‌ شده‌اند به یک جرم فدرال تبدیل کند. جوزف مورل نماینده دموکرات ایالت نیویورک روز سه‌شنبه بار دیگر «لایحه جلوگیری از جعل عمیق تصاویر نقاط خصوصی بدن» را ارائه کرد. این لایحه به‌اشتراک‌گذاری غیرمجاز عکس‌های برهنه‌ای را که...
    بالاخره سیاست با همه بی‌پدر و مادری، نامردی، کثیف بودن و با وجود همه حرف‌هایی که پشت سرش می‌زنند، لابد خوبی‌هایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه‌ آن، ماجرای «جعل عمیق» یا همان دیپ‌فیک که ظاهراً آشش جوری شور شده که اهالی...
    ایتنا - برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفت‌های هراس‌انگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری توانایی‌های دیگر از جمله کاربردهای عملی چت‌جی‌پی‌تی. سال ۲۰۲۳ سالی مهم در تاریخ هوش مصنوعی بود. اما این تنها آغاز ماجرا بود. برخی از کارشناسان...
    در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با فناوری جدیدی که می‌تواند صحت عکس‌ها را تأیید کند، با این مشکل مقابله می‌کنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و...
    شرکت‌های کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل می‌کند. به گزارش ایسنا و به نقل از آی‌ای، در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با...
    یکی از توانایی‌های سیستم‌های هوش مصنوعی جعل عمیق توانایی شبیه‌سازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که می‌تواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرم‌افزار جدید به نام ضدجعل(AntiFake) می‌تواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و...
    فیلم‌ها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی می‌تواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روش‌هایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی...
    گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوری‌های مدرن از هوش مصنوعی گرفته تا ارتباطات بی‌سیم فوق سریع، در سال‌های اخیر کار و زندگی مردم را متحول کرده‌اند. ضمن لذت بردن از راحتی این فناوری‌ها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسر‌های زیادی پیش...
    مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند. به گزارش ایران اکونومیست و به نقل از فاکس‌بیزنس،  ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده...
    به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ دولت انگلیس در لایحه امنیت برخط (online) هرگونه انتشار تصاویر و ویدئو‌های ناشی از "جعل عمیق" (deepfake) را که بدون رضایت افراد، آنان را در این تصاویر و فیلم‌های آزار دهنده نشان می‌دهد، ممنوع می‌کند.به گزارش خبرگزاری صدا و سیما از لندن، روزنامه گاردین نوشت در روش "جعل...
    یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانی‌ها در حالی عنوان می‌شوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام...
    یکی از دردسر‌هایی که فناوری جعل عمیق برای مردم، به‌ویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلم‌های دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایت‌های متعددی از افراد جامعه دریافت کرده...
    چندین شبکه رادیو و تلویزیون روسیه پس از هک شدن، سخنان جعلی ولادیمیر پوتین رئیس جمهوری این کشور را پخش کردند که در آن پیغام جعلی، اعلام "وضعیت اضطراری" شده بود. به گزارش مشرق،دیمیتری پسکوف سخنگوی کاخ کرملین به خبرگزاری تاس گفت که رئیس جمهور پوتین هیچ سخنرانی اضطراری رادیو و تلویزیون در روز دوشنبه...
    ایتنا - به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»،...
    ایتنا - کارشناسان می‌گویند میلیاردها کاربر آیفون و گوشی‌های اندروید در معرض خطر حملات هوش مصنوعی قرار دارند دارندگان گوشی‌های هوشمند ممکن است در معرض خطر کلاهبرداری و خالی کردن حساب بانکی باشند. این نوع کلاهبرداری‌ها عموما مبتنی بر روش‌های هوش مصنوعی، تقلید صدا، تبلیغات تله‌گذاری (فیشینگ) و همچنین فناوری ساخت تصاویر جعل عمیق...
    به گزارش جام جم آنلاین، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد. نیل ساهوتا، کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است....
    یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد. نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای...
    ایتنا - بسیاری از هنرمندان دست‌ انسان را یکی از پیچیده‌ترین چیزها برای طراحی در نظر می‌گرفتند باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پی‌برد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگ‌ترین نشانه‌های پنهان برای تشخیص یک تصویر جعل عمیق (دیپ‌فیک)، رفع شده باشد. به...
    دیپ فیک فناوری پیچیده‌ای است که ویدئو و صوت‌های جعلی با استفاده از هوش مصنوعی تولید می‌کند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید...
    ایتنا - مقام‌های ایالات متحده در گذشته هشدار داده‌اند که کشورهایی مانند روسیه به دستکاری رسانه‌های اجتماعی متوسل می‌شوند. رهبرانی که بر برخی از محرمانه‌ترین ماموریت‌های ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بی‌سابقه‌ای از جنگ‌افزارند: «جعل‌عمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقع‌نما به کار می‌گیرد. به گزارش...
    ایتنا - سایتی که به طور مجازی عکس‌ زنان را برهنه می‌کند، در هشت ماه نخست سال ۲۰۲۱، سی‌وهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر می‌کند. سرش را دودستی می‌گیرد. می‌گوید: «واقعا شرم‌آور است. زشت است، من شرمنده‌ام.» همسرش پشت سر او اشک‌هایش را با دستمالی...
    به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای...
    طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده می‌شود، حرفه‌ای می‌شوند و می‌توانند آسیب‌رسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بوده‌اند، ممکن...
    به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که داده‌های چهره و صدا را تغییر می‌دهند، از 10 ژانویه 2023 (20 دی) اجرایی می‌شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل...
    به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مک‌کلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک)...
    به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفت‌آور برای شناسایی تماس‌های ویدیویی جعل عمیق کشف کرده‌اند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند. این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارت‌آپ مستقر در لندن...
    ایتنا - دانشمندان می‌گویند که درک نحوه تشخیص جعل عمیق به‌وسیله مغز، به ایجاد الگوریتم‌هایی برای شناسایی آنلاین آن‌ها کمک می‌کند. مطالعه‌ای جدید نشان می‌دهد مغز انسان قادر است به‌طور ناخودآگاه جعل عمیق (دیپ فیک) را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند. دیپ...
    گوگل، فیس بوک، توییتر و سایر شرکت‌های فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حساب‌های دیپ فیک در پلتفرم‌های خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار می‌رود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار...