ظهور تقنية الذكاء الاصطناعي للتزييف العميق ونصائح لاكتشافها


مقدمة عن تقنية الذكاء الاصطناعي للتزييف العميق وكيفية اكتشافها

Deepfakes are a rapidly growing concern in the digital world, as they have the potential to cause significant harm to individuals and society as a whole. As artificial intelligence and machine learning technologies become more and more complex, creating realistic and convincing deepfakes is becoming easier day by day. Deepfakes are manipulated videos or images that can be used for a variety of purposes, including spreading misinformation and identity theft. In fact, they have the ability to spread propaganda and misinformation that could undermine people’s trust in institutions, incite chaos and confusion, and upend the very fabric of our society. In this article, we’ll explore the dangers of deepfakes and provide practical tips on how to detect deepfake videos.

الذكاء الاصطناعي

ما هو التزييف العميق؟

We can define deepfake as a type of synthetic media that has been manipulated or generated using artificial intelligence (AI) algorithms. In other words, deepfakes use machine learning to create or alter audio, video, or images to depict events that did not occur or to portray individuals saying or doing things that they did not actually do.

Let’s create AI Images Using Midjourney and Dall-E 2

If you have seen videos of Mark Zuckerberg boasting about his total control of billions of people’s stolen data, Barack Obama using offensive words to describe Donald Trump, or Kit Harrington delivering a heartfelt apology for the disappointing finale of Game of Thrones, then you already have an idea about deepfakes. Deepfakes are the modern-day equivalent of photoshopping. These altered and manipulated digital media like videos, audio, and images can cause harm to both individuals and organizations, just like computer viruses. Identifying good deepfake videos can be exceptionally challenging; however, in contrast to computer viruses, anyone can produce good deep fakes.

Did you know that neural networks can create realistic people who have never existed before? By visiting the website هذا الشخص غير موجود or تم إنشاؤه.الصور, you can see a vast array of faces generated by AI. In fact, none of the people you see on this website is real. You can find more of such AI wizardry in هذا X غير موجود website.

حدد الخبراء أكثر أنواع أو طرق التزييف العميق خطورة. الأول هو أصوات التزييف العميق أو التزييف العميق الصوتي. هذا صوت تم إنشاؤه بواسطة الذكاء الاصطناعي يحاكي صوت الشخص الحقيقي عن كثب. يعد صوت التزييف العميق حاليا الأسلوب الأكثر ربحا الذي يستخدمه المحتالون للصيد الصوتي المزيف العميق. على سبيل المثال ، في عام 2019 ، استخدم المجرمون تقنية الصوت المستنسخة لابتزاز 243,000 دولار من الرئيس التنفيذي لشركة طاقة بريطانية.

الطريقة الثانية هي مقاطع الفيديو المزيفة ، والتي يمكن استخدامها للتلاعب بالرأي العام وغسل أدمغة الناس من خلال تقديم معلومات خاطئة بشكل مقنع. مقاطع الفيديو سيئة السمعة التي تظهر باراك أوباما والرئيس ترامب هي أمثلة على مقاطع الفيديو هذه. يمكن استخدامها أيضا لإنشاء مقاطع فيديو مزيفة لأشخاص عاديين ، خاصة لإنشاء مواد إباحية انتقامية.

This AI technology can also produce deep fake text that convincingly mimics the writings of real people as well as genuine social media posts. These fake accounts may look authentic and even attract followers over time. A group of these accounts can be easily used to slander a company or a product. The only way to differentiate such AI-generated text is to identify patterns in the language used, such as word choice and sentence structure, and detect inconsistencies.

مخاطر تقنية التزييف العميق

في عالم اليوم من الأخبار المزيفة والمعلومات المضللة ، يستخدم الناس تقنية التزييف العميق لنشر المعلومات المضللة ، وإنشاء روايات كاذبة ، وإنشاء صورة عامة محددة ، وفرض رقابة على الأشخاص أو السخرية منهم ، وإنشاء محتوى إباحي.

Deep fakes often target celebrities. Their fame and availability in media make them perfect for memes, and AI technology can easily create convincing deep fakes of them. A few years ago, TikTok was flooded with videos featuring actor Tom Cruise engaging in activities that were unusual for him, such as fooling around in an expensive men’s fashion store, exhibiting a coin trick, and playfully growling while singing a brief version of “Crash Into Me” by the Dave Matthews Band. Another example is the video of Yong Mei, a famous Chinese celebrity that went viral a few years ago. In this video, she was inserted into a 1983 Hong Kong TV series. The video got 240 million views before it was eventually removed by Chinese authorities. However, the creator, who was a fan of Young Mei, apologized publicly on Weibo and said he made the video to raise awareness about deepfake technology.

التزييف العميق لتوم كروز

In politics, deepfakes can be used to create fake videos or images of political figures saying or doing things that they did not actually say or do. This can be done to spread misinformation or damage someone’s reputation. In 2019, a video of Nancy Pelosi was edited to make it seem like she was speaking oddly and looking drunk. It was shared globally, but Facebook did not remove it after being proven fake. Videos on Donald Trump’s story about a reindeer and Barack Obama’s public service announcement are other examples of this type of fake video.

Did you know that 96% of deep fakes are pornographic? A significant majority (99%) of the faces used in these manipulated videos belong to real women, including non-celebrities. The use of deep fakes can allow a person to effortlessly superimpose the image of an ex-girlfriend onto that of a porn actor and circulate it within their social circle. As a result, the victim may face the negative effects of being falsely accused of a taboo act, even if it never happened.

Deepfakes are also increasingly being used in financial scams. These scams typically involve scammers creating deepfakes of important people like CEOs or politicians and then using them to trick people into transferring money or sensitive information. For example, a deepfake video of a CEO might be used to persuade an employee to transfer money to a fraudulent account. In 2019, a group of scammers used the voice of a CEO of a UK-based energy company to impersonate him and trick an employee into transferring $243,000 to a fraudulent account.

جانب خطير آخر من المنتجات المقلدة العميقة هو أن هناك العديد من الأدوات البسيطة المتاحة عبر الإنترنت لإنشاء المنتجات المقلدة العميقة. وفقا لبن كولمان من Reality Defender ، يمكن لأي طالب في المدرسة الإعدادية إنشاء مزيف عميق باستخدام جهاز iPhone يبلغ من العمر خمس سنوات.

بعض التطبيقات الأخلاقية للتزييف العميق

It is essential to remember that deep fake technology can have ethical applications in today’s world. One such example is enhancing the image quality of old or low-resolution videos. Instead of using the traditional upscale method, this technology redraws the image, allowing for changes in image quality. Additionally, deep fake technology can synchronize speech with lip movements, known as lip syncing. Perfecting lip movements to match any linguistic articulation would be a significant advancement in the field of film and TV dubbing. A practical example of this is the PSA featuring David Beckham aimed at combating malaria. As Beckham speaks nine languages, deep fake technology was used to adjust his lip movements to each language.

تمتد إمكانات التزييف العميق أيضا إلى إحياء الفنانين المتوفين مثل سلفادور دالي في متحف سلفادور دالي في فلوريدا. بالإضافة إلى ذلك ، فإن التطبيق الفريد لهذه التكنولوجيا هو تحريك الفن. على سبيل المثال ، مكن مختبر أبحاث الذكاء الاصطناعي من سامسونج الموناليزا من إظهار حركات في رأسها وعينيها وفمها. في المستقبل ، يمكن لهذه التكنولوجيا أن توفر لصناعة السينما الوقت والمال.

تحريك قائمة منى

كيفية التعرف على التزييف العميق

ابحث عن التناقضات في الفيديو

غالبا ما تحتوي المنتجات العميقة على تناقضات دقيقة تتخلى عنها. على سبيل المثال ، قد لا تتطابق الإضاءة والظلال والانعكاسات مع المناطق المحيطة ، أو قد تبدو حركات الشخص غير طبيعية إلى حد ما.

من علامات التحذير الشائعة لمقطع فيديو أو صورة التزييف العميق العيون غير الطبيعية ، خاصة إذا كانت عيون الشخص تبدو غريبة أو إذا لم ترمش. يصعب تزوير حركات العين الطبيعية والوميض ، لذلك إذا بدا أن شخصا ما يحدق دون أن يرمش أو تبدو حركات عيونه غريبة ، فقد تكون هذه علامة على أنه تم التلاعب بالفيديو. بالإضافة إلى ذلك ، عندما يتحدث الناس مع بعضهم البعض ، عادة ما تتحرك عيونهم بشكل طبيعي ، ومن الصعب تقليد ذلك بدقة في مقطع فيديو مزيف.

An unpropotional face and body is another sign of a deepfake. This is because the AI algorithms that create deepfakes can struggle to replicate the proportions of a person’s face and body accurately, which results in a distorted or exaggerated appearance. If a person looks strange or weird when they turn their head to the side, or if their movements seem disconnected or unnatural from one moment to the next, it might be a sign that a video has been changed. Mismatched skin tones and oddly placed shadows are two other important clues.

تحقق من جودة الصوت

قد تحتوي التزييف العميق على صوت لا يتطابق مع حركة شفاه الشخص أو نبرة صوته. استمع بعناية لمعرفة ما إذا كان الصوت يبدو طبيعيا ويتوافق مع سياق الفيديو. عند عمل التزييف العميق ، غالبا ما يولي المبدعون اهتماما للمرئيات أكثر من الصوت. يمكن أن تشمل علامات الصوت المزيف حركات الشفاه التي لا تتطابق مع الكلمات المنطوقة ، أو الأصوات التي تبدو روبوتية ، أو نطق الكلمات الغريب ، أو ضوضاء الخلفية الرقمية ، أو حتى الغياب التام للصوت.

استخدم التكنولوجيا لتحديد المنتجات المقلدة

The advancements in deep fake technology have led to the development of protection tools. The University of Buffalo has created a tool that automatically identifies deep fake photos. This tool examines the light reflection in the eyes to distinguish between real and fake photos. Generally, when we look at something, the image we look at is reflected in our eyes, so in genuine photos, both eyes show the same shape and color of reflection. However, computers cannot generate identical reflections in the eyes since they combine multiple photos to generate one.

Moreover, Intel has introduced an AI tool named صائد مزيفة that can identify whether a video has been altered using deepfake technology in real-time. This technology claims to achieve a 96% accuracy rate and detect deepfakes within milliseconds. Unlike other deepfake detectors that rely on deep learning to analyze a video’s raw data for manipulation signs, FakeCatcher looks for human-like indicators, such as subtle changes in blood flow in the pixels of a video.

هناك أيضا أدوات أخرى لتحليل الضوضاء الرقمية والصور. يمكن أن يختلف هيكل الضوضاء الطبيعية والضوضاء الناتجة عن الكمبيوتر بشكل كبير ، مما يساعدنا على التمييز بين الصور الأصلية والمزيفة.

كما طور التحالف من أجل مصدر المحتوى وأصالته ، بقيادة Adobe و Microsoft و Intel و BBC ، معيارا للتمييز بين المحتوى الذي تم إنشاؤه بواسطة الكمبيوتر والمحتوى الحقيقي. حتى يتم اعتماده على نطاق واسع ، فإن إمكانية الاستخدام الضار للتزييف العميق كبيرة.

كيف تحافظ على سلامتك من التزييف العميق

You should always exercise caution when consuming information online, especially when it comes to sensitive topics that can cause conflict or provoke intense emotions. Be alert to possible manipulations or distortions of facts that can be used to push a particular agenda or influence public opinion. Always seek out multiple independent sources of information to verify the accuracy of online content. Don’t rely only on video, photographs, or audio on someone’s profile, as these may be deep fakes or altered. It’s important to do your research and cross-check information from different sources to ensure its authenticity. Finally, stay away from synthetic social networks and fake social media accounts.

لتجنب الوقوع ضحية للتزييف العميق ، تأكد من عدم نشر معلومات شخصية عن نفسك عبر الإنترنت حيث يمكن استخدامها لسرقة الهوية أو أغراض ضارة أخرى. كن حذرا بشأن نوع المعلومات التي تشاركها ومع من تشاركها، واتخذ دائما خطوات لحماية خصوصيتك وأمانك عبر الإنترنت.

من الأهمية بمكان تثقيف الأفراد حول مخاطر التزييف العميق وتطوير تقنيات جديدة للكشف عن استخدامها ومكافحته. يجب تنظيم إنشاء وتوزيع المنتجات المقلدة العميقة ، ويجب أن تكون هناك عواقب قانونية لأولئك الذين يستخدمون المنتجات المقلدة بشكل ضار.

استنتاج

Deepfakes are a technology that can have severe impacts on people all over the globe, including damage to reputation, financial loss, and identity theft. The only way to stay safe from deepfakes is by understanding the technology behind deepfakes and using deepfake detection tools; we must always remain vigilant, verify information sources, and stay up-to-date about the latest developments in technology. Ultimately, the key to prevent the spread of deepfakes is through education and awareness, so let’s all stay informed and stay safe in this digital age.


If you enjoyed this article then you may also like to read دليلنا الشامل ل ChatGPT.

هل أعجبك ما تقرأه؟

ابق على اطلاع من خلال اشتراكنا في النشرة الإخبارية

Don't worry, we don't spam

افتتاحية talkKs

استخدم قسم التعليقات لاقتراح أشياء ربما فاتناها.

التعليقات0

لن يتم نشر عنوان بريدك الإلكتروني. يتم وضع علامة على الحقول المطلوبة*

Solve : Which Number is Smaller 4 or 3 ?