<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title>The Dawn News - Tech</title>
    <link>https://www.dawnnews.tv/</link>
    <description>Dawn News</description>
    <language>ur-PK</language>
    <copyright>Copyright 2026</copyright>
    <pubDate>Sun, 10 May 2026 12:24:47 +0500</pubDate>
    <lastBuildDate>Sun, 10 May 2026 12:24:47 +0500</lastBuildDate>
    <ttl>60</ttl>
    <item xmlns:default="http://purl.org/rss/1.0/modules/content/">
      <title>چند کلک پر قابل اعتراض تصاویر تیار کرنے والی ایپ شٹ ڈاؤن
</title>
      <link>https://www.dawnnews.tv/news/1105985/</link>
      <description>&lt;p&gt;موجودہ عہد ٹیکنالوجی کا قرار دیا جاتا ہے مگر اس کے مثبت کی بجائے منفی استعمال زیادہ ہورہا ہے اور ان میں سے ایک قسم ڈیپ فیک بھی ہے جو کسی بھی شخص کی زندگی برباد کرسکتی ہے۔&lt;/p&gt;

&lt;p&gt;ڈیپ فیک تصاویر یا ویڈیوز ایسے ہوتے ہیں جن میں نظر آنے لوگ وہ کہہ یا کررہے ہوتے ہیں جو انہوں نے کبھی کیا نہیں ہوتا اور اس مقصد کے لیے تصاویر کا کافی ڈیٹا درکار ہوتا ہے تاکہ حقیقی نظر آنے والی فوٹیج یا تصویر تیار ہوسکے۔&lt;/p&gt;

&lt;p&gt;مگر گزشتہ دنوں ایک کمپنی نے ایسی آرٹی فیشل انٹیلی جنس ٹیکنالوجی (اے آئی ٹیکنالوجی) پر مبنی اپلیکشن متعارف کرا دی تھی جو کسی بھی خاتون کی بے لباس تصویر منٹوں میں تیار کردیتی تھی۔&lt;/p&gt;

&lt;figure class='media  issue1144 sm:w-1/5  w-full  media--left    media--uneven  media--stretch'&gt;
				&lt;div class='media__item  '&gt;&lt;a href='https://www.dawnnews.tv/news/1103892' &gt;&lt;img src="https://i.dawn.com/medium/2019/06/5d1618a39668d.png"  alt="" /&gt;&lt;/a&gt;&lt;/div&gt;
				
			&lt;/figure&gt;
&lt;p&gt;			&lt;/p&gt;

&lt;p&gt;ڈیپ نیوڈ نامی اس ایپ کے سامنے آنے کے بعد مختلف مضامین میں اس پر شدید تنقید ہوئی تھی اور اس کے غلط استعمال کے سنگین نتائج کا انتباہ بھی دیا گیا تھا۔&lt;/p&gt;

&lt;p&gt;اور اب اس ایپ کے پیچھے موجود ٹیم نے بھی تسلیم کیا ہے کہ اس نے پراجیکٹ کے بارے میں لوگوں کی دلچسپی کو غلط سمجھا اور لوگوں کی جانب سے اس کے غلط استعمال کے امکانات بہت زیادہ ہیں، یہی وجہ ہے کہ اسے بند کردیا گیا ہے۔&lt;/p&gt;

&lt;p&gt;اس ٹیم نے ایک ٹوئیٹ میں اس بات کا اعلان کیا کہ اپلکشن اب فروخت نہیں کی جائے گی اور نہ ہی اس کے مزید ورژن ریلیز کیے جائیں گے۔&lt;/p&gt;

&lt;figure class='media  issue1144 w-full  media--stretch  media--uneven media--embed  '&gt;
				&lt;div class='media__item    media__item--twitter  '&gt;            &lt;blockquote class="twitter-tweet" lang="en"&gt;
                &lt;a href="https://twitter.com/deepnudeapp/status/1144307316231200768"&gt;&lt;/a&gt;
            &lt;/blockquote&gt;
            &lt;script src='https://platform.twitter.com/widgets.js'&gt;&lt;/script&gt;&lt;/div&gt;
				
			&lt;/figure&gt;
&lt;p&gt;			&lt;/p&gt;

&lt;p&gt;اس ایپ کے بارے میں گزشتہ دنوں مضامین سامنے آئے تھے جب کے مطابق یہ اپلیکشن اے آئی ٹیکنالوجی کی مدد سے کسی بھی تصویر میں تبدیلیاں لاتی تھی اور صرف خواتین کی تصاویر پر کام کرکے انہیں بے لباس ظاہر کرتی تھی۔&lt;/p&gt;

&lt;p&gt;اس ایپ کے مفت ورژن میں بنائی جانے والی تصویر پر بہت بڑا واٹر مارک ہوتا تھا جس میں لکھا ہوتا تھا کہ یہ جعلی تصویر ہے مگر پیڈ ورژن میں یہ واٹر مارک کونے میں کافی چھوٹا ہوتا تھا جسے آسانی سے ہٹایا جاسکتا تھا۔&lt;/p&gt;

&lt;p&gt;یہ ایپ کئی ماہ سے دستیاب تھی اور اس کی ٹیم کا کہنا تھا کہ یہ اتنی زبردست بھی نہیں تھی، مگر ماہرین نے اس کے استعمال بہت بہت زیادہ تحفظات ظاہر کیے تھے۔&lt;/p&gt;

&lt;p&gt;اب بھی لوگ تصاویر کو ڈیجیٹل طریقے سے بدل لیتے ہیں مگر اس ایپ کے ذریعے یہ کام کوئی بھی 2 یا تین کلک پر کرسکتا تھا اور اسے کسی قسم کی محنت کی ضرورت بھی نہیں تھی۔&lt;/p&gt;

&lt;p&gt;ان تصاویر کو خواتین کو ہراساں کرنے کے لیے استعمال کیا جاسکتا تھا اور متاثرہ افراد کے لیے صورتحال سے نمٹنا بھی آسان نہیں ہوتا۔&lt;/p&gt;

&lt;p&gt;اس ایپ کو تیار کرنے والے کا نام البرٹو بتایا جاتا ہے جس نے ٹیکنالوجی سائٹ &lt;a href="https://www.theverge.com/2019/6/27/18761496/deepnude-shuts-down-deepfake-nude-ai-app-women"&gt;دی ورج&lt;/a&gt; کو بتایا کہ اس کا ماننا ہے کہ اگر وہ یہ کام نہ کرتا تو کوئی اور جلد کرلیتا، کیونکہ ٹیکنالوجی تیار ہے (بلکہ ہر ایک کی رسائی میں)۔&lt;/p&gt;

&lt;p&gt;اس ٹیم نے ٹوئیٹ میں لکھا 'دنیا ابھی اس طرح کی ٹیکنالوجی کے لیے تیار نہیں اور ابھی مزید وقت چاہیے۔&lt;/p&gt;
</description>
      <content:encoded xmlns="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p>موجودہ عہد ٹیکنالوجی کا قرار دیا جاتا ہے مگر اس کے مثبت کی بجائے منفی استعمال زیادہ ہورہا ہے اور ان میں سے ایک قسم ڈیپ فیک بھی ہے جو کسی بھی شخص کی زندگی برباد کرسکتی ہے۔</p>

<p>ڈیپ فیک تصاویر یا ویڈیوز ایسے ہوتے ہیں جن میں نظر آنے لوگ وہ کہہ یا کررہے ہوتے ہیں جو انہوں نے کبھی کیا نہیں ہوتا اور اس مقصد کے لیے تصاویر کا کافی ڈیٹا درکار ہوتا ہے تاکہ حقیقی نظر آنے والی فوٹیج یا تصویر تیار ہوسکے۔</p>

<p>مگر گزشتہ دنوں ایک کمپنی نے ایسی آرٹی فیشل انٹیلی جنس ٹیکنالوجی (اے آئی ٹیکنالوجی) پر مبنی اپلیکشن متعارف کرا دی تھی جو کسی بھی خاتون کی بے لباس تصویر منٹوں میں تیار کردیتی تھی۔</p>

<figure class='media  issue1144 sm:w-1/5  w-full  media--left    media--uneven  media--stretch'>
				<div class='media__item  '><a href='https://www.dawnnews.tv/news/1103892' ><img src="https://i.dawn.com/medium/2019/06/5d1618a39668d.png"  alt="" /></a></div>
				
			</figure>
<p>			</p>

<p>ڈیپ نیوڈ نامی اس ایپ کے سامنے آنے کے بعد مختلف مضامین میں اس پر شدید تنقید ہوئی تھی اور اس کے غلط استعمال کے سنگین نتائج کا انتباہ بھی دیا گیا تھا۔</p>

<p>اور اب اس ایپ کے پیچھے موجود ٹیم نے بھی تسلیم کیا ہے کہ اس نے پراجیکٹ کے بارے میں لوگوں کی دلچسپی کو غلط سمجھا اور لوگوں کی جانب سے اس کے غلط استعمال کے امکانات بہت زیادہ ہیں، یہی وجہ ہے کہ اسے بند کردیا گیا ہے۔</p>

<p>اس ٹیم نے ایک ٹوئیٹ میں اس بات کا اعلان کیا کہ اپلکشن اب فروخت نہیں کی جائے گی اور نہ ہی اس کے مزید ورژن ریلیز کیے جائیں گے۔</p>

<figure class='media  issue1144 w-full  media--stretch  media--uneven media--embed  '>
				<div class='media__item    media__item--twitter  '>            <blockquote class="twitter-tweet" lang="en">
                <a href="https://twitter.com/deepnudeapp/status/1144307316231200768"></a>
            </blockquote>
            <script src='https://platform.twitter.com/widgets.js'></script></div>
				
			</figure>
<p>			</p>

<p>اس ایپ کے بارے میں گزشتہ دنوں مضامین سامنے آئے تھے جب کے مطابق یہ اپلیکشن اے آئی ٹیکنالوجی کی مدد سے کسی بھی تصویر میں تبدیلیاں لاتی تھی اور صرف خواتین کی تصاویر پر کام کرکے انہیں بے لباس ظاہر کرتی تھی۔</p>

<p>اس ایپ کے مفت ورژن میں بنائی جانے والی تصویر پر بہت بڑا واٹر مارک ہوتا تھا جس میں لکھا ہوتا تھا کہ یہ جعلی تصویر ہے مگر پیڈ ورژن میں یہ واٹر مارک کونے میں کافی چھوٹا ہوتا تھا جسے آسانی سے ہٹایا جاسکتا تھا۔</p>

<p>یہ ایپ کئی ماہ سے دستیاب تھی اور اس کی ٹیم کا کہنا تھا کہ یہ اتنی زبردست بھی نہیں تھی، مگر ماہرین نے اس کے استعمال بہت بہت زیادہ تحفظات ظاہر کیے تھے۔</p>

<p>اب بھی لوگ تصاویر کو ڈیجیٹل طریقے سے بدل لیتے ہیں مگر اس ایپ کے ذریعے یہ کام کوئی بھی 2 یا تین کلک پر کرسکتا تھا اور اسے کسی قسم کی محنت کی ضرورت بھی نہیں تھی۔</p>

<p>ان تصاویر کو خواتین کو ہراساں کرنے کے لیے استعمال کیا جاسکتا تھا اور متاثرہ افراد کے لیے صورتحال سے نمٹنا بھی آسان نہیں ہوتا۔</p>

<p>اس ایپ کو تیار کرنے والے کا نام البرٹو بتایا جاتا ہے جس نے ٹیکنالوجی سائٹ <a href="https://www.theverge.com/2019/6/27/18761496/deepnude-shuts-down-deepfake-nude-ai-app-women">دی ورج</a> کو بتایا کہ اس کا ماننا ہے کہ اگر وہ یہ کام نہ کرتا تو کوئی اور جلد کرلیتا، کیونکہ ٹیکنالوجی تیار ہے (بلکہ ہر ایک کی رسائی میں)۔</p>

<p>اس ٹیم نے ٹوئیٹ میں لکھا 'دنیا ابھی اس طرح کی ٹیکنالوجی کے لیے تیار نہیں اور ابھی مزید وقت چاہیے۔</p>
]]></content:encoded>
      <category>Tech</category>
      <guid>https://www.dawnnews.tv/news/1105985</guid>
      <pubDate>Fri, 28 Jun 2019 18:50:09 +0500</pubDate>
      <author>none@none.com (ویب ڈیسک)</author>
      <media:content url="https://i.dawn.com/large/2019/06/5d161836ae63a.jpg" type="image/jpeg" medium="image" height="480" width="800">
        <media:thumbnail url="https://i.dawn.com/thumbnail/2019/06/5d161836ae63a.jpg"/>
        <media:title>— رائٹرز فوٹو
</media:title>
      </media:content>
    </item>
  </channel>
</rss>
