مصنوعی ذہانت پر تحقیق کرنے والی کمپنی ’اوپن اے آئی‘ کا کہنا ہے کہ رواں سال دنیا کے مختلف ممالک میں ہونے والے عام انتخابات سے قبل غلط معلومات سے نمٹنے کے لیے نیا ٹول متعارف کررہا ہے۔

مصنوعی ذہانت پر تحقیق کرنے والی کمپنی ’اوپن اے آئی‘ کی جانب سے نومبر 2022 کے اواخر میں چیٹ جی پی ٹی کے نام سے ایک چیٹ باٹ لانچ کیا گیا تھا جسے ایک ہفتے کے اندر 10 لاکھ سے زیادہ صارفین نے استعمال کرنا شروع کر دیا تھا۔

چیٹ جی پی ٹی کی کامیابی نے مصنوعی ذہانت میں انقلاب کو جنم دیا لیکن ساتھ ہی خبردار کیا کہ اس طرح کے ٹولز انٹرنیٹ پر غلط معلومات پھیلا سکتے ہیں جس سے عام انتخابات بھی متاثر ہوسکتے ہیں۔

غیر ملکی خبر رساں ادارے اے ایف پی کے مطابق رواں امریکا، بھارت اور برطانیہ سمیت کم ازکم 64 ممالک میں انتخابات ہونے والے ہیں، اوپن اے آئی کا کہنا ہے کہ وہ چیٹ جی پی ٹی اور امیج جنریٹر DALL-E 3 کو سیاسی مہم کے لیے استعمال کرنے کی اجازت نہیں دے گا۔

اوپن اے آئی نے ایک بلاگ پوسٹ میں کہا کہ ’ہم اس بات کو یقینی بنانا چاہتے ہیں کہ ہماری ٹیکنالوجی کو اس طرح استعمال نہ کیا جائے جس سے جمہوری عمل کو نقصان پہنچے۔‘

اوپن فی الحال یہ سمجھنے کی کوشش کررہا ہے کہ ان کے ٹولز کس حد تک عام لوگوں کی رائے کو متاثر کرسکتا ہے،جب تک ہمیں معلومات نہیں مل جاتی ہم لوگوں کو سیاسی مہم اور لابنگ کی اجازت نہیں دے سکتے۔

ورلڈ اکنامک فورم نے حال ہی میں خبردار کیا ہے کہ غلط معلومات پھیلانے کے لیے اے آئی کا استعمال عالمی خطرہ ہے، یہ بڑی معیشتوں میں نومنتخب حکومتوں کے لیے ان کی ساکھ کو نقصان پہنچا کر خطرے کا باعث بن سکتا ہے۔

ماہرین کا کہنا ہے کہ انتخاب کے دوران غلط معلومات کے بارے میں خدشات برسوں سے موجود ہیں، تاہم جعلی ٹیکسٹ اور تصاویر بنانے کے لیے اے آئی ٹولز کا استعمال صورتحال کو مزید بگاڑ سکتا ہے۔

ان کا کہنا ہے کہ اب خطرہ بڑھ گیا ہے، خاص طور پر اس وجہ سے کہ صارفین کے لیے یہ فرق کرنا زیادہ مشکل ہوتا جا رہا ہے کہ آیا ان کے سامنے آنے والا مواد اصلی ہے یا نقلی ہے۔

اس دوران اوپن اے آئی کا کہنا ہے کہ وہ ایسے ٹولز پر کام کر رہا ہے جو چیٹ جی پی ٹی کے ذریعے تیار کردہ ٹیکسٹ پر اپنے آپ کو کریڈٹ دے گا کہ یہ چیٹ جی پی ٹی کے ذریعے لکھا گیا ہے اور صارفین آسانی سے معلوم کرسکیں گے کہ یہ تصویر کو یہ پتہ لگانے کی صلاحیت بھی دیں گے کہ آیا مصنوعی ذہانت کے امیج جنریٹر کی مدد سے بنائی گئی ہے۔

ضرور پڑھیں

تبصرے (0) بند ہیں