مہر میڈیا گروپ کے سی ای او محمد مہدی رحمتی نے ماسکو میں برکس میڈیا سربراہی اجلاس سے خطاب کرتے ہوئے کہا ہے کہ مصنوعی ذہانت (AI) میں بڑی صلاحیت کی حامل ایپلی کیشنز ہیں جو میڈیا انڈسٹری کو متاثر کر سکتی ہیں۔

مہر خیبر رساں ایجنسی کے سینٹرل ایگزیکٹیو آفیسر کی گفتگو کا متن حسب ذیل ہے:

تمام ساتھیوں اور معزز مہمانوں کو سلام! مجھے ایک بار پھر OANA اجلاس میں شرکت پر خوشی حاصل ہوئی ہے کہ جہاں ہم اپنے ممالک کی نیوز ایجنسیز کے مینیجرز کے طور پر درپیش مسائل اور چیلنجوں پر بات کر سکتے ہیں۔ 

جیسا کہ ہم اس سیشن میں مصنوعی ذہانت (AI) پر زیادہ توجہ مرکوز کرتے ہیں، میں اس دلچسپ اور چیلنجنگ موضوع پر اپنے خیالات کا اظہار کرنا چاہوں گا۔

سب سے پہلے یہ سوال ہمارے سامنے ہے کہ AI کیا ہے اور اسے میڈیا میں کیسے استعمال کیا جاتا ہے؟ 

مصنوعی ذہانت سے مراد ایسے کاموں کو انجام دینے کے لیے کمپیوٹر سسٹم اور الگورتھم کا استعمال کرنا ہے جن کے لیے عام طور پر انسانی ذہانت کی ضرورت ہوتی ہے۔

 میڈیا انڈسٹری میں، AI تیزی سے عام ہو رہا ہے اور اس میں ایپلی کیشنز ہیں جیسے:

 جعلی خبروں کا پتہ لگانا - قارئین کے لیے مواد کو ذاتی بنانا -

سوشل میڈیا کا انتظام - اشتہارات کو نشانہ بنانا - تلاش اور مواد کی دریافت کو بہتر بنانا اگرچہ یہ مفید ایپلی کیشنز ہیں، لیکن ہمیں AI سے منسلک خاص طور پر اخلاقی نقطہ نظر سے چیلنجوں اور خطرات سے بھی آگاہ ہونا چاہیے۔

یہاں ہنری کسنجر کا ایک اقتباس نقل کرنا چاہوں گا کہ کسنجر نے اپنی کتاب "The Age of AI اور ہمارا انسانی مستقبل" میں کہا کہ مصنوعی ذہانت نہ صرف بے مثال طریقوں سے ڈیٹا پر کارروائی اور تجزیہ کرنے کی صلاحیت کو بڑھاتی ہے، بلکہ یہ بنیادی طور پر چیلنج بھی کرتی ہے کہ انسان کیسے فیصلے کرتے ہیں، یہ ٹیکنالوجی ہمیں دکھاتی ہے کہ انسانی تخلیقی صلاحیتوں، تجربے اور فیصلے کو نئے سرے سے متعین کرنے کی ضرورت پڑسکتی ہے، کیونکہ مشینیں انسان کے کاموں میں ہم سے آگے نکل جاتی ہیں۔ 

اس سے یہ سوال پیدا ہوتا ہے کہ ایک ایسی دنیا میں جہاں AI مرکزی کردار ادا کرتا ہے، کیا چیز انسانوں کو غیر انسانوں سے ممتاز کرتی ہے؟ 

مزید برآں یہ کتاب AI کے خطرات کے بارے میں درجہ ذیل تشویش کا اظہار کرتی ہے: 

1. نگرانی اور رازداری: AI کا وسیع استعمال رازداری کی خلاف ورزیوں کا باعث بن سکتا ہے۔ 

2. خودکار فیصلہ سازی: AI کے ذریعے کیے گئے فیصلے انسانی اور اخلاقی پہلوؤں پر غور کیے بغیر کیے جا سکتے ہیں۔

 3. تعصب اور ناانصافی: AI الگورتھم غلط ڈیٹا یا ڈیٹا میں موروثی تعصبات کی وجہ سے متعصبانہ فیصلے کر سکتے ہیں۔ 

4. جنگ اور سلامتی: جنگ اور سیکورٹی میں AI کا استعمال تشدد اور عدم استحکام کو بڑھا سکتا ہے۔ حال ہی میں، 60 ممالک کے سفیروں نے جنوبی کوریا میں AI کی غلطیوں سے بچنے کے لیے حساس ملٹری اور انٹیلی جنس صنعتوں میں AI کی توسیع کو محدود کرنے کے لیے ایک معاہدے پر دستخط کئے۔

کچھ معاصر اسکالرز AI کے فلسفے اور وجود کو بھی بنیادی طور پر ناقص قرار دیتے ہوئے اس کی بددیانتی پر غور کرتے ہیں۔ مثال کے طور پر، ایک روسی ماہر سیاسیات الیگزینڈر ڈوگین نے ایک ایرانی عالم دین، آیت اللہ میرباقری سے ملاقات میں ذکر کیا: "جدیدیت کہ جس میں AI جیسی جدید ٹیکنالوجیز شامل ہیں، میرے لیے ایک نامکمل اور خطرناک نظریہ ہے۔ یہ ٹیکنالوجیز روایات اور انسانی اقدار کی تباہی کا باعث بن سکتی ہیں۔"  مصنوعی ذہانت کا استعمال ثقافت اور میڈیا کے شعبوں میں ہمارے لیے ایک انتباہ کا کام کرتا ہے:

روایات اور انسانی اقدار کو مٹانے کا خطرہ!

آئی اے کے نقصانات کی کچھ مثالوں پر بات کرنے کے بعد، آئیے میڈیا میں AI کے استعمال سے پیدا ہونے والے کچھ اخلاقی مسائل کو دیکھتے ہیں، جو ہمارے لیے سنگین چیلنجز کا باعث ہیں:

1. الگورتھمک شفافیت: AI سسٹم اکثر "بلیک باکس" کے طور پر کام کرتے ہیں، یعنی ماہرین بھی ہمیشہ یہ نہیں سمجھتے کہ وہ مخصوص فیصلوں تک کیسے پہنچتے ہیں۔ شفافیت کی یہ کمی AI پر عوامی اعتماد کو کم کر سکتی ہے، خاص طور پر جب خبروں یا معلومات کی فراہمی کے لیے استعمال کیا جائے۔

2. تعصب اور امتیازی سلوک: AI سسٹمز ڈیٹا سے سیکھتے ہیں، اور اگر اس ڈیٹا میں تعصبات ہوتے ہیں، تو AI ان تعصبات کی عکاسی کر سکتا ہے اور یہاں تک کہ اسے بڑھا سکتا ہے۔ مثال کے طور پر، AI نظام نادانستہ طور پر اپنے تیار کردہ مواد میں نسلی، صنفی یا سیاسی تعصبات پھیلا سکتے ہیں، جس کے نتیجے میں غیر منصفانہ اور نقصان دہ نتائج برآمد ہوتے ہیں۔

 3. رازداری کے مسائل: AI سسٹم اکثر ذاتی ڈیٹا کی بڑی مقدار اکٹھا اور تجزیہ کرتے ہیں۔ اگرچہ اس سے میڈیا کمپنیوں کو مزید ذاتی نوعیت کا مواد پیش کرنے میں مدد مل سکتی ہے، لیکن اس سے رازداری افشا ہونے کے خدشات بھی بڑھتے ہیں۔ کمپنیوں کو اس بارے میں بہت محتاط رہنا چاہیے کہ وہ افراد کے رازداری کے حقوق کی خلاف ورزی سے بچنے کے لیے اس ڈیٹا کو کس طرح استعمال کرتی ہیں۔

 4. آئی اے سے تیار کردہ خبروں پر بھروسہ: AI تیزی سے خبروں کے مضامین تیار کر سکتا ہے، لیکن اس کا لازمی مطلب یہ نہیں ہے کہ معلومات قابل اعتماد ہیں۔ لوگ خبروں کی ساکھ پر شک کرنا شروع کر سکتے ہیں اگر انہیں معلوم ہو کہ یہ انسانی صحافی کے بجائے مشین کے ذریعے تیار کی گئی ہیں۔

 5. AI پر زیادہ انحصار: جیسا کہ AI مزید کام کرتا ہے، اس بات کا خطرہ ہوتا ہے کہ ہم صحافیوں کی طرف سے فراہم کردہ تنقیدی سوچ، تخلیقی صلاحیتوں اور انسانی تجزیہ سے محروم ہو کر اس پر بہت زیادہ انحصار کر سکتے ہیں۔ یہ میڈیا کے مجموعی معیار میں کمی کا باعث بن سکتا ہے۔


 6. غلط معلومات کا پھیلاؤ: AI سسٹمز کی اگر احتیاط سے نگرانی نہ کی جائے تو، غلط معلومات کو تیزی سے پھیلا سکتے ہیں، خاص طور پر بحرانوں کے دوران اس کے خطرناک نتائج ہو سکتے ہیں، جیسے لوگوں میں خوف یا انتشار پیدا کرنا۔

 7. قانونی اور جوابدہی کے مسائل: اگر کوئی AI سسٹم غلطی کرتا ہے، جیسے کہ جعلی خبریں یا امتیازی مواد پھیلانا، تو کون ذمہ دار ہے؟ اے آئی ڈویلپر، میڈیا کمپنی، یا کوئی اور؟ فی الحال، ان سوالات کا جواب دینے کے لیے کوئی واضح قانونی فریم ورک موجود نہیں ہے۔ 

8. ملازمت کے نقصانات: چونکہ AI میڈیا انڈسٹری میں زیادہ کام کرتا ہے، بہت سی ملازمتیں کھونے کا خدشہ ہے، خاص طور پر صحافیوں اور مواد تخلیق کرنے والوں کے لیے۔ یہ میڈیا میں نقطہ نظر کے تنوع اور تیار کردہ مواد کے معیار کو متاثر کر سکتا ہے۔

 9. عوامی رائے کو متاثر کرنا: میڈیا آرگنائزیشنز AI کا استعمال رائے عامہ پر اثر انداز ہونے یا ان میں ہیرا پھیری کے لیے ڈیزائن کردہ مواد بنانے کے لیے کر سکتی ہیں، جو جمہوریت اور عوامی اعتماد کو نقصان پہنچا سکتی ہیں۔ 

حل اور بین الاقوامی تعاون کا کردار:

 ان چیلنجوں کو دیکھتے ہوئے، اہم سوال یہ ہے کہ ہم میڈیا میں AI کے اخلاقی خدشات کو دور کرنے کے لیے کیا کر سکتے ہیں؟ 

ہمارے پاس ایک عالمی برادری کے طور پر اور خاص طور پر آرگنائزیشن آف ایشیا پیسیفک نیوز ایجنسیز (OANA) کے فریم ورک کے اندر، اخلاقی رہنما خطوط کی وضاحت اور تخلیق میں اہم کردار ادا کرنے کا موقع ہے جسں میں یہ ہدایات میں شامل ہونی چاہئیں: 

1. عالمی اخلاقی رہنما خطوط قائم کرنا: میڈیا میں AI کے اخلاقی استعمال کے لیے واضح اصول و ضوابط طے کرنا ضروری ہے۔ OANA اپنی ممبر ایجنسیوں کو سائنس کے بہترین طریقوں کا اشتراک کرنے میں مدد کر سکتا ہے تاکہ یہ یقینی بنایا جا سکے کہ AI کا استعمال ذمہ داری اور شفاف طریقے سے کیا جائے۔

 2. میڈیا پروفیشنلز کی تربیت: صحافیوں، ایڈیٹرز، اور میڈیا کے دیگر پیشہ ور افراد کو AI کے اخلاقی استعمال کے بارے میں تربیت کی ضرورت ہے۔ AI کے ذمہ دارانہ استعمال کے بارے میں بیداری پیدا کرنے کے لیے OANA رکن ممالک میں ورکشاپس اور تربیتی سیشنز کے انعقاد میں اہم کردار ادا کر سکتا ہے۔

 3. آئی اے سسٹمز کی نگرانی: ہمیں ایسے سسٹمز کی ضرورت ہے جو ممکنہ تعصبات یا غلطیوں کے لیے AI کی مسلسل نگرانی کرتے رہیں۔ اس قسم کی بین الاقوامی نگرانی، OANA کے ذریعے تعاون یافتہ، ان نظاموں کی درستگی اور انصاف کو یقینی بنانے میں مدد فراہم کر سکتی ہے۔

4- مشترکہ پالیسیاں تیار کرنا: OANA میڈیا میں اخلاقی AI کے استعمال کو فروغ دینے کے لیے نیوز ایجنسیوں کے درمیان مشترکہ پالیسیاں تیار کرنے کے لیے ایک پلیٹ فارم فراہم کر سکتا ہے۔ مل کر کام کرنے سے، ہم ایک ایسا میڈیا ماحول بنا سکتے ہیں جہاں AI معیار، اعتماد اور جوابدہی کو بہتر بنانے میں مدد کرتا ہے۔ 

 جیسے کہ تجربات کا اشتراک، AI کی نگرانی کے لیے ضابطے مرتب کرنا، اور خبر رساں ایجنسیوں کے درمیان مشترکہ تربیتی سیشنز کا انعقاد۔ مل کر کام کرنے سے، ہم AI کے بارے میں زیادہ سے زیادہ آگاہی اور اسے استعمال کرنے کے اخلاقی طریقوں کی طرف اپنے نیوز رومز کی بہتر رہنمائی کر سکتے ہیں۔

مزید برآں، جیسا کہ میں نے گزشتہ سربراہی اجلاس میں کہا تھا، میں غزہ کے مظلوم عوام کی مزاحمت کا احترام کرنا چاہوں گا، یہ وہ لوگ ہیں جو انتہائی سفاکانہ اور غیر انسانی حملوں اور نسل کشی کے خلاف اپنی مزاحمت جاری رکھے ہوئے ہیں اور اب بھی آزادی کے حصول اور امن کے قیام کی امید پر میدان میں کھڑے ہیں، لہذا ہم غزہ کو نہیں بھولیں گے!