Live Updates

جانیے مصنوعی ذہانت ’قاتل ڈرونوں‘ کو کیسے زیادہ مہلک بنا دے گی؟

یو این پیر 2 جون 2025 20:45

جانیے مصنوعی ذہانت ’قاتل ڈرونوں‘ کو کیسے زیادہ مہلک بنا دے گی؟

اسلام آباد (اُردو پوائنٹ ۔ UN اردو۔ 02 جون 2025ء) ایسی دنیا اب تصوراتی بات نہیں رہی جہاں الگورتھم ہی فوجیوں اور شہریوں دونوں کی قسمت کا فیصلہ کریں گے۔ مصنوعی ذہانت سے چلنے والے ڈرون جنگ کی شکل تبدیل کر رہے ہیں جس سے کسی لڑائی میں خوداختیاری کے بارے میں کڑے اخلاقی سوالات جنم لے رہے ہیں۔

عالمی پالیسی ساز جنگ کے اصول و قوانین طے کرنے کی کوششوں میں لگے ہیں اور ایسے میں تیزی سے تبدیل ہوتی اور ترقی پاتی اس ٹیکنالوجی کو قابو میں رکھنے کی کوشش بھی جاری ہے۔

انسان روزانہ خود ہی مشینوں کو اپنے بارے میں اطلاعات مہیا کرتے ہیں۔ یہ اس وقت ہوتا ہے جب ہم آن لائن کوکیز کو قبول کرتے یا کوئی سرچ انجن استعمال کرتے ہیں۔ اس وقت کم ہی لوگ یہ سوچتے ہوں گے کہ ان کے بارے میں معلومات کیسے فروخت ہوتی ہیں اور ہم جس آن لائن پیج کو کھولنا چاہتے ہیں اس پر 'رضامند' کے بٹن کو کلک کرنے کے بعد ان معلومات کو ہمیں بطور صارف ہدف بنانے اور کسی ایسی چیز کو خریدنے پر قائل کرنے کے لیے کیسے استعمال کیا جاتا ہے جسے کے بارے میں ہم نہیں جانتے کہ آیا ہمیں اس کی ضرورت ہے یا نہیں۔

(جاری ہے)

یہاں یہ سوال ابھرتا ہے کہ اگر مشینیں ہمارے بارے میں معلومات کو یہ فیصلہ کرنے کے لیے استعمال کریں کہ کسے دشمن کے طور پر نشانہ بنا کر ہلاک کرنے کی ضرورت ہے تو پھر کیا ہو گا؟

اقوام متحدہ اور غیرسرکاری اداروں (این جی اوز) کے ایک گروپ کو یہ تشویش لاحق ہے کہ مستقبل قریب میں واقعتاً ایسا ہو سکتا ہے۔ اسی لیے وہ مہلک خودکار ہتھیاروں (ایل اے ڈبلیو ایس) کے حوالے سے بین الاقوامی ضابطے بنانے کے لیے کہہ رہے ہیں تاکہ مشینوں کو لوگوں کے لیے زندگی اور موت کے انتخاب سے روکا جائے۔

© UNICEF/Oleksii Filippov
اس سال فروری میں یوکرین کے شہر خارکیئو پر روس کی طرف سے سینکڑوں ڈرون حملے کیے گئے۔

تباہ کن سستے ڈرون

یوکرین کے علاقے کیرسون پر کئی ماہ سے روس کے ڈرون حملے جاری ہیں جن میں بنیادی طور پر عام شہریوں کو نشانہ بنایا جا رہا ہے۔ ایسی کارروائیوں میں 150 سے زیادہ شہری ہلاک اور مزید سیکڑوں زخمی ہو چکے ہیں۔ انسانی حقوق پر اقوام متحدہ کے غیرجانبدار تفتیش کاروں نے کہا ہے کہ یہ حملے انسانیت کے خلاف جرائم کے مترادف ہیں۔

اس جنگ میں یوکرین کی فوج بھی بڑے پیمانے پر ڈرون استعمال کر رہی ہے جو اطلاعات کے مطابق، محاذ جنگ پر ایسی جگہوں کو 'ڈرون کی دیوار' سے تحفظ دینے کی منصوبہ بندی پر عمل پیرا ہے جہاں اسے روس کے شدید حملوں کا سامنا ہے۔

کبھی صرف امیر ترین ممالک کے پاس ہی جدید اور مہنگے ڈرون استعمال کرنے کے لیے درکار وسائل اور ٹیکنالوجی ہوتی تھی لیکن یوکرین نے ثابت کیا ہے کہ سستے ڈرون میں بھی چند تبدیلیاں کر کے اسے مہلک ہتھیار میں ڈھالا جا سکتا ہے۔

اب دنیا کے دیگر ممالک بھی یہی کچھ کر رہے ہیں اور اس طرح دور حاضر کی جنگیں تبدیل ہو رہی ہیں۔

قاتل روبوٹ

ڈرون اور دیگر خودکار ہتھیاروں سے بطور 'قاتل روبوٹ' لاحق خطرات نے دور حاضر کی تباہ کن جنگوں کے حوالے سے ہولناک خدشات میں اضافہ کر دیا ہے۔

اقوام متحدہ کے سیکرٹری جنرل انتونیو گوتیرش نے ہمیشہ کہا ہے کہ مشینوں کو انسانی زندگی لینے کا اختیار دینا اخلاقی اعتبار سے ناقابل قبول ہے۔

ادارے میں تخفیف اسلحہ سے متعلق شعبے کی سربراہ ازومی ناکامتسو کا کہنا ہے کہ مشینوں کو جنگی اہداف کا تعین کرنے کی اجازت ہرگز نہیں دی جانی چاہیے بلکہ بین الاقوامی قانون کے تحت اس پر پابندی ہونی چاہیے۔ اقوام متحدہ کا یہی موقف ہے۔

Crown Copyright
افغانستان کی فضاؤں میں اڑتا ہوا ایک ڈرون۔

مشینوں کی حکومت

بین الاقوامی غیرسرکاری ادارے ہیومن رائٹس واچ نے کہا ہے کہ خودکار ہتھیاروں کا استعمال 'ڈیجیٹل سلبِ انسانیت' کی تازہ ترین اور انتہائی سنگین مثال ہو گی جبکہ مصنوعی ذہانت پہلے ہی جرائم کی بیخ کنی، نفاذ قانون اور سرحدی نگرانی و تحفظ کے شعبوں میں ایسے فیصلے کر رہی ہے جو انسانی زندگی پر گہرے اثرات مرتب کرتے ہیں۔

ہیومن رائٹس واچ میں اسلحے کی روک تھام سے متعلق شعبے کی ڈائریکٹر میری وارہیم نے خبردار کیا ہے کہ بہت سے باوسائل ممالک خشکی اور سمندر سے چلائے جانے والے خودکار ہتھیاروں کے نظام تیار کرنے کے لیے مصنوعی ذہانت اور متعلقہ ٹیکنالوجی پر بھاری سرمایہ کاری کر رہے ہیں۔ بنیادی طور پر یہ کام امریکہ نے شروع کیا ہے لیکن روس، چین، اسرائیل اور جنوبی کوریا بھی خودکار ہتھیاروں کے نظام پر بھاری وسائل خرچ کرنے میں مصروف ہیں۔

مصنوعی ذہانت کے ذریعے جنگ کے حامی ٹیکنالوجی کے اس خطرناک استعمال کے جواز میں اکثر یہ دلیل دیتے ہیں کہ فوجی دوران جنگ جذبات اور تھکن کے زیراثر ہدف کے چناؤ اور طاقت کے متناسب استعمال کے حوالے سے غلط کر سکتے ہیں جبکہ انہیں اجرت بھی دینا پڑتی ہے۔ اس سے برعکس رویوں اور نقل و حرکت کو پہچاننے کے حوالے سے مشینوں کی صلاحیت روزبروز بہتر ہو رہی ہے۔

ایسے بعض لوگوں کا یہاں تک کہنا ہے کہ فائر کرنے کا فیصلہ بھی مشین کو ہی کرنا چاہیے۔

تاہم، مشینوں کو میدان جنگ میں مکمل اختیار دینے میں دو قباحتیں ہیں۔ پہلی یہ کہ ٹیکنالوجی بھی غلطیاں کر سکتی ہے اور دوسری یہ ہے کہ اقوام متحدہ اور متعدد دیگر ادارے مہلک خودکار ہتھیاروں کے استعمال کو غیراخلاقی سمجھتے ہیں۔

جنگی جرائم کی ذمہ داری

میری وارہیم کہتی ہیں، یہ کہنا درست نہیں کہ مشینیں جنگی اہداف کو پہچاننے میں غلطی نہیں کر سکتیں۔

جسمانی معذور افراد کو ان سے خاص طور پر خطرہ ہو سکتا ہے کیونکہ وہ بآسانی حرکت نہیں کر سکتے اور مشین انہیں جنگی ہدف سمجھ سکتی ہے۔ ممکن ہے مصنوعی ذہانت کسی کی وہیل چیئر کو جنگی ہتھیار سمجھ لے۔ چہرہ پہچاننے کی ٹیکنالوجی اور دیگر بائیومیٹرک طریقہ کار بھی مختلف لوگوں کو پہچاننے میں غلط کر سکتے ہیں۔ مصنوعی ذہانت میں ابھی بہت سی خامیاں ہیں جن کے پیچھے اسے ترقی دینے والوں کے تعصبات بھی ہوتے ہیں۔

جنگی نظام میں خودکاری کے حوالے سے نیا قانون بنوانے کے لیے مہم چلانے والے اداروں کے اتحاد 'سٹاپ کلرز روبوٹس' کی ایگزیکٹو ڈائریکٹر نکول وان روجین کا کہنا ہے کہ مشینوں پر جنگی جرائم اور دیگر مظالم کی ذمہ داری بھی عائد نہیں کی جا سکتی۔

جب مصنوعی ذہانت کے ذریعے خودکار طریقے سے ہدف کا تعین کرنے والی کوئی مشین بے گناہ لوگوں کو ہلاک کرے گی تو اس کا ذمہ دار کون ہو گا؟ کیا انہیں تیار کرنے والے کو اس کا ذمہ دار قرار دیا جائے گا یا ان کے الگورتھم بنانے والے پر یہ ذمہ داری آئے گی؟ اس طرح اخلاقی حوالے سے کئی سوالات ابھرتے ہیں اور ان مشینوں کا بڑے پیمانے پر استعمال اخلاقی ناکامی ہو گا۔

© Unsplash/Peter Fogden
ڈرون نگرانی کی انتہائی جدید صلاحیت رکھتے ہیں۔

خودکار ہتھیاروں پر پابندی کا خواب

یہ ٹیکنالوجی انتہائی تیز رفتار سے ترقی کر رہی ہے اور مصنوعی ذہانت کے ذریعے اہداف کو نشانہ بنانے والے نظام پہلے ہی میدان جنگ میں استعمال ہو رہے ہیں۔ ان حالات میں ایسی ٹیکنالوجی کے حوالے سے ہنگامی بنیاد پر بین الاقوامی قوانین تشکیل دینے کے مطالبات بھی بڑھتے جا رہے ہیں۔

رواں مہینے اقوام متحدہ کے ہیڈکوارٹر میں اس مسئلے پر ہونے والی غیررسمی بات چیت میں سیکرٹری جنرل انتونیو گوتیرش نے رکن ممالک پر زور دیا تھا کہ وہ ایسے خودکار ہتھیاروں کا استعمال ممنوع قرار دینے کے لیے آئندہ برس تک ایک معاہدہ طے کریں جس کی پابندی قانوناً لازم ہو۔

اس ٹیکنالوجی کو باضابطہ بنانے اور مہلک خود کار ہتھیاروں کے استعمال پر پابندی کے لیے کوششیں نئی نہیں ہیں۔ درحقیقت 2014 میں اقوام متحدہ کے زیراہتمام سوئزرلینڈ میں سفارت کاروں کی ایک کانفرنس میں کہا گیا تھا کہ یہ ہتھیار تخفیف اسلحہ کے ایجنڈے میں سامنے آنے والا ایک نیا اور مشکل مسئلہ ہیں جبکہ اس وقت جنگوں میں خودکار ہتھیاروں کا استعمال شروع نہیں ہوا تھا۔

اس اجلاس میں یہ بھی کہا گیا کہ اس معاملے میں قبل از وقت احتیاطی اقدامات کی ضرورت ہے۔

اب 11 سال کے بعد اس پر بات چیت جاری ہے لیکن کسی ضابطے پر اتفاق رائے تو درکار کنار ابھی تک خودکار ہتھیاروں کی تعریف پر بھی اتفاق نہیں ہو سکا۔ تاہم، اقوام متحدہ اور غیرسرکاری ادارے پرامید ہیں کہ سست روی سے ہی سہی، عالمی برادری اس حوالے سے اہم مسائل پر اتفاق رائے کی جانب ضرور بڑھ رہی ہے۔

سیاسی عزم اور جرات کی ضرورت

نکول روجین کا کہنا ہے کہ تاحال 'خودکار قاتل ہتھیاروں' پر پابندی کے حوالے سے کسی معاہدے کا ابتدائی مسودہ تیار نہیں ہوا۔ تاہم، مخصوص روایتی ہتھیاروں کے استعمال کی روک تھام کے کنونشن کی موجودہ قیادت نے رکن ممالک کو اس حوال سے تجاویز بھیجی ہیں جن پر عملدرآمد ہونے کی صورت میں اس معاملے پر بات چیت شروع ہو سکتی ہے لیکن اس مقصد کے لیے سیاسی عزم اور جرات درکار ہو گی۔

میری وارہیم سمجھتی ہیں کہ اس مسئلے پر رواں مہینے اقوام متحدہ میں ہونے والی بات چیت ایک اہم قدم ہے کم از کم 120 ممالک ان ہتھیاروں پر پابندی کے لیے گفت و شنید کے حامی ہیں۔ اس ضمن میں امن کے لیے کام کرنے والی شخصیات، مصنوعی ذہانت کے ماہرین، ٹیکنالوجی کے شعبے میں کام کرنے والے لوگوں اور مذہبی رہنماؤں کی جانب بڑے پیمانے پر دلچسپی اور حمایت دیکھنے میں آ رہی ہے۔

ازومی ناکامتسو کا کہنا ہے کہ مکمل طور پر خودکار ہتھیاروں کا استعمال ممنوع قرار دینے پر اتفاق رائے بڑھ رہا ہے کیونکہ جب جنگ ہو گی تو کسی نہ کسی جوابدہ ضرور ہونا پڑے گا۔

Live آپریشن بنیان مرصوص سے متعلق تازہ ترین معلومات