جنریٹیو ڈیٹا انٹیلی جنس

ایک بچے کی طرح، یہ دماغ سے متاثر AI اپنی وجہ کی وضاحت کر سکتا ہے۔

تاریخ:

بچے قدرتی سائنسدان ہیں۔ وہ دنیا کا مشاہدہ کرتے ہیں، مفروضے بناتے ہیں اور ان کی جانچ کرتے ہیں۔ آخر کار، وہ اپنی (بعض اوقات انتہائی مزاحیہ) استدلال کی وضاحت کرنا سیکھتے ہیں۔

AI، اتنا زیادہ نہیں۔ اس میں کوئی شک نہیں کہ گہری سیکھنے - دماغ پر مبنی مشین لرننگ کی ایک قسم - ڈرامائی طور پر ٹیکنالوجی کو تبدیل کر رہی ہے۔ انتہائی موسمی نمونوں کی پیشین گوئی سے لے کر نئی دوائیاں ڈیزائن کرنے یا مہلک کینسر کی تشخیص تک، AI کو تیزی سے مربوط کیا جا رہا ہے۔ سائنس کی سرحدیں.

لیکن گہری سیکھنے میں ایک بہت بڑی خرابی ہے: الگورتھم اپنے جوابات کا جواز پیش نہیں کر سکتے۔ جسے اکثر "بلیک باکس" کا مسئلہ کہا جاتا ہے، یہ دھندلاپن زیادہ خطرے والے حالات میں، جیسے کہ ادویات میں ان کے استعمال کو روکتا ہے۔ زندگی بدلنے والی بیماری کی تشخیص ہونے پر مریض وضاحت چاہتے ہیں۔ ابھی کے لیے، گہری سیکھنے پر مبنی الگورتھم — خواہ وہ اعلیٰ تشخیصی درستگی کے حامل ہوں — وہ معلومات فراہم نہیں کر سکتے۔

بلیک باکس کو کھولنے کے لیے، یونیورسٹی آف ٹیکساس ساؤتھ ویسٹرن میڈیکل سینٹر کی ایک ٹیم نے انسانی ذہن کو متاثر کرنے کے لیے ٹیپ کیا۔ میں پڑھائی in فطرت کمپیوٹیشن سائنس، انہوں نے دماغی نیٹ ورکس کے مطالعہ کے اصولوں کو ایک زیادہ روایتی AI نقطہ نظر کے ساتھ جوڑ دیا جو قابل وضاحت عمارت کے بلاکس پر انحصار کرتا ہے۔

نتیجے میں AI تھوڑا سا بچے کی طرح کام کرتا ہے۔ یہ مختلف قسم کی معلومات کو "حبس" میں سمیٹتا ہے۔ پھر ہر حب کو انسانوں کے پڑھنے کے لیے کوڈنگ کے رہنما خطوط میں نقل کیا جاتا ہے — پروگرامرز کے لیے CliffsNotes جو سادہ انگریزی میں ڈیٹا میں پائے جانے والے نمونوں کے بارے میں الگورتھم کے نتائج کی وضاحت کرتے ہیں۔ یہ آزمانے کے لیے مکمل طور پر قابل عمل پروگرامنگ کوڈ بھی تیار کر سکتا ہے۔

"ڈیپ ڈسٹلنگ" کے نام سے موسوم AI سائنسدان کی طرح کام کرتا ہے جب مختلف کاموں جیسے مشکل ریاضی کے مسائل اور تصویر کی شناخت کے ساتھ چیلنج کیا جاتا ہے۔ ڈیٹا کے ذریعے رمجنگ کرکے، AI اسے مرحلہ وار الگورتھم میں ڈسٹل کرتا ہے جو انسانوں کے ڈیزائن کردہ کو پیچھے چھوڑ سکتا ہے۔

"گہری کشید انسانی مہارت کی تکمیل کے قابل عمومی اصولوں کو دریافت کرنے کے قابل ہے،" لکھا ہے ٹیم اپنے پیپر میں۔

کاغذ پتلا۔

AI بعض اوقات حقیقی دنیا میں غلطی کرتا ہے۔ روبوٹیکس لیں۔ پچھلے سال، کچھ لوگ بار بار سان فرانسسکو کے محلے میں پھنس گئے — جو مقامی لوگوں کے لیے پریشانی کا باعث تھا، لیکن پھر بھی ان کی ہنسی چھوٹ گئی۔ زیادہ سنجیدگی سے، خود سے چلنے والی گاڑیوں نے ٹریفک اور ایمبولینسوں کو روکا اور، ایک معاملے میں، ایک پیدل چلنے والے کو بہت نقصان پہنچا۔

صحت کی دیکھ بھال اور سائنسی تحقیق میں، خطرات بھی زیادہ ہو سکتے ہیں۔

بیروت کی امریکن یونیورسٹی کے ڈاکٹر جوزف بکرجی، جو اس مطالعے میں شامل نہیں تھے، جب ان ہائی رسک ڈومینز کی بات آتی ہے، تو الگورتھم کو "غلطی کے لیے کم برداشت کی ضرورت ہوتی ہے۔" لکھا ہے کام کے بارے میں ایک ساتھی ٹکڑے میں۔

زیادہ تر گہری سیکھنے والے الگورتھم کے لیے رکاوٹ ان کی ناقابلِ وضاحت ہے۔ وہ کثیر پرتوں والے نیٹ ورکس کے طور پر بنائے گئے ہیں۔ بہت ساری خام معلومات لے کر اور فیڈ بیک کے لاتعداد راؤنڈ حاصل کر کے، نیٹ ورک بالآخر درست جوابات پیدا کرنے کے لیے اپنے رابطوں کو ایڈجسٹ کرتا ہے۔

یہ عمل گہری سیکھنے کا مرکز ہے۔ لیکن جب کافی ڈیٹا نہ ہو یا کام بہت پیچیدہ ہو تو یہ جدوجہد کرتا ہے۔

2021 میں واپس، ٹیم ایک AI تیار کیا۔ جس نے ایک مختلف طریقہ اختیار کیا۔ "علامتی" استدلال کہلاتا ہے، عصبی نیٹ ورک ڈیٹا کا مشاہدہ کرکے واضح اصولوں اور تجربات کو انکوڈ کرتا ہے۔

گہری سیکھنے کے مقابلے میں، علامتی نمونے لوگوں کے لیے تشریح کرنا آسان ہیں۔ AI کو لیگو بلاکس کے ایک سیٹ کے طور پر سوچیں، ہر ایک کسی چیز یا تصور کی نمائندگی کرتا ہے۔ وہ تخلیقی طریقوں سے ایک ساتھ فٹ ہو سکتے ہیں، لیکن رابطے واضح اصولوں کی پیروی کرتے ہیں۔

بذات خود، AI طاقتور لیکن ٹوٹنے والا ہے۔ یہ عمارت کے بلاکس کو تلاش کرنے کے لیے پچھلے علم پر بہت زیادہ انحصار کرتا ہے۔ جب پیشگی تجربے کے بغیر کسی نئی صورتحال کے ساتھ چیلنج کیا جاتا ہے، تو یہ باکس سے باہر نہیں سوچ سکتا — اور یہ ٹوٹ جاتا ہے۔

یہ وہ جگہ ہے جہاں نیورو سائنس آتی ہے۔ ٹیم کو کنیکٹومز سے متاثر کیا گیا تھا، جو اس بات کے نمونے ہیں کہ دماغ کے مختلف علاقے ایک ساتھ کیسے کام کرتے ہیں۔ اس رابطے کو علامتی استدلال کے ساتھ جوڑ کر، انہوں نے ایک AI بنایا جس کی ٹھوس، قابل وضاحت بنیادیں ہیں، لیکن جب نئی پریشانیوں کا سامنا کرنا پڑتا ہے تو وہ لچکدار طریقے سے ڈھال سکتا ہے۔

کئی ٹیسٹوں میں، "اعصابی علمی" ماڈل نے دوسرے گہرے اعصابی نیٹ ورکس کو ان کاموں پر شکست دی جن کے لیے استدلال کی ضرورت تھی۔

لیکن کیا اس کی وضاحت کرنے کے لیے ڈیٹا اور انجینئر الگورتھم کا احساس ہوسکتا ہے؟

ایک انسانی لمس

سائنسی دریافت کے سب سے مشکل حصوں میں سے ایک شور مچانے والے ڈیٹا کا مشاہدہ کرنا اور نتیجہ اخذ کرنا ہے۔ یہ عمل وہ ہے جو نئے مواد اور ادویات، حیاتیات کی گہری سمجھ اور ہماری طبعی دنیا کے بارے میں بصیرت کا باعث بنتا ہے۔ اکثر، یہ ایک بار بار ہونے والا عمل ہے جس میں سالوں لگتے ہیں۔

AI چیزوں کو تیز کرنے اور ممکنہ طور پر ایسے نمونوں کو تلاش کرنے کے قابل ہو سکتا ہے جو انسانی دماغ سے بچ گئے ہوں۔ مثال کے طور پر، گہرائی سے سیکھنا خاص طور پر پروٹین کے ڈھانچے کی پیشین گوئی میں مفید رہا ہے، لیکن ان ڈھانچوں کی پیشین گوئی کے لیے اس کی استدلال کو سمجھنا مشکل ہے۔

"کیا ہم سیکھنے کے الگورتھم کو ڈیزائن کر سکتے ہیں جو مشاہدات کو سادہ، جامع اصولوں میں تقسیم کرتے ہیں جیسا کہ انسان عام طور پر کرتے ہیں؟" بکر جی نے لکھا۔

نئی تحقیق نے ٹیم کے موجودہ نیورو کوگنیٹو ماڈل کو لیا اور اسے ایک اضافی ٹیلنٹ دیا: کوڈ لکھنے کی صلاحیت۔

ڈیپ ڈسٹلنگ کہلاتا ہے، AI اسی طرح کے تصورات کو ایک ساتھ گروپ کرتا ہے، جس میں ہر مصنوعی نیورون ایک مخصوص تصور اور اس کا دوسروں سے تعلق کو انکوڈنگ کرتا ہے۔ مثال کے طور پر، ایک نیوران بلی کا تصور سیکھ سکتا ہے اور جانتا ہے کہ یہ کتے سے مختلف ہے۔ ایک اور قسم تبدیلی کو سنبھالتی ہے جب کسی نئی تصویر کے ساتھ چیلنج کیا جاتا ہے — کہو، ایک شیر — یہ تعین کرنے کے لیے کہ آیا یہ بلی یا کتے کی طرح ہے۔

یہ مصنوعی نیوران پھر ایک درجہ بندی میں اسٹیک ہوتے ہیں۔ ہر پرت کے ساتھ، نظام تیزی سے تصورات کو مختلف کرتا ہے اور آخر کار ایک حل تلاش کرتا ہے۔

AI میں زیادہ سے زیادہ ڈیٹا کی کمی کے بجائے، تربیت مرحلہ وار ہوتی ہے — تقریباً ایک چھوٹے بچے کو سکھانے کی طرح۔ یہ AI کے استدلال کا اندازہ لگانا ممکن بناتا ہے کیونکہ یہ آہستہ آہستہ نئے مسائل کو حل کرتا ہے۔

بکرجی نے وضاحت کی کہ معیاری اعصابی نیٹ ورک کی تربیت کے مقابلے میں، خود وضاحتی پہلو AI میں بنایا گیا ہے۔

ایک ٹیسٹ میں، ٹیم نے AI کو ایک کلاسک ویڈیو گیم - Conway's Game of Life کے ساتھ چیلنج کیا۔ سب سے پہلے 1970 کی دہائی میں تیار کیا گیا، یہ گیم ایک ڈیجیٹل سیل کو مختلف نمونوں میں بڑھانے کے بارے میں ہے جس میں ایک مخصوص اصول دیے گئے ہیں (اسے خود آزمائیں۔ یہاں)۔ مصنوعی گیم پلے ڈیٹا پر تربیت یافتہ، AI ممکنہ نتائج کی پیشین گوئی کرنے اور اپنے استدلال کو انسانی پڑھنے کے قابل رہنما خطوط یا کمپیوٹر پروگرامنگ کوڈ میں تبدیل کرنے میں کامیاب رہا۔

AI نے متعدد دیگر کاموں میں بھی اچھی طرح سے کام کیا، جیسے کہ تصاویر میں لائنوں کا پتہ لگانا اور ریاضی کے مشکل مسائل کو حل کرنا۔ کچھ معاملات میں، اس نے تخلیقی کمپیوٹر کوڈ تیار کیا جس نے قائم شدہ طریقوں سے بہتر کارکردگی کا مظاہرہ کیا — اور اس کی وجہ بتانے کے قابل تھا۔

گہری کشید جسمانی اور حیاتیاتی علوم کے لیے ایک فروغ ہو سکتی ہے، جہاں سادہ پرزے انتہائی پیچیدہ نظاموں کو جنم دیتے ہیں۔ اس طریقہ کار کے لیے ایک ممکنہ درخواست محققین کے لیے بطور شریک سائنسدان ہے جو ڈی این اے کے افعال کو ڈی کوڈ کر رہے ہیں۔ ہمارے ڈی این اے کا زیادہ تر حصہ "تاریک مادہ" ہے، جس میں ہم نہیں جانتے کہ اس کا کیا کردار ہے۔ قابل وضاحت AI ممکنہ طور پر جینیاتی ترتیب کو خراب کر سکتا ہے اور جینیاتی ماہرین کو نایاب تغیرات کی نشاندہی کرنے میں مدد کر سکتا ہے جو تباہ کن موروثی بیماریوں کا سبب بنتے ہیں۔

تحقیق سے باہر، ٹیم مضبوط AI-انسانی تعاون کے امکان پر پرجوش ہے۔

"اعصابی علامتی نقطہ نظر ٹیم نے لکھا۔

بکر جی متفق ہیں۔ نیا مطالعہ "تکنیکی ترقی سے آگے بڑھتا ہے، اخلاقی اور سماجی چیلنجوں کو چھوتا ہے جن کا ہم آج سامنا کر رہے ہیں۔" وضاحت ایک ریل کی طرح کام کر سکتی ہے، جس سے اے آئی سسٹمز کو انسانی اقدار کے ساتھ ہم آہنگ ہونے میں مدد ملتی ہے کیونکہ وہ تربیت یافتہ ہیں۔ ہائی رسک ایپلی کیشنز کے لیے، جیسے کہ طبی دیکھ بھال، یہ اعتماد پیدا کر سکتی ہے۔

ابھی کے لیے، الگورتھم ان مسائل کو حل کرتے وقت بہترین کام کرتا ہے جنہیں تصورات میں تقسیم کیا جا سکتا ہے۔ یہ مسلسل ڈیٹا سے نمٹ نہیں سکتا، جیسے ویڈیو اسٹریمز۔

بکرجی نے لکھا، یہ گہری کشید کا اگلا مرحلہ ہے۔ یہ "سائنسی کمپیوٹنگ اور نظریاتی تحقیق میں نئے امکانات کھولے گا۔"

تصویری کریڈٹ: 7AV 7AV / Unsplash سے 

اسپاٹ_مگ

تازہ ترین انٹیلی جنس

اسپاٹ_مگ