دماغ میں معاون ویکٹر مشین

مصنف:چھوٹا سا خواب, تخلیق: 2017-03-23 12:18:01, تازہ کاری:

دماغ میں معاون ویکٹر مشین

سپورٹ ویکٹر مشین (ایس وی ایم) ایک اہم مشین لرننگ درجہ بندی کرنے والا ہے ، جو غیر لکیری تبدیلیوں کا ہنر مند استعمال کرتا ہے جو کم جہتی خصوصیات کو اعلی جہت میں پروجیکٹ کرتا ہے ، جو درجہ بندی کے زیادہ پیچیدہ کاموں کو انجام دیتا ہے (اعلی جہتی ہڑتال) ۔ ایس ڈبلیو ایم ایک ریاضی کی بنیادی مہارت کا استعمال کرتا ہے ، لیکن حقیقت میں یہ دماغ کے کوڈنگ میکانزم کے مطابق ہوتا ہے ، جیسا کہ ہم 2013 میں ایک نیچر پیپر میں پڑھ سکتے ہیں ، مشین لرننگ اور دماغ کے کام کرنے کے طریقہ کار کو سمجھنے کے لئے گہرے رابطے کا استعمال کرتے ہوئے۔ کاغذ کا نام: The importance of mixed selectivity in complex cognitive tasks (by Omri Barak al.))

  • ایس وی ایم

    یہ حیرت انگیز روابط کہاں سے دیکھے جا سکتے ہیں؟ پہلے ہم نیورو کوڈنگ کی نوعیت کے بارے میں بات کرتے ہیں: جانوروں کو ایک خاص سگنل موصول ہوتا ہے اور اس کے مطابق وہ کچھ اعمال انجام دیتے ہیں، ایک بیرونی سگنل کو نیورو الیکٹرک سگنل میں تبدیل کرتا ہے، دوسرا نیورو الیکٹرک سگنل کو فیصلہ سازی کے سگنل میں تبدیل کرتا ہے، پہلا عمل کوڈنگ کہا جاتا ہے، دوسرا عمل کوڈنگ کہا جاتا ہے۔ اور نیورو کوڈنگ کا اصل مقصد بعد میں فیصلہ سازی کا انکوڈنگ کرنا ہے۔ لہذا، مشین سیکھنے کی آنکھوں کے ذریعے کوڈنگ کو دیکھنے کا سب سے آسان طریقہ یہ ہے کہ ایک درجہ بندی کرنے والا، یا یہاں تک کہ ایک لاجسٹک ماڈل کا ایک لکیری درجہ بندی کرنے والا، جو ان پٹ سگنل کو مخصوص خصوصیات کے مطابق الگ الگ درجہ بندی کرتا ہے۔ مثال کے طور پر، ایک ٹائیگر کو بھاگتے ہوئے دیکھنا، ایک مچھلی کو کھا جاتے ہوئے دیکھنا۔ یقیناً، بعض اوقات میکانزم کوڈنگ بھی ہوتی ہے، جیسے کہ جب جسمانی اشارے کو نقل کرنے کی ضرورت ہوتی ہے، تو آپ کو ان اشاروں کو نقل کرنے کی

    تو آئیے دیکھتے ہیں کہ نیورون کوڈنگ کیسے ہوتی ہے۔ سب سے پہلے نیورون کو بنیادی طور پر ایک آر سی سرکٹ کے طور پر دیکھا جاسکتا ہے جس میں بیرونی وولٹیج کے مطابق مزاحمت اور صلاحیت کو ایڈجسٹ کیا جاتا ہے۔ جب بیرونی سگنل کافی بڑا ہوتا ہے تو ، یہ گزرتا ہے ، یا پھر بند ہوجاتا ہے ، اور ایک سگنل کو ایک مخصوص وقت میں خارج ہونے والی تعدد کے ذریعہ ظاہر کرتا ہے۔ اور جب ہم کوڈنگ کے بارے میں بات کرتے ہیں تو ، اکثر وقت کے بارے میں ایک ڈسچارج پروسیسنگ کرتے ہیں ، یہ سوچتے ہیں کہ ایک چھوٹی سی وقت کی ونڈو میں ، اس خارج ہونے والی شرح میں کوئی تبدیلی نہیں ہوتی ہے۔ اس طرح کے نیورون نیٹ ورک میں اس وقت کی ونڈو میں خلیوں کی خارج ہونے والی شرح کو ایک ساتھ دیکھا جاسکتا ہے تاکہ N جہتی مقدار بن سکے ، N نیورون کا ایک حصہ ہے ، یہ N جہتی مقدار ، ہم اسے گھومتے ہیں اور اسے کوڈ گنتی کہتے ہیں ، یہ جانوروں کی طرف دیکھنے والی تصاویر کی نمائندگی کرسکتا ہے ، یا آوازوں کی آوازیں سنتا ہے ، یعنی نیورون نیٹ ورک کی متعلقہ بیرونی

    img

    ڈرائنگ: عمودی محور خلیات ہیں، اور افقی محور وقت ہے، اور اس سے پتہ چلتا ہے کہ ہم کس طرح نیورون کوڈ نکالتے ہیں.

    یقیناً این ڈیمینشن ویکٹر اور نیورو کوڈنگ کے حقیقی طول و عرض میں فرق ہے، نیورو کوڈنگ کے حقیقی طول و عرض کی تعریف کیسے کی جائے؟ پہلے ہم اس این ڈیمینشن ویکٹر کے ذریعہ نشان زد این ڈیمینشن اسپیس میں داخل ہوتے ہیں، پھر ہم آپ کو تمام ممکنہ کام کے مجموعے دیتے ہیں، جیسے کہ آپ کو ایک ہزار تصاویر دکھائیں۔ فرض کریں کہ یہ تصاویر پوری دنیا کی نمائندگی کرتی ہیں، ہر بار جب ہم حاصل کرتے ہیں تو نیورو کوڈنگ کو اس اسپیس کے ایک نقطہ کے طور پر نشان زد کریں، اور آخر میں ہم ویکٹر الجبری سوچ کا استعمال کرتے ہوئے اس ذیلی اسپیس کے طول و عرض کو دیکھیں جو اس ہزار پوائنٹس پر مشتمل ہے، یعنی نیورو کی نمائندگی کا حقیقی طول و عرض۔ میں نے فرض کیا کہ تمام پوائنٹس دراصل اس این ڈیمینشن اسپیس کے ایک حصے پر ہیں، پھر یہ نمائندگی یک جہتی ہے، اسی طرح اگر تمام پوائنٹس اعلیٰ جہتی جگہ کے ایک دو جہتی پہلو پر ہوں، تو یہ دو جہتی ہے۔ سائنس نے دریافت کیا ہے کہ عام طور پر اعلیٰ جہتی کوڈنگ کا استعمال نہیں

    کوڈنگ کے حقیقی طول و عرض کے علاوہ ہمارے پاس ایک تصور بھی ہے جو کہ بیرونی سگنل کا حقیقی طول و عرض ہے، یہاں سگنل کا مطلب یہ ہے کہ بیرونی سگنل نیورل نیٹ ورک کی طرف سے بیان کیا جاتا ہے، اور یقینا آپ کو بیرونی سگنل کی تمام تفصیلات کو دوبارہ کرنا ہے، یہ ایک لامحدود مسئلہ ہے، تاہم ہماری درجہ بندی اور فیصلے کی بنیاد ہمیشہ اہم خصوصیات پر مبنی ہے، یہ ایک ڈسپوزایبل عمل ہے، یہ بھی پی سی اے کا خیال ہے۔ ہم حقیقی کام میں اہم متغیرات کو کام کے حقیقی طول و عرض کے طور پر دیکھ سکتے ہیں، مثال کے طور پر اگر آپ ایک بازو کی تحریک کو کنٹرول کرنا چاہتے ہیں، تو آپ کو عام طور پر صرف جوڑوں کے گردش کے زاویہ کو کنٹرول کرنے کی ضرورت ہے، اگر آپ اسے صرف ایک جسمانی میکانکس مسئلہ کے طور پر دیکھتے ہیں، تو طول و عرض 10 سے زیادہ نہیں ہو گا، ہم اسے K کہتے ہیں. یہاں تک کہ اگر آپ کو چہرے کی شناخت کا مسئلہ ہے، تو طول و عرض اب بھی اعصابی یونٹوں کی تعداد سے بہت کم ہے۔

    تو سائنسدانوں کو ایک بنیادی سوال کا سامنا کرنا پڑتا ہے، اور وہ یہ ہے کہ کیوں اس مسئلے کو حل کرنے کے لیے کوڈنگ کے طول و عرض اور نیورونوں کی تعداد کا استعمال کریں جو کہ اصل مسئلے سے کہیں زیادہ ہے۔ کیا یہ ضائع نہیں ہے؟

    اور کمپیوٹنگ نیوروسینس اور مشین لرننگ کے ساتھ مل کر ہمیں بتاتے ہیں کہ نیورون کی اعلی جہتی خصوصیات ان کی مضبوط تعلیمی صلاحیتوں کی بنیاد ہیں۔ کوڈنگ کی اعلی جہت ، سیکھنے کی زیادہ صلاحیت ہے۔ نوٹ کریں کہ ہم یہاں گہری نیٹ ورکس کے بارے میں بھی بات نہیں کر رہے ہیں۔ کیوں؟ ہم یہاں یہ کہہ رہے ہیں کہ نیورون کوڈنگ کے میکانزم ایس وی ایم جیسے اصولوں کا استعمال کرتے ہیں ، جب ہم کم جہتی سگنل کو اعلی جہت میں پروجیکٹ کرتے ہیں تو ہم زیادہ سے زیادہ درجہ بندی کرسکتے ہیں ، یہاں تک کہ اگر یہ ایک لکیری تقسیم کار ہے ، تو آپ بے شمار مسائل حل کرسکتے ہیں ، اور یہ کیسے ہوتا ہے؟ اور یہ ایس وی ایم کے ساتھ کس طرح مطابقت رکھتا ہے؟

    نوٹ کریں کہ یہاں زیر بحث نیورل کوڈنگ زیادہ تر اعلیٰ اعصابی مرکزوں جیسے کہ پی ایف سی کے لیے ہوتی ہے کیونکہ نچلے درجے کے اعصابی مرکزوں میں کوڈنگ کے قوانین میں درجہ بندی اور فیصلہ سازی کا زیادہ تعلق نہیں ہوتا۔

    img

    پی ایف سی کے نمائندے کے اعلیٰ حصے

    نیورو کوڈنگ کا راز بالکل اسی طرح ہے جس کا تعلق نیورون کی تعداد N سے ہے، اور حقیقی مسئلے کے طول و عرض K سے ہے۔ (یہ فرق 200 گنا تک پہنچ سکتا ہے۔) ۔ کیوں کہ غیر ضروری نیورون کی تعداد کوالٹی چھلانگ کا باعث بن سکتی ہے۔ سب سے پہلے، ہم فرض کرتے ہیں کہ جب ہمارے کوڈنگ طول و عرض حقیقی کام میں اہم متغیرات کی طول و عرض کے برابر ہوتے ہیں تو ہم ایک لکیری درجہ بندی کا استعمال کرتے ہوئے غیر لکیری درجہ بندی کے مسائل کو نہیں سنبھال سکیں گے۔ (یہ فرض کریں کہ آپ کو کیکڑوں کو کیکڑوں سے الگ کرنا ہے، آپ کو کیکڑوں کو کیکڑوں سے الگ کرنے کے لئے ایک لکیری سرحد کا استعمال نہیں کر سکتے ہیں) ، جو کہ ایک عام مسئلہ ہے جسے ہم نے ڈیپ لرننگ اور ایس وی ایم میں مشین لرننگ میں داخل ہونے کے بعد بھی حل کرنا مشکل ہے۔

    SVM (ویکٹر مشین کی حمایت کرتا ہے):

    img

    ایس وی ایم غیر لکیری درجہ بندی کر سکتا ہے، جیسے کہ گراف میں سرخ اور نیلے نقطوں کو الگ کرنا۔ لکیری حدود کے ساتھ ہم سرخ اور نیلے نقطوں کو الگ نہیں کرسکتے ہیں۔ (بائیں گراف) ، لہذا ایس وی ایم کا طریقہ یہ ہے کہ طول و عرض کو بڑھانا ہے۔ اور متغیرات کی تعداد کو بڑھانا ناممکن ہے۔ مثال کے طور پر ، x1 ، x2 کو x1 ، x2 ، x1 + x2 سسٹم میں نقش کرنا۔ یہ دراصل دو جہتی لکیری جگہ ہے۔ (ایک گراف سرخ نقطوں اور نیلے نقطوں کو ایک ہوائی جہاز پر بھی دکھاتا ہے) ، صرف غیر لکیری افعال کا استعمال کرتے ہوئے۔ x1 ^ 2 ، x1 * x2 ، x2 ^ 2) ہمارے پاس اصل میں کم جہت سے اعلی جہت تک عبور ہے ، اس وقت آپ نیلے نقطوں کو ہوا میں پھینک دیتے ہیں ، اور پھر آپ خالی جگہ میں ایک نقطہ کھینچتے ہیں ، نیلے رنگ اور سرخ رنگ کے نقطوں کو تقسیم کرتے ہیں۔

    دراصل، حقیقی نیورل نیٹ ورک بالکل اسی طرح کام کرتا ہے۔ اس طرح ایک لکیری درجہ بندی کرنے والا (ڈسکوڈر) درجہ بندی کی اقسام میں بہت اضافہ کر سکتا ہے، یعنی ہمیں ماضی سے کہیں زیادہ مضبوط نمونہ کی شناخت کی صلاحیت مل جاتی ہے۔ یہاں، اعلی طول و عرض اعلی کارکردگی ہے، اعلی طول و عرض کا حملہ سچائی ہے۔

    تو پھر ، آپ کو کس طرح اعلی درجے کی نیورون کوڈنگ ملتی ہے؟ زیادہ تعداد میں فوٹو نیورونز کا کوئی فائدہ نہیں ہے۔ کیونکہ ہم نے لکیری الجبرا سیکھا ہے ، ہم جانتے ہیں کہ اگر ہمارے پاس N بڑی تعداد میں نیورون ہیں ، اور ہر نیورون کی خارج ہونے کی شرح صرف K اہم خصوصیت کے لکیری سے وابستہ ہے ، تو ہماری آخری شکل کا طول و عرض صرف مسئلے کے اپنے طول و عرض کے برابر ہوگا ، آپ کے N نیورون کا کوئی کام نہیں ہے۔ اگر آپ اس کو توڑنا چاہتے ہیں تو ، آپ کو K خصوصیت کے ساتھ غیر لکیری سے وابستہ نیورونز کی ضرورت ہوگی ، یہاں ہم غیر لکیری ہائبرڈ نیورون کہتے ہیں ، جس قسم کے نیورون کی شکل بہت پیچیدہ ہے ، اور اس کے اصول میں ایس وی ایم میں غیر لکیری افعال کی طرح ہے۔ یہ غیر لکیری ہیں ، جس میں طول و عرض کی ترتیب کی خصوصیات ہیں جو نیورون کو توڑ سکتے ہیں۔

    img

    گراف: نیورون 1 اور 2 صرف خصوصیت a اور b کے لئے حساس ہیں، 3 خصوصیت a اور b کے لکیری مرکب کے لئے حساس ہیں، اور 4 خصوصیت کے غیر لکیری مرکب کے لئے حساس ہیں۔ آخر میں صرف نیورون 1، 2، اور 4 کے مجموعے نے نیورون کوڈنگ کے طول و عرض کو بڑھا دیا ہے۔

    اس کوڈنگ کا سرکاری نام مخلوط انتخابی ہے، اور جب تک اس کوڈنگ کا اصول دریافت نہیں کیا جاتا ہے، ہم اسے سمجھ نہیں سکتے ہیں، کیونکہ یہ نیورل نیٹ ورک کے کسی سگنل کے جواب میں بے ترتیبی کی طرح دکھائی دیتا ہے۔ ارد گرد کے اعصابی نظام میں، نیورون سینسر کی طرح کام کرتے ہیں، سگنل کی مختلف خصوصیات کو نکالنے اور نمونوں کو پہچاننے کے لئے۔ ہر نیورون کا کام کافی مخصوص ہے، جیسے کہ ریٹنا کے راڈس اور شنک فوٹون وصول کرنے کے لئے ذمہ دار ہیں، اور پھر گینگلیئن سیل کے ذریعہ کوڈنگ جاری ہے، ہر نیورون ایک ماہر تربیت یافتہ پہرے دار کی طرح ہے۔ اور اعلی درجے کی دماغ میں، واضح تقسیم کرنا مشکل ہے، اگر ہم ایک ہی نیورون کو مختلف خصوصیات کے لئے حساس محسوس کرتے ہیں، تو ہم اس طرح کی اعلی حساسیت کا تصور کرسکتے ہیں. وہ مختلف کاموں کے لئے زیادہ مشکل نہیں ہیں.

    فطرت کی ہر تفصیل میں عجیب و غریب ، بے کار اور مخلوط کوڈنگ ہے۔ یہ غیر پیشہ ورانہ لگ رہا ہے ، ایسا لگتا ہے کہ اس میں گندا اشارے ہیں ، اور آخر کار بہتر حساب کتاب کی صلاحیت ہے۔ اس اصول کے بعد ، ہم آسانی سے اس طرح کے کاموں کو سنبھال سکتے ہیں:

    img

    اس مشن میں ، مونہوں کو پہلے اس بات کا تعین کرنے کی تربیت دی جاتی ہے کہ آیا ایک تصویر پہلے کی طرح ہی ہے ، اور پھر دو مختلف تصاویر کے ظہور کے سلسلے میں فیصلہ کرنے کی تربیت دی جاتی ہے۔ اس طرح کے کاموں کو انجام دینے کے لئے ، مونہوں کو کام کے مختلف اطراف کوڈ کرنے کی ضرورت ہوتی ہے ، جیسے کام کی قسم ، تصویر کی قسم ، وغیرہ۔ اور یہ ایک عمدہ ٹیسٹ ہے کہ آیا مخلوط غیر لکیری کوڈنگ میکانزم موجود ہے۔ تجربات سے پتہ چلتا ہے کہ بہت سارے اعصاب مخلوط خصوصیات کے لئے حساس ہیں ، اور غیر لکیری بھی موجود ہیں۔

    اس مضمون کو پڑھنے کے بعد، ہم نے سیکھا ہے کہ نیورل نیٹ ورک کو ڈیزائن کرنے میں نمونے کی شناخت کی صلاحیت میں بہتری آتی ہے اگر کچھ غیر لکیری یونٹس کو متعارف کرایا جائے، اور ایس وی ایم نے اس کو غیر لکیری درجہ بندی کے مسائل کو حل کرنے کے لئے استعمال کیا ہے۔ جبکہ کمپیوٹنگ نیورولوجی اور مشین لرننگ ایک ہی سکہ کے دو رخ ہیں۔

    ہم دماغ کے علاقوں کے افعال پر تحقیق کرتے ہیں، پہلے ڈیٹا کو مشین لرننگ کے طریقوں سے پروسیس کرتے ہیں، جیسے کہ پی سی اے کے ذریعے مسائل کے اہم طول و عرض کو تلاش کرنا، پھر مشین لرننگ کے نمونوں کو پہچاننے والے ذہن کے ذریعے نیورون کوڈنگ اور کوڈنگ کو سمجھنا، اور آخر میں اگر ہمیں کچھ نئی ترغیبات ملتی ہیں تو ہم مشین لرننگ کے طریقوں کو بھی بہتر بنا سکتے ہیں۔ دماغ یا مشین لرننگ الگورتھم کے لئے، آخر میں سب سے اہم بات یہ ہے کہ معلومات کو موزوں ترین نمائندگی کا طریقہ حاصل کیا جائے، اور اچھی نمائندگی کے ساتھ، کچھ بھی کرنا آسان ہے۔ یہ مشین لرننگ کی لکیری منطق سے واپسی ہے جس میں ایک قدم بہ قدم سیکھنے کی حمایت کی جاتی ہے، یا شاید یہ بھی دماغ کا ارتقاء ہے، اور ہم دنیا کو کنٹرول کرنے کی صلاحیت میں اضافہ کر رہے ہیں۔ یا شاید اس کا مقصد واضح طور پر واضح ہونا چاہئے کہ کون ٹائیگر ہے اور کون سو سکتا ہے، لیکن اس کے ساتھ ساتھ ساتھ دنیا کو سمجھنے اور خود کو سمجھنے کے عمل میں اضافہ ہوا ہے۔


مزید