علیرضا اخوان پور
VISnet _ Network & topology
Visnet
Feed-forward Hierarchical Model four-layer feed forward network A series of hierarchical competitive networks
with local graded inhibition Convergent connections to each neuron from a
topologically corresponding region of the preceding layer
Synaptic plasticity based on a modified Hebbian learning rule with a temporal trace of each cell’s previous activity
V2-> V4->posterior inferior temporal -> anterior inferior temporal
Architecture ،یک تابع توزیع گاوسیبین هر الیه ی مدل
شبکه تعیین احتمال اتصاالت برای
67% اتصاالت از داخل این دایره
افزایش شعاع همگرایی با باال رفتن در سلسله مراتب
128*128اندازه ی فضای ورودی
32*32سایز الیه های مدل
Inputپیش پردازش داده ها• از الیه های جداگانه1ورودی ها به الیه ی •V1استخراج خط و لبه « شبیه سازی •
فضایی فرکانس
گیری جهت
عالمت
•θ : 4 درجه135 درجه و 90 درجه، 45 درجه، 0 جهت
:فاصله از مرکز Y و Xاندیس های •
13x13سایز فیلترها: •
• )f(سیکل بر 0.5 و 0.25، 0.125، 0.0625 : فرکانس فضایی پیکسل
تصاویر ورودی با فیلترهای مختلف کانوالو می شود. می باشد، در نتیجه تنها پاسخ های مثبت در 0آستانه ی خروجی فیلتر
.نظر گرفته می شوند
Input to layer 1انتخاب تصادفیبه صورت محلی بر اساس توپولوژیک سازگار
از فیلترهای موجود در الیه ی ورودی، دریافت کردند.
: با این محدودیت کهنمونه از تمام فیلترهای فرکانس فضایی هر سلول
( را 272برداری کرده و تعداد ثابتی از ورودی ها)برای مثال دریافت نماید.
فرکانس 0.0625 0.125 0.25 0.5
تعداد اتصاالت 8 13 50 201
Input to layer 1: فیلترهای ورودی ویزنت•
فیلتر گاوسی جهت شناسایی خط جهت 4 و فرکانس فضایی 4هر مربع نمایانگر :•
تصویر شبکیه که بعد اعمال کردن فیلترهای مناسب به شبکه ارائه شده است.
دایره ها نمایانگر :•1 سازگار برای فراهم کردن ورودی به الیه ی retinotopicمختصات
connectionالیه ی اول ورودی های خودش را به طوری استخراج می نماید که توزیع •
اطالعات الیه متعادل و برابر باشد.
هر نورون در الیه ی ورودی مرکزی برای شعاع مورد نظر است. •
بر طبق نقطه ی مرکز ارتباطات به صورت تصادفی و با استفاده از •احتمال یکنواخت اتصال ایجاد می شود.
اتصاالت در تمام فرکانس ها و جهت گیری ها ساخته شده و باید از هر کدام •از فرکانس های فضایی نمونه هایی گرفته شود.
به هر اتصالی یک وزن نسبت داده می شود• - در طول آموزش تغییر می کند
شود1 - به طوری نرمال می شوند تا جمع مربعات آن ها برابر با
local graded inhibition
رقابت درجه بندی شده winner-take-allدر هر الیه، به جای •وجود دارد
o توسط طرحی شبیه مهار جانبی
برای تنوع بخشیدن به اطالعات بین همه ورودی ها •o نواحی مختلف الیه برای محرک های متفاوتی آتش خواهند کردoاطالعات بین تمام نورون های شبکه توزیع میگردد
استفاده از یک فیلتر فضایی •o شامل یک مرکز مثبت احاطه شده توسط مقادیر منفیoمحاسبه شده است کانوالو می شود � این فیلتر با الیه ی فعلی با نرخ فعالیتی که قبالoفیلتر به نوعی راه اندازی شده که متوسط مقادیر نرخ فعال سازی تغییر نمی کندo نصف شعاع همگرایی � سایز فیلترها با باالرفتن در سلسله مراتب افزایش می یابد ؛ تقریبا
است.
فیلتر مهار جانبی و 2.7، 1.5و 1.38 به ترتیب 4 تا 1 مهار جانبی برای الیه ی δ و σجفت پارامترهای •
می باشد. 1.4 و 6، و 1.6 و 4.0، 1.5 (σ تضاد و δ) عرض
مهار جانبی با کانوالو نمودن فعالیت های نورون های روی یک الیه با فیلتر فضاییI.حاصل می شود
ام، از لحاظ تئوری هر نورون یا خوشه ای از نورون ها به ازای 4در الیه ی-ورودی های متفاوتی که به شبکه داده می شود رفتار متفاوتی را باید داشته باشد.
محرک های ورودی به طور مساوی بین نورون های هرالیه تقسیم و بازنماییشوند.
contrast enhancement
پس از اعمال فیلتر مهار جانبی، • contrastتابع افزایش تضاد )اعمال
enhancement ) 1 و 0 تغییر مقیاس مقادیر به بین
:r فعال سازی)نرخ آتش( بعد مهار جانبی : yنرخ آتش بعد افزایش تضاد
:α( تعیین اینکه چند درصد از سلول های عصبی باید آتش کنند! آستانه ی تابع): β شیب activation
s p a r s e n e s s
4الیه 3الیه 2الیه 1الیه
91 88 98 99.2 α
26 75 40 190 β
نرمال سازی وزن ها
جلوگیری از اینکه همیشه دسته ای از نرون های ثابت در رقابت پیروز شوند
:نرمال سازی بردار ضرائب
آموزش شبکهآموزش شبکه به صورت الیه به الیه •به ترتیب:•
پایین ترین الیه برای تعداد ایپاک های تعریف شده1.
برای تعداد ایپاک های تعریف شده2الیه 2.
برای تعداد ایپاک های تعریف شده3الیه 3.
برای تعداد ایپاک های تعریف شده4الیه 4.
تا زمانی که الیه ی زیرین هنوز تغییر می کند آموزش الیه های باالتر هیچ .مفهومی ندارد
آموزش شبکه، قانون یادگیری اثر
( :trace learning ruleقانون یادگیری اثر )• تغییر یافته ی قانون هبتاثیر ورودی های قبلی به محاسبات فعلی
• � ثانی�ه نگ�اه 0.5وق�تی م�ا ب�ه چ�یزی ب�رای م�دت بس�یار کوت�اه مثالمی ک�نیم، بس�یار محتمل ت�ر اس�ت ک�ه م�ا در ی�ک چ�ارچوب زم�انی � از زاویه ای دیگ�ر، ت�ا ب�از هم ب�ه هم�ان جس�م نگ�اه ک�نیم، احتم�االاین ک�ه ب�ه ص�ورت م�داوم ورودی ه�ای متف�اوتی ب�ه م�ا نش�ان داده
شود.
The original trace learning rule
xj is the jth input to the neuron y is the output from the neuron ȳt is the trace value of the output of the neuron at time step
t α is the learning rate wj is the synaptic weight between jth input and the neuron η is the trace value ) (
Evidenceهای زیستی
معیارهای اندازه گیری
Fisher’s unit)عامل تفکیک(information theory
معیار اطالعات تک سلولیمعیاز اطالعات چند سلولی
یک نرون تا چه اندازه بین محرک ها تمایز قائل می شودتا چه اندازه بین مکان های مختلف تمایز قائل می شود