تعمیرگاه ستفیکس

10 كد كامپیوتری كه علم را متحول كردند

10 كد كامپیوتری كه علم را متحول كردند

بدون برنامه نویسی و کدهای کامپیوتری انجام خیلی از کارهای علمی امکان پذیر نمی شد و جهان هیچ وقت به پیشرفت های امروزی نمی رسید. اما ۱۰ کدی که جهان را تغییر دادند چه بودند؟


به گزارش تعمیرکار به نقل از ایسنا و به نقل از نیچر، در سال ۲۰۱۹ گروه تحقیقاتی "تلسکوپ افق رویداد"(Event Horizon Telescope) نخستین تصویر از سیاه چاله را به جهانیان نشان دادند. اما تصویر درخشان یک شی حلقه مانند که گروه از آن رونمایی کردند یک تصویر عادی نبود بلکه یک تصویر کامپیوتری بود.
با انجام محاسبات ریاضیاتی بر روی داده های به دست آمده از تلسکوپ های رادیویی در ایالات متحده، مکزیک، شیلی، اسپانیا و قطب جنوب این داده ها تغییر کرده و تبدیل به تصویر شد. این گروه کد کامپیوتری که برای انجام این کار بهره برده بودند را در کنار مقالاتشان منتشر نمودند تا جامعه ی علمی کاری که آنها انجام داده بودند را ببیند و از آن برای رسیدن به موفقیت های بعدی استفاده کنند. این یک الگوی رو به افزایش است. از ستاره شناسی گرفته تا جانورشناسی پشت هر کشف بزرگ علمی در عصر جدید یک کامپیوتر وجود دارد.
مایکل لویت(Michael Levitt) یک زیست شناس محاسباتی در دانشگاه "استنفورد" کالیفرنیا یکی از برنده های جایزه ی نوبل شیمی در سال ۲۰۱۳ بوده است. او این جایزه را برای کار بر روی استراتژی های مدل سازی در ساختارهای شیمیایی دریافت کرد. لویت تصریح کرد که لپ تاپ های امروزی ۱۰ هزار برابر حافظه و سرعت بیشتری نسبت به کامپیوتر آزمایشگاه وی در سال ۱۹۶۷ دارند. زمانی که کار بر روی پروژه اش که برنده ی نوبل شد را شروع کرد.
او می گوید: ما امروزه تجهیزات محاسباتی فوق العاده ای در دست داریم اما مشکل اینجاست که هنوز احتیاج به فکر کردن داریم. یک کامپیوتر قوی بدون وجود نرم افزاری که بتواند سوالات دانشمندان را پاسخ دهد و محققانی که بدانند چگونه کدنویسی کنند و از آن استفاده کنند بی مصرف است.
نیل چو هونگ(Neil Chue Hong) مدیر موسسه ی "Software Sustainability" که دفتر مرکزی آن در ادینبرو اسکاتلند است و مرکزی برای بهبود توسعه و استفاده از نرم افزار در علوم است می گوید: تحقیقات امروزه کاملا به نرم افزارها وابسته هستند. و پارامترهای آن تمام جنبه های تحقیقات را شامل می شود.
کشف های جدید در رسانه ها منتشر می شوند اما در اینجا می خواهیم پشت صحنه ی این کشف ها و بخش اصلی آن یعنی کدهایی که تحقیقات را در خلال چند دهه ی گذشته متحول کرده اند بررسی نماییم.
باآنکه هیچ فهرست این چنینی نمی تواند قطعی باشد اما ما طی سال قبل از ده ها محقق نظرسنجی کردیم تا مجموعه ای از ۱۰ نرم افزار که تاثیری بزرگ بر علم داشتند را مشخص نماییم.

همگردان فورترن: پیشگام در زبان برنامه نویسی(۱۹۵۷)
استفاده از نخستین کامپیوترها کار راحتی نبود و برنامه نویسی به معنای واقعی کلمه با دست و با اتصال مجموعه ی مدارها و سیم ها انجام می شد. دستگاه هایی که پس از آن آمد و زبان برنامه نویسی هم گذاری(نوعی برنامه نویسی سطح پایین) به کاربران کمک کرد تا کامپیوترها را با کد برنامه نویسی کنند. اما همچنان احتیاج به دانش ساختاری کامپیوتر بود. ازاین رو هنوز این کار از دسترس بیشتر دانشمندان خارج بود.
این مورد در دهه ی ۱۹۵۰ با توسعه ی زبان برنامه نویسی نمادین بخصوص با توسعه ی زبان برنامه نویسی فورترن(Fortran) که توسط جان باکس(John Backus) و گروهش در موسسه ی آی بی ام در سن خوزه کالیفرنیا بوجود آمده بود تغییر نمود. با استفاده از زبان برنامه نویسی فورترن کاربران می توانند برنامه نویسی را با دستورالعمل هایی که برای انسان ها قابل خواندن است انجام دهند. یک همگردان(compiler) سپس این دستورالعمل ها را به یک کد سریع و کارآمد ماشینی تبدیل می کند.


باآنکه هنوز هم برنامه نویسی کار آسانی نبود. در ابتدای کار برنامه نویسان از مجموعه ای کارت برای وارد کردن کدها استفاده می کردند و برای یک شبیه سازی پیچیده ده ها هزار کارت نیاز بود. سیوکورو مانابه(Syukuro Manabe) اقلیم شناس در دانشگاه پرینستون نیوجرسی می گوید: فورترن برنامه نویسی را برای آن دسته از محققانی که دانشمند در زمینه کامپیوتر نبودند هم ممکن کرد. برای نخستین بار توانستیم خودمان برنامه نویسی را انجام دهیم. او و همکارانش از این زبان برنامه نویسی استفاده کردند تا یکی از موفق ترین مدلهای اقلیمی را بسازند.
حالا بعد از گذشت هشت دهه فورترن همچنان به شکل گسترده ای استفاده می شود. همچون در مدل سازی اقلیمی، دینامیک سیالات، شیمی محاسباتی و هر موضوعی که در آن از جبر خطی پیچیده استفاده گردد و احتیاج به کامپیوترهای قدرتمند جهت بررسی سریع اعداد باشد. کدی که در نتیجه به دست می آید سریع است و هنوز تعداد زیادی از برنامه نویسان وجود دارند که می دانند چگونه آنرا بنویسند. نوع قدیمی برنامه نویسی فورترن هنوز هم در آزمایشگاه ها و ابررایانه ها در سرتاسر جهان مورد استفاده قرار می گیرد.

پردازنده سیگنال: "تبدیل فوریه" سریع(۱۹۶۵)
هنگامی که اخترشناسان رادیویی آسمان را بررسی می کردند سیگنالی پیچیده یافتند که با گذر زمان تغییر می کرد. برای فهمیدن ماهیت این امواج رادیویی آنها باید می فهمیدند که این سیگنال ها بعنوان تابع فرکانسی چه شکلی دارند. انجام یک فرایند ریاضیاتی به نام "تبدیل فوریه"(Fourier transform) به محققان در انجام این کار کمک می کرد. مشکل این بود که این روش ناکارآمد بود و برای یک مجموعه داده با پایه N به محاسباتی با پایه ی N به توان ۲ نیاز است.
در سال ۱۹۶۵ ریاضی دانان ایالات متحده، جیمز کولی(James Cooley) و جان توکی(John Tukey) چاره ای برای بهبود این فرایند پیدا کردند. آنها با استفاده از روش "بازگشت" رویکرد برنامه نویسی "تقسیم و حل" را که در آن الگوریتم مدام خودش را تکرار می کند، فرایند برنامه نویسی "تبدیل فوریه" سریع را آسان تر کرد که با افزایش N سرعت هم افزایش پیدا می کرد و به صورت مثال برای عدد ۱۰۰۰ سرعت ۱۰۰ برابر بیشتر می شود.


نیک ترفتن(Nick Trefethen)، ریاضیدان دانشگاه آکسفورد می گوید: این کشف در اصل کشفی بود که قبلا اتفاق افتاده بود توسط ریاضیدان آلمانی کارل فردریچ گاس(Carl Friedrich Gauss) در سال ۱۸۰۵ اما او هیچوقت آنرا منتشر نکرد اما کولی و توکی این کار را انجام دادند و این یک اتفاق فوق العاده در ریاضیات کاربردی و مهندسی است. از کد "تبدیل فوریه" بارها و بارها استفاده شده است.
پاول آدامز(Paul Adams)، مدیر بخش بیوفیزیک مولکولی و تصویربرداری بیولوژیکی در آزمایشگاه ملی لارنس برکلی(Lawrence Berkeley National Laboratory) است. او می گوید هنگامی که در سال ۱۹۹۵ ساختار پروتئین باکتریایی GroEL را اصلاح و پالایش می کردیم این محاسبات به کمک فرایند "تبدیل فوریه" ساعت ها طول کشید و اگر کمک این فرایند نبود نمی دانم چگونه این کار را می کردیم. احیانا تا ابد به طول می انجامید.

دسته بندی مولکولی: بانک داده های بیولوژیکی(۱۹۶۵)
بانکهای اطلاعاتی مولفه های یکپارچه ی تحقیقات علمی امروزه هستند که به سادگی میتوان از این حقیقت که آنها به وسیله ی نرم افزارها تهیه می شوند چشم پوشی کرد. در طول چند دهه ی گذشته این منابع از نظر اندازه بسیار رشد کرده اند و خیلی از حوزه ها را شکل داده اند اما این تغییرات در هیچ کجا به اندازه ی حوزه ی زیست شناسی قابل توجه نبوده است.
مجموعه داده های عظیمی که امروزه از ژنوم ها و پروتئین ها داریم ریشه در کارهای مارگارت دیهوف(Margaret Dayhoff) دارد. او پیشگام در بیوانفورماتیک در بنیاد تحقیقات ملی پزشکی در سیلور اسپرینگ(Silver Spring) مرینلند(Maryland) بود. در اوایل دهه ی ۱۹۶۰، هنگامی که زیست شناسان تلاش می کردند تا توالی آمینواسید را جداسازی کنند، دیهوف آغاز به جمع آوری این اطلاعات برای جستجوی سرنخ هایی از روابط تکاملی بین گونه های مختلف کرد.
اطلس او از توالی پروتئین ها و ساختار آنها در سال ۱۹۶۵ با همکاری سه نویسنده ی دیگر منتشر گردید. آنها در این مقاله آنچه را که بعنوان توالی، ساختار و شباهت های ۶۵ پروتئین شناخته می شد توضیح دادند. برونو استریسر(Bruno Strasser) که یک مورخ است در سال ۲۰۱۰ نوشت: این مجموعه نخستین مجموعه ای بود که برای پاسخ به یک سوال در یک تحقیق خاص مربوط نبود. کدهای آن بر روی کارت هایی پانچ شدند تا بتوان این مجموعه داده را گسترش داد و جستجو کرد.


"بانک داده پروتئین" که امروزه جزئیات بیشتر از ۱۷۰ هزار ساختار درشت مولکول را در اختیار دارد کار خویش را در سال ۱۹۷۱ شروع کرد. راسل دولیتل(Russell Doolittle) یک زیست شناس تکاملی از دانشگاه کالیفرنیا در سن دیگو مجموعه داده پروتئین دیگری به نام "Newat" در سال ۱۹۸۱ ایجاد کرد و در سال ۱۹۸۲ بانک داده دیگری به نام "بانک ژن"(GenBank) بوجود آمد این مجموعه شامل داده های دی ان ای( DNA ) است که توسط موسسه ملی بهداشت ایالات متحده نگهداری می شود.
ارزش چنین منابعی در ژوئیه سال ۱۹۸۳ مشخص شد هنگامی که گروه های مجزا به رهبری مایکل واترفیلد(Michael Waterfield) یک زیست شناس پروتئین و شیمی دان در موسسه ی تحقیقات سرطان ایمپریال در لندن(Imperial Cancer Research Fund in London) و دولیتل به صورت مستقل شباهت هایی در توالی یک عامل خاص در رشد انسان و پروتئینی در ویروس ایجاد کننده ی سرطان در میمون ها گزارش دادند. این مشاهدات حاکی از مکانیزمی در ویروس بود که عامل رشد را شبیه سازی می کرد و سبب رشد کنترل نشده ی سلول ها می شد.
جیمز استل(James Ostell)، مدیر سابق مرکز ملی اطلاعات زیست فناوری ایالات متحده می گوید: برای آن دسته از زیس شناسان که به کامپیوتر و آمار علاقه مند نیستند باید بگویم ما می توانیم با بررسی توالی ها اطلاعاتی درباره ی سرطان ها به دست آوریم و علاوه بر طراحی آزمایش ها جهت بررسی فرضیه ها، محققان می توانند داده های عمومی به دست آورند که تابحال افرادی که واقعا داده ها را جمع آوری می کنند به آن دست نیافته باشند و هنگامی که داده های محتلف به یکدیگر متصل شوند این قدرت افزایش می یابد. موضوعی که محققان مرکز ملی اطلاعات زیست فناوری (NCBI) در سال ۱۹۹۱ به وسیله ی جستجوگر پیشرفته ی آنتره(Entrez) به آن دست پیدا کردند. این جستجوگر به محققان کمک می نماید تا آزادانه از موضوعی همچون DNA به مبحث ادبیات یا پروتئین بروند و بازگردند.

پیش بینی آب و هوا: مدل سازی دورانی(۱۹۶۹)
با آخر جنگ جهانی دوم، جان ون نیومن(john von Neumann) پیشگام در عرصه ی کامپیوتر، کامپیوترهایی کرد که قبل از آن برای محاسبه ی مسیر پرواز و طراحی اسلحه استفاده می شدند برای حل مشکل پیشبینی آب و هوا تغییر کاربری داد.
مانابه توضیح می دهد: تا آن زمان پیشبینی آب و هوا تنها کاری تجربی بود که با استفاده از تجربه و ظن و گمان، وضعیت جوی آینده را پیشبینی می کردند. اما گروه ون نیومن قصد داشتند تا با استفاده از قوانین فیزیک به صورت عددی آب و هوا را پیشبینی کنند.
ونکاترامانی بالاجی(Venkatramani Balaji)، رئیس بخش مدل سازی سیستم ها در آزمایشگاه دینامیک سیالات ژئوفیزیکی اداره ملی اقیانوس شناسی و اقلیمی پرینستون در نیوجرسی می گوید: این معادلات برای دهه ها شناخته شده بودند اما هواشناسان اولیه نتوانستند آن هارا حل کنند. برای انجام این کار باید شرایط جوی موجود در آن لحظه وارد می شد و تغییرات آن در طول مدتی کوتاه بررسی می شد و این کار تکرار می شد. این فرایند بسیار طولانی و وقت گیر بود و تکمیل معادله ی ریاضیاتی آن قبل از تغییر آب و هوا ممکن نبود. در سال ۱۹۲۲ لوئیس فرای ریچاردسون( Lewis Fry Richardson)، یک ریاضیدان ماه ها صرف انجام محاسباتی کرد تا آب و هوای مونیخ آلمان را پیش بینی نماید اما نتایج آن کاملا غلط بودند همچون آن پیشبینی هایی بود که تحت هیچ شرایطی رخ نخواهند داد. کامپیوترها این مشکل را قابل حل کردند.
در اواخر دهه ی ۱۹۴۰ ون نیومن گروه خویش را برای پیشبینی وضعیت آب و هوا در موسسه ی مطالعات پیشرفته پرینستون تاسیس کرد. در سال ۱۹۵۵ گروه دیگری کار بر روی "پیش بینی بی نهایت آب و هوا" را آغاز کردند که نوعی مدل سازی جوی است.
مانابه که در سال ۱۹۵۸ به گروه مدل سازی جوی پیوست قصد داشت بر روی مدلهای جوی کار کند. همکار او کریک برایان(Kirk Bryan) هم بر روی اقیانوس ها کار می کرد. در سال ۱۹۶۹ آنها موفق شدند تا کارهایشان را ترکیب کنند و آنچه را که مجله ی نیچر در سال ۲۰۰۶ "نقطه عطفی" در محاسبات علمی خواند ایجاد کنند.
مدلهای امروزی می توانند سطح سیاره را به مربع های ۲۵ در ۲۵ کیلومتری تقسیم کنند و جو را به ده ها سطح تقسیم می کند. مدل ترکیبی مانابه و برایان از مربع های ۵۰۰ کیلومتری و ۹ سطح استفاده می کرد و تنها یک ششم کره ی زمین را پوشش می داد اما بالاجی می گوید: هنوز هم آن مدل کار فوق العاده ای انجام داد و گروه توانست برای نخستین بار تأثیر افزایش سطح دی اکسید کربن را به وسیله ی فرایند "درون کامپیوتر ای" بررسی کند.

حسابگر بلاسBLAS (۱۹۷۹)
محاسبات علمی معمولا شامل ریاضیات ساده و نمودار و ماتریس است فقط تعداد آنها زیاد است اما در دهه ی ۱۹۷۰ هیچ ابزار جهانی برای انجام این محاسبات وجود نداشت در نتیجه برنامه نویسانی که در حوزه علم کار می کردند زمانشان را صرف تولید کدهایی کارآمد برای انجام محاسبات ریاضیاتی می کردند به جای آن که بر روی سوالات علمی تمرکز کنند.
جهان برنامه نویسی احتیاج به یک ابزار استاندارد داشت و در سال ۱۹۷۹ به آن دست یافت: زیربرنامه ی جبر خطی پایه BLAS، استانداری است که تا سال ۱۹۹۰ به تکامل خود ادامه داد و ده ها جریان اساسی برای نمودارها و ماتریس ها مشخص کرد.


جک دونگارا(Jack Dongarra)، دانشمند کامپیوتر در دانشگاه تنسی(Tennessee) که عضو گروه توسعه ی بلاس بود می گوید: در واقع BLAS محاسبات ریاضی ماتریس و نمودار را به یک واحد محاسباتی می کاهد.

تصاویر میکروسکوپی سازمان بهداشت جهانی(۱۹۸۷)
در اوایل دهه ی ۱۹۸۰، وین رازبند(Wayne Rasband) در حال کار با یک آزمایشگاه تصویربرداری از مغز در موسسه ی ملی بهداشت ایالات متحده در بتسدا(Bethesda) مریلند بود. گروه یک اسکنر برای رقومی کردن(دیجیتالی کردن) (digitize) فیلمهای اشعه ایکس داشت اما راهی برای تحلیل آنها در کامپیوتر وجود نداشت. ازاین رو رازبند برنامه کامپیوتری برای این مورد نوشت. این برنامه برای کامپیوتر کوچک غیر شخصی ۱۵۰ هزار دلاری آمریکا به نام "PDP-۱۱" نوشته شده بود. سپس در سال ۱۹۸۷ شرکت اپل از کامپیوتر شخصی اش به نام "Macintosh II" رونمایی نمود که استفاده از آن راحتتر بود و مقرون به صرفه تر هم بود.
رازبند می گوید: این کامپیوتر جدید به نظر من بعنوان یک آزمایشگاه بررسی تصویر بسیار بهتر کار می کرد. او نرم افزارش را به یک پلت فرم جدید منتقل کرد و نام آنرا هم تغییر داد. سیستم تصویر برداری موسسه ملی بهداشت به محققان کمک کرد تا هر تصویری را درون هر کامپیوتری مشاهده کنند. این نرم افزار شامل ایمج جی(ImageJ) نرم افزاری مبتنی بر جاوا(JAVA) بود که رازبند آنرا برای کاربران ویندوز و سیستم عامل لینوکس(Linux) نوشت.


بث سیمینی(Beth Cimini)، یک زیست شناس محاسباتی که بر روی پلت فرم تصویربرداری موسسه ی کمبریج ماساچوشت کار می کند می گوید: ایمج جی هم اکنون اساسی ترین ابزاری است که ما در اختیار داریم، من هیچ زیست شناسی نمی شناسم که از میکروسکوپ بهره برده باشد اما از ایمج جی استفاده نکرده باشد.
رازبند می گوید: یکی از علت های آن مجانی بودن این برنامه است. کوین الیسیری(Kevin Eliceiri) مهندس پزشکی دانشگاه ویسکانسین(Wisconsin) می گوید: همینطور آسان بودن این برنامه و امکان تنظیم ابزار آن بسته به نیاز این ابزار را برای کاربران مناسب کرده است.

جستجوگر توالی: بلاست(۱۹۹۰)
برای یک نرم افزار هیچ چیز بهتر از آن نیست که اسمش تبدیل به یک فعل در زبان شود. برای جستجو، گوگل و برای ژنتیک، "بلاست"(BLAST).
تغییرات تکاملی را میتوان در توالی های مولکولی یافت. مانند جابه جایی، حذف، فاصله و بازسازی. با جستجوی شباهت های بین این توالی ها به خصوص در بین پروتئین ها، محققان می توانند ارتباطات تکاملی را کشف کنند و بینشی در مورد عملکرد ژن ها به دست آورند. برای این کار داده های مولکولی که به سرعت رشد می کنند باید سریع و جامع بررسی شوند.
دیهوف در سال ۱۹۷۸ بخش مهمی از این مشکل را حل کرد. او ماتریس "جهش پذیرفته نقطه ای" ابداع کرد که به محققان اجازه می داد تا ارتباط دو پروتئین را نه تنها برپایه شباهت توالی بلکه برپایه فاصله تکاملی آنها ارزیابی کنند.
در سال ۱۹۸۵ ویلیام پیرسون(William Pearson) از دانشگاه ویرجینیا شارلوتسویل(Virginia in Charlottesville) و دیوید لیپمن(David Lipman) از مرکز ملی اطلاعات زیست فناوری الگوریتمی به نام "FASTP" را معرفی کردند که ماتریس دیهوف را با توانایی جستجوی سریع ادغام می کرد.
سال ها بعد لیپمن به همراه وارن گیش(Warren Gish) و استفن آلتچول(Stephen Altschul) از مرکز ملی اطلاعات زیست فناوری، وب میلر(Webb Miller) از دانشگاه ایلاتی پنسیلوانیا و جین میرز(Gene Myers) از دانشگاه آریزونا روش قدرتمندتری از پالایش را ابداع کردند: ابزار پایه ای برای جستجوی برهم نهی های موضعی یا "بلاست"
بلاست که در سال ۱۹۹۰ منتشر گردید سرعت جستجو را به حدی رساند که از پس رشد داده ها بربیاید و همینطور شباهت های داده هایی که از نظر تکاملی فاصله داشتند پیدا کند. این ابزار همزمان می توانست احتمال رخ دادن چنین شباهت هایی را بررسی کند.
آلتچول می گوید: نتایج به دست آمده سریع بودند و مهم تر اینکه استفاده از آن آسان بود. در دوره ای که اطلاعات به وسیله ی پست منتقل می شدند گیش یک سیستم پست الکترونیکی و پس از آن هم ساختاری مبتنی بر وب ایجاد کرد تا محققان بتوانند کامپیوترهای مرکز ملی اطلاعات زیست فناوری را از راه دور جستجو کنند تا مطمئن شوند داده هایی که در دست دارند به روز است.

منبع مقالات پیش چاپ(arXiv.org) ۱۹۹۱
در اواخر دهه ی ۹۰ فیزیکدانان ذرات به صورت معمول نسخه هایی از کار خویش را برای همکارانشان پست می کردند تا نظر آنها را بدانند.
در سال ۱۹۹۱، پائول گینسپراگ(Paul Ginsparg) یک فیزیکدان، که در آن زمان در آزمایشکاه ملی آلاموس مکزیک کار می کرد یک ایمیل خودکار ایجاد کرد که به صورت خودکار ارسال می شد تا زمینه ای برابر برای همه ی افراد در زمینه دسترسی به مقالات ایجاد نماید. مشترکین روزانه فهرستی از مقالات قبل از چاپ دریافت می کردند که هرکدام شناسه مخصوص خویش را داشتند و با یک ایمیل ساده کاربران می توانستند مقاله ای را از سیستم کامپیوتری آزمایشگاه دریافت یا بازیابی کنند و همینطور فهرستی از مقالات جدید بیابند و یا برپایه نام مقاله یا نام نویسنده آنرا جستجو کنند.
گینسپراگ قصد داشت تا مقالات را برای مدت سه ماه حفظ کند و سپس محتوی را محدود به جامعه ی فیزیک ذرات کند اما یکی از همکارانش او را متقاعد کرد که مقالات را به صورت بی نهایت حفظ کند.
در سال ۱۹۹۳، گینسپارگ این سیستم را به شبکه جهانی وب منتقل کرد و در سال ۱۹۹۸ نامی به آن داد که تا امروز باقی مانده است: arXiv.org
این منبع اطلاعاتی که حالا سی امین سال خویش را می گذراند شامل ۱.۸ میلیون پیش چاپ مقالات به صورت مجانی است و ماهانه ۱۵ هزار مقاله ارسالی و ۳۰ میلیون دانلود دارد.

جستجوگر داده ها: نوت بوک آی پایتون(۲۰۱۱)
فرناندو پرز(Fernando Pérez) که دانشجوی کارشناسی ارشد در سال ۲۰۰۱ بود، تصمیم گرفت مولفه های اصلی زبان برنامه نویسی پایتون(Python) را در دست بگیرد.
پایتون یک زبان برنامه نویسی تفسیری است که یعنی برنامه ها خط به خط اجرا می شوند. برنامه نویسان می توانند از ابزاری به نام "REPL" استفاده کنند و کدی بنویسند که برنامه ای به نام مفسر آنرا اجرا نماید. "REPL" به جستجوی سریع و تکرار را فراهم می آورد اما پرز تصریح کرد که پایتون برای علم ساخته نشده بود ازاین رو او نسخه ی خودش را ساخت که نتیجه ی آن آی پایتون(IPython) شد. یک مفسر تعاملی که پرز در دسامبر ۲۰۰۱ از آن رونمایی نمود. یک دهه بعد پرز با همکاری برایان گرنجر(Brian Granger) یک فیزیکدان و ایوان پترسون(Evan Patterson) یک ریاضیدان این ابزار را به مرورگر انتقال دادند. با راه اندازی آی پایتون نوت بوک انقلابی در عرصه ی داده های علمی به وجود آمد. این نرم افزار مانند سایر نوت بوک ها کدها، نتایج و متن را در یک فایل ادغام می کرد اما برخلاف آنها یک نرم افزار باز بود و از توسعه دهندگان دعوت می کرد تا در توسعه آن سهمی داشته باشند.

الکس نت(AlexNet) ۲۰۱۲
هوش مصنوعی دو نوع دارد. یکی از قوانین کدگذاری شده استفاده می نماید و دیگری یک کامپیوتر را قادر می سازد تا با الگوبرداری از ساختار عصبی مغز "یادگیری" انجام دهد.
جفری هینتون(Geoffrey Hinton) دانشمند کامپیوتر از دانشگاه تورنتو کانادا می گوید: برای دهه ها محققان حوزه ی هوش مصنوعی این رویکرد را "بی معنی" می خواندند و آنرا رد می کردند. در سال ۲۰۱۲ دانشجویان هینتون، الکس کریژفسکی(Alex Krizhevsky) و ایلیا ساتسکور( Alex Krizhevsky) خلاف این مورد را ثابت کردند.
هینتون می گوید: در همایشی سالانه که در ImageNet برگزار می گردد رقابتی بین محققان ایجاد می شود تا یک هوش مصنوعی را به وسیله ی داده های یک میلیون تصویر از اجسام روزمره تربیت کنند و سپس الگوریتم به دست آمده را بر روی یک مجموعه عکس جداگانه آزمایش نمایند. در زمانی که بهترین الگوریتم ها یک چهارم دسته بندی ها را اشتباه انجام می دادند الگوریتم "یادگیری عمیق" کریژفسکی و ساتسکور که مبتنی بر شبکه ی عصبی بود این خطا را تا ۱۶ درصد کم کرد. هینتون می گوید: ما اساسا میزان خطا را نصف کردیم.
هینتون می گوید: موفیت گروه در سال ۲۰۱۲ نشان دهنده ی تلفیقی از مجموعه داده های آموزش، برنامه نویسی عالی و قدرت نوظهور واحد پردازش گرافیکی است. ناگهان ما موفق شدیم الگوریتم را ۳۰ برابر سریع تر اجرا نماییم.
وی ادامه داد: موفقیت واقعی در اصل سه سال قبل تر رخ داد، هنگامی که آزمایشگاهش شبکه ی عصبی ساخت که می توانست گفتار را با دقتی بیشتر از سایر هوش های مصنوعی تشخیص دهد. این موفقیت ها سبب شده که امروزه تلفن های همراه دستورهای گفتاری را بفهمند و ابزارهای تجزیه و تحلیل عکس بتوانند سلول ها را تشخیص دهند و به همین علت است که AlexNet در بین خیلی از ابزاری که علم و جهان را متحول کرده اند جای می گیرد.




منبع:

1400/01/11
19:37:36
5.0 / 5
1178
تگهای خبر: استاندارد , الكترونیك , تشخیص , تنظیم
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۲
لینک دوستان تعمیركار
SetFix تعمیرکار