پرش به محتوا

دیوید ولپرت

از ویکی‌پدیا، دانشنامهٔ آزاد
David H. Wolpert
ملیتآمریکایی
محل تحصیلدانشگاه پرینستون
دانشگاه کالیفرنیا، سانتا باربارا
پیشینه علمی
شاخه(ها)ریاضیات
علوم رایانه
محل کارمؤسسه سنتا فه
استاد راهنماAnthony Zee

دیوید هیلتون ولپرت ریاضیدان، فیزیکدان و دانشمند رایانه آمریکایی و استاد مؤسسه سنتا فه است. او تا کنون سه کتاب تألیف و سه اختراع ثبت کرده، بالغ بر صد مقاله داوری شده منتشر و جوایز متعددی نیز دریافت کرده‌است. نام او به ویژه با گروهی از قضایای علوم کامپیوتر پیوند خورده که به " نهار رایگان " معروف هستند.

حرفه

[ویرایش]

دیوید ولپرت لیسانس فیزیک را از دانشگاه پرینستون (۱۹۸۴) و مدرک کارشناسی ارشد (۱۹۸۷) و دکتری (۱۹۸۹) خود را از دانشگاه کالیفرنیا، سانتا باربارا، دریافت کرد.

بین سالهای ۱۹۸۹ و ۱۹۹۷ وی به کار تحقیقاتی در آزمایشگاه ملی لس آلاموس، آزمایشگاه ملی لس آلاموس، آی‌بی‌ام، TXN Inc. و مؤسسه سانتافه مشغول بود.

از سال ۱۹۹۷ تا ۲۰۱۱ به عنوان دانشمند ارشد رایانه در مرکز تحقیقات آمس ناسا مشغول به کار شد و همزمان به عنوان محقق مهمان در انستیتوی ماکس پلانک فعالیت کرد. او سال ۲۰۱۰–۱۱ را به عنوان پژوهشگر اولام (Ulam Scholar) در مرکز مطالعات غیر خطی در لوس‌آلاموس کار کرد.[۱]

وی در سال ۲۰۱۱ به هیئت علمی مؤسسه سانتافه پیوست و در سپتامبر ۲۰۱۳ در آنجا استاد شد.[۲] علائق پژوهشی وی شامل آمار، نظریه بازی‌ها، یادگیری ماشین، نظریه اطلاعات، روش‌های بهینه‌سازی و سامانه‌های پیچیده است.

از ناهار مجانی خبری نیست

[ویرایش]

یکی از مهمترین دستاوردهای بحث شده ولپرت با نام «در جستجو و بهینه‌سازی از ناهار مجانی خبری نیست» شناخته می‌شود.[۳][۴][۵][۶] طبق این قضیه، تمام الگوریتم‌های جستجو و بهینه‌سازی در حل مسائلی که برای حل آنها طراحی شده‌اند، به‌طور متوسط در کل به یک اندازه خوب عمل می‌کنند. این قضیه فقط در شرایط خاصی برقرار می‌شود که معمولاً دقیقاً در زندگی واقعی با آنها برخورد نمی‌شود،[۷][۸][۹] گرچه ادعا شده‌است که می‌توان به‌طور تقریبی شرایط را برآورده کرد.[۱۰] این قضیه به حوزه علوم کامپیوتر تعلق دارد، اما نسخه ضعیف‌تر آن، به نام " قضیه ناهار رایگان " توسط ویلیام دمبسکی به منظور پشتیبانی از طراحی هوشمند استنباط شده‌است.[۱۱] استفاده از قضیه توسط خود ولپرت[۱۲] و دیگران رد شده‌است[۱۳][۱۴]

محدودیت در دانش

[ویرایش]

ولپرت استدلالی رسمی را مطرح کرده‌است که نشان می‌دهد که در هر عمل، غیرممکن است که یک موجود هوشمند همه چیز را دربارهٔ جهانی که بخشی از آن را تشکیل می‌دهد، بداند و به عبارت دیگر جبر لاپلاس رد کرده‌است.[۱۵] این به عنوان بسطی از قضایای محدودکننده قرن بیستم، مانند اصل عدم قطعیت و قضایای ناتمامیت گودل، در نظر گرفته می‌شود.[۱۶] در سال ۲۰۱۸، ولپرت اثباتی را منتشر کرد که محدودیت‌های اساسی دانش علمی را نشان می‌دهد.[۱۷]

یادگیری ماشین

[ویرایش]

ولپرت به پژوهش‌های اولیه یادگیری ماشین کمکهای بسیاری کرد. اینها شامل اولین برآوردگر بیزی از آنتروپی یک توزیع بر اساس نمونه‌های توزیع،[۱۸][۱۹] رد ادعاهای رسمی مبنی بر اینکه «روش اثبات» معادل بیز سلسله مراتبی اس،[۲۰] یک جایگزین بیزی برای آزمون خی دوی،[۲۱] اثبات اینکه هیچ توزیع پیشین وجود ندارد که بر اساس آن، روش بوت استرپ بهینه بیزی باشد،[۲۲] و بسط بیزی از تجزیه بایاس به علاوه واریانس است.[۲۳] یکی از برجسته‌ترین دستاوردهای وی "عمومی سازی انباشته " است که[۲۴] نسخه پیچیده تری از اعتبار سنجی متقابل می‌باشد که از پارتیشن‌های پیدا و پنهان یک مجموعه داده برای ترکیب الگوریتم‌های یادگیری استفاده می‌کند به جای اینکه فقط یکی از آنها را انتخاب کند. این اثر بیشتر توسط بریمان، اسمیت، کلارک و دیگران بیشتر توسعه داده شد، و به ویژه دو برنده برتر مسابقه نتفلیکس در سال ۲۰۰۹، به‌طور گسترده‌ای از عمومی‌سازی انباشته استفاده کردند.[۲۵]

عضویت‌های دانشگاهی

[ویرایش]
  • همکار مؤسسه مهندسان برق و الکترونیک
  • عضو FQXi
  • دانشیار پژوهشگاه انفورماتیک، دانشگاه آمریکن
  • ویراستار دانشیار (از ژانویه ۲۰۱۷)
    • پیشرفت در سیستم‌های پیچیده
    • تراکنش‌های IEEE در محاسبات تکاملی
    • تراکنش‌های ACM در سیستم‌های خودمختار و سازگار
  • عضو هیئت تحریریه (از ژانویه ۲۰۱۷)
    • مجله تحقیقات هوش مصنوعی
    • تئوری در علوم زیست
    • مجله تعامل و هماهنگی اقتصادی
    • بررسی اقتصاد رفتاری
    • آنتروپی
    • همگرایی سرطان
  • عضویت در چندین پنل بنیاد ملی علوم

جوایز

[ویرایش]
  • جایزه Kusaka بخش فیزیک دانشگاه پرینستون
  • جایزه بهترین مقاله برای معاملات IEEE در محاسبات تکاملی، جلد ۰٫۱ و ۲
  • جایزه برتر برجسته برای ناسا کد آی سی برای ۱۹۹۹

انتشارات (فقط کتاب)

[ویرایش]

منابع

[ویرایش]
  1. "CNLS Ulam Scholar". Archived from the original on 2014-10-26. Retrieved 2014-09-22.
  2. David Wolpert, Santa Fe Institute
  3. Wolpert, D.H. , Macready, W.G. (1995), No Free Lunch Theorems for Search, Technical Report SFI-TR-95-02-010 (Santa Fe Institute).
  4. Wolpert D.H. , Macready W.G. (1997). "No Free Lunch Theorems for Optimization" (PDF). IEEE Transactions on Evolutionary Computation. 1: 67. CiteSeerX 10.1.1.138.6606. doi:10.1109/4235.585893.
  5. Wolpert, David (1996), The Lack of A Priori Distinctions between Learning Algorithms, Neural Computation, pp. 1341–1390.
  6. David H. Wolpert, What the No Free Lunch Theorems Really Mean; How to Improve Search Algorithms بایگانی‌شده در ۱۷ آوریل ۲۰۱۶ توسط Wayback Machine, SFI Working Paper 2012-10-017, Santa Fe Institute 2012
  7. Streeter, M. (2003) Two Broad Classes of Functions for Which a No Free Lunch Result Does Not Hold, Genetic and Evolutionary Computation – GECCO 2003, pp. 1418–1430.
  8. Igel C. , Toussaint M. (2004). "A No-Free-Lunch Theorem for Non-Uniform Distributions of Target Functions". Journal of Mathematical Modelling and Algorithms. 3 (4): 313–322. CiteSeerX 10.1.1.71.9744. doi:10.1023/b:jmma.0000049381.24625.f7.
  9. English, T. (2004), No More Lunch: Analysis of Sequential Search بایگانی‌شده در ۱ مه ۲۰۱۵ توسط Wayback Machine, Proceedings of the 2004 IEEE Congress on Evolutionary Computation, pp. 227–234.
  10. Droste S. , Jansen T. , Wegener I. (2002). "Optimization with randomized search heuristics: the (A)NFL theorem, realistic scenarios, and difficult functions". Theoretical Computer Science. 287 (1): 131–144. doi:10.1016/s0304-3975(02)00094-4. {{cite journal}}: |hdl-access= requires |hdl= (help)نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)
  11. Dembski, W. A. (2002) No Free Lunch, Rowman & Littlefield, شابک ‎۰−۷۴۲۵−۱۲۹۷−۵
  12. Wolpert, D. (2003), William Dembski's treatment of the No Free Lunch theorems is written in jello, Talk Reason
  13. Perakh, M. (2003), The No Free Lunch Theorems and Their Application to Evolutionary Algorithms, Talk Reason.
  14. Richard Wein (2002), Not a Free Lunch But a Box of Chocolates (Sect. 5.3), The TalkOrigins Archive
  15. David H. Wolpert (2008). "Physical limits of inference". Physica D. 237 (9): 1257–1281. arXiv:0708.1362. Bibcode:2008PhyD..237.1257W. doi:10.1016/j.physd.2008.03.040. full text
  16. Graham P. Collins, Within Any Possible Universe, No Intellect Can Ever Know It All, Scientific American, 16 February 2009
  17. "New proof reveals fundamental limits of scientific knowledge". Retrieved 2018-10-04.
  18. David H. Wolpert and David Wolf (1995). "Estimating Functions of Probability Distributions from a Finite Set of Samples". Physical Review E. 52 (6): 6841–6854. Bibcode:1995PhRvE..52.6841W. CiteSeerX 10.1.1.55.7122. doi:10.1103/physreve.52.6841. PMID 9964199.
  19. David H. Wolpert and Simon DeDeo (2013). "Estimating Functions of Distributions Defined over Spaces of Unknown Size". Entropy. 15 (12): 4668–4699. arXiv:1311.4548. Bibcode:2013Entrp..15.4668W. doi:10.3390/e15114668.
  20. David H. Wolpert and Charles E. Strauss (1996). "What Bayes has to say about the evidence procedure". Maximum Entropy and Bayesian Methods 1993.
  21. David H. Wolpert (1996). "Determining Whether Two Data Sets are from the Same Distribution". Maximum Entropy and Bayesian Methods 1995.
  22. David H. Wolpert (1996). "The Bootstrap is Inconsistent with Probability Theory". Maximum Entropy and Bayesian Methods 1995.
  23. David H. Wolpert (1997). "On Bias plus Variance". Neural Computation. 9 (6): 1211–1243. doi:10.1162/neco.1997.9.6.1211.
  24. David H. Wolpert (1992). "Stacked Generalization". Neural Networks. 5 (2): 241–259. CiteSeerX 10.1.1.133.8090. doi:10.1016/s0893-6080(05)80023-1.
  25. Joseph Sill; et al. (2008). "Feature-Weighted Linear Stacking". Physica D: Nonlinear Phenomena. 237 (9): 1257–1281. arXiv:0708.1362. Bibcode:2008PhyD..237.1257W. doi:10.1016/j.physd.2008.03.040.

پیوند به بیرون

[ویرایش]