Миналата година MIT разработи AI/ML алгоритъм, способен да учи и да се адаптира към нова информация по време на работа, а не само по време на началната фаза на обучение. Тези “течни” невронни мрежиБрус Лий смисъл) буквално играят 4D шах — техните модели изискват данни от времеви редове за работа — което ги прави идеални за използване при чувствителни към времето задачи като наблюдение на пейсмейкъра, прогнозиране на времето, прогнозиране на инвестициите или автономна навигация на превозни средства. Но проблемът е, че пропускателната способност на данните се е превърнала в пречка и мащабирането на тези системи е станало непосилно скъпо от изчислителна гледна точка.

Във вторник изследователи от Масачузетския технологичен институт обявиха, че са измислили решение на това ограничение, не чрез разширяване на тръбопровода за данни, а чрез решаване на диференциално уравнение, което изумява математиците от 1907 г. насам. По-конкретно, екипът реши „диференциалното уравнение зад взаимодействието на две неврони чрез синапси… за отключване на нов тип бързи и ефективни алгоритми за изкуствен интелект.“

„Новите модели за машинно обучение, които наричаме „CfC“ [closed-form Continuous-time] замени диференциалното уравнение, дефиниращо изчислението на неврона, с приближение на затворена форма, запазвайки красивите свойства на течните мрежи без необходимост от числена интеграция“, каза професорът от MIT и директор на CSAIL Даниела Рус в изявление за пресата във вторник. „CfC моделите са причинно-следствени, компактни, обясними и ефективни за обучение и прогнозиране. Те отварят пътя към надеждно машинно обучение за критични за безопасността приложения.“

Включете известията на браузъра, за да получавате предупреждения за извънредни новини от Engadget
Можете да деактивирате известията по всяко време в менюто с настройки.

Не сега

Източник: www.engadget.com

Публикациите се превеждат автоматично с google translate


Сподели