Съдържание:
- Дълбокото обучение разчита твърде много на данните
- Дълбокото обучение не е гъвкаво
- Дълбокото обучение е непрозрачно
- Дълбокото учене може да бъде надпечатано
Видео: HUGE EGGS Surprise Toys Challenge with Inflatable water slide (Ноември 2024)
През 2012 г. група учени от Университета в Торонто направи пробив в класификацията на образите.
На ImageNet, годишно състезание по изкуствен интелект (AI), в което състезателите се борят за създаването на най-точния алгоритъм за класификация на изображенията, екипът на Торонто дебютира AlexNet, „който победи полето с огромен 10, 8 процентни маржови точки… 41 процента по-добър от следващият най-добър “, според Quartz.
Мнозина възхваляват дълбокото учене и неговият суперсет, машинно обучение като технология с общо предназначение на нашата ера и по-дълбока от електричество и огън. Други обаче предупреждават, че задълбоченото учене в крайна сметка ще бъде най-доброто за хората при всяка задача и ще стане най-добрият убиец. А експлозията на приложения и услуги, задвижвана от задълбоченото учене, възроди страховете от апокалипсис на ИИ, при който свръх интелигентните компютри завладяват планетата и вкарват хората в робство или изчезване.
Но въпреки hype, задълбоченото обучение има някои недостатъци, които могат да му попречат да реализира някои от обещанията си - както положителни, така и отрицателни.
Дълбокото обучение разчита твърде много на данните
Дълбокото обучение и дълбоките невронни мрежи, които се състоят от основната му структура, често се сравняват с човешкия мозък. Но умът ни може да научи концепции и да взема решения с много малко данни; дълбокото обучение изисква тонове проби за изпълнение на най-простата задача.
В основата си дълбокото обучение е сложна техника, която картографира входовете към резултатите, като намира общи модели в етикетирани данни и използва знанията за категоризиране на други извадки от данни. Например, дайте на приложението за задълбочено обучение достатъчно снимки на котки и то ще може да открие дали снимката съдържа котка. По същия начин, когато алгоритъмът за задълбочено обучение поглъща достатъчно звукови образци от различни думи и фрази, той може да разпознае и преписва реч.
Но този подход е ефективен само когато имате много качествени данни, за да захранвате своите алгоритми. В противен случай алгоритмите за задълбочено обучение могат да направят диви грешки (като грешка на пушка за хеликоптер). Когато данните им не са всеобхватни и разнообразни, алгоритмите за задълбочено обучение дори показват расистко и сексистко поведение.
Разчитането на данни също води до проблем с централизацията. Тъй като имат достъп до огромно количество данни, компании като Google и Amazon са в по-добра позиция да разработят високоефективни приложения за дълбоко обучение, отколкото стартъпи с по-малко ресурси. Централизацията на AI в няколко компании може да попречи на иновациите и да даде на тези компании твърде много власт върху своите потребители.
Дълбокото обучение не е гъвкаво
Хората могат да научат абстрактни понятия и да ги прилагат в различни ситуации. Правим това непрекъснато. Например, когато играете за компютърна игра като Mario Bros. за първи път, можете незабавно да използвате знания от реалния свят - например необходимостта да прескачате ями или да избягвате огнени топки. Впоследствие можете да приложите знанията си за играта към други версии на Mario, като Super Mario Odyssey или други игри с подобна механика, като Donkey Kong Country и Crash Bandicoot.
AI приложенията обаче трябва да научат всичко от нулата. Един поглед как алгоритъмът за задълбочено обучение се учи да играе Марио показва колко различен е процесът на обучение на AI от този на хората. По същество започва да не знае нищо за своята среда и постепенно се научава да взаимодейства с различните елементи. Но знанията, които получава от играта на Марио, обслужват само тесния домейн на тази единствена игра и не могат да се прехвърлят на други игри, дори и други игри на Марио.
Тази липса на концептуално и абстрактно разбиране задържа приложенията за задълбочено обучение, фокусирани върху ограничени задачи и предотвратява развитието на общ изкуствен интелект, вида AI, който може да взема интелектуални решения, както хората правят. Това не е непременно слабост; някои експерти твърдят, че създаването на общ ИИ е безсмислена цел. Но със сигурност е ограничение в сравнение с човешкия мозък.
Дълбокото обучение е непрозрачно
За разлика от традиционния софтуер, за който програмистите определят правилата, приложенията за задълбочено обучение създават свои собствени правила чрез обработка и анализ на тестови данни. Следователно, никой наистина не знае как стигат до заключения и решения. Дори разработчиците на алгоритми за дълбоко обучение често се озадачават от резултатите на своите творения.
Тази липса на прозрачност може да бъде основна пречка за ИИ и задълбоченото обучение, тъй като технологията се опитва да намери своето място в чувствителни области като лечение на пациенти, правоприлагане и самостоятелно управление на автомобили. Алгоритмите за задълбочено обучение може да са по-малко податливи на грешки, отколкото хората, но когато правят грешки, причините за тези грешки трябва да бъдат обясними. Ако не можем да разберем как работят нашите AI приложения, няма да можем да им се доверим с критични задачи.
Дълбокото учене може да бъде надпечатано
Дълбокото обучение вече доказа своята стойност в много области и ще продължи да трансформира начина, по който правим нещата. Въпреки своите недостатъци и ограничения, задълбоченото обучение не ни провали. Но трябва да коригираме очакванията си.
Както предупреждава ученът на AI Гари Маркъс, прекаляването с технологията може да доведе до друга "AI зима" - период, когато прекалено високите очаквания и недобросъвестността водят до общо разочарование и липса на интерес.
Маркъс предполага, че задълбоченото обучение не е „универсален разтворител, а един инструмент сред многото“, което означава, че макар да продължаваме да изследваме възможностите, които предоставя задълбоченото обучение, трябва да разгледаме и други, коренно различни подходи за създаване на AI приложения.
Дори и професор Джефри Хинтън, който е пионер в работата, довела до революцията в дълбокото обучение, смята, че вероятно ще трябва да бъдат измислени изцяло нови методи. "Бъдещето зависи от някой аспирант, който е дълбоко подозрителен към всичко, което съм казал", каза той пред Axios.