Категории
Самые читаемые
onlinekniga.com » Бизнес » О бизнесе популярно » Взрывной рост: Почему экспоненциальные организации в десятки раз продуктивнее вашей (и что с этим делать) - Майкл Мэлоун

Взрывной рост: Почему экспоненциальные организации в десятки раз продуктивнее вашей (и что с этим делать) - Майкл Мэлоун

Читать онлайн Взрывной рост: Почему экспоненциальные организации в десятки раз продуктивнее вашей (и что с этим делать) - Майкл Мэлоун

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 12 13 14 15 16 17 18 19 20 ... 73
Перейти на страницу:

Глубинное обучение – это новый захватывающий раздел машинного обучения, основанный на технологии искусственных нейронных сетей. Технология глубинного обучения позволяет машинам выявлять новые паттерны без опоры на исторические или обучающие данные. Ведущими стартапами в этой области являются DeepMind, приобретенный Google за 500 млн долларов в начале 2014 года, когда в нем насчитывалось всего 13 сотрудников, и Vicarious, финансируемый из кармана Илона Маска, Джеффа Безоса и Марка Цукерберга. Twitter, Baidu, Microsoft и Facebook также инвестировали значительные средства в эту область. Алгоритмы глубинного обучения опираются на «открытие знаний» и самоиндексацию и действуют во многом так же, как ребенок, который учится произносить первые звуки, затем слова, предложения и наконец овладевает речью. Например, в июне 2012 года команда Google X создала нейронную сеть, состоящую из 16 000 компьютерных процессоров и насчитывающую миллиард соединений. После того как эта система в течение трех дней «просмотрела» 10 млн случайно выбранных видеороликов на YouTube, она научилась самостоятельно распознавать кошек, фактически не зная, что такое «кошка». Важно отметить, что это произошло без какого-либо вмешательства со стороны человека.

За истекшие два года возможности глубинного обучения значительно возросли. Сегодня алгоритмы глубинного обучения не только используются для совершенствования систем распознавания речи, создания более эффективной поисковой системы (Рэй Курцвейл работает над этим в Google) и распознавания отдельных объектов; они также способны находить конкретные эпизоды на видео и составлять их текстовое описание, причем без вмешательства человека. Эти алгоритмы даже могут играть в видеоигры, обучаясь правилам игры, а затем оптимизируя свои игровые стратегии и тактики.

Подумайте о последствиях такого революционного прорыва. Технологии сделают большинство продуктов и услуг более эффективными, персонализированными и дешевыми. Но одновременно это приведет к кардинальному изменению множества профессий и даже к исчезновению многих из них.

Например, на сегодняшний день американская транспортно-логистическая компания UPS владеет флотом из 55 тысяч грузовых автомобилей, которые совершают 16 млн доставок в день. При таких объемах перевозок неэффективная маршрутизация может вести к весьма значительным издержкам. Благодаря применению телематики и алгоритмов компания помогает водителям экономить 85 млн миль в год, что уже сохранило ей 2,55 млрд долларов. Похожие технологии начинают широко использовать в сфере здравоохранения, энергетики и финансовых услуг, что означает, что мы вступаем в мир алгоритмов.

Еще в 2005 году предприниматель и издатель Тим О'Райли заявил, что «данные – это новый Intel Inside». И это когда в мире насчитывалось всего полмиллиарда подключенных к интернету устройств. Как уже говорилось в 1-й главе, с приходом интернета вещей их количество возрастет до триллиона устройств.

Перед лицом такого взрывного роста потребность в алгоритмах встает как нельзя более остро. Только задумайтесь на минуту: за последние два года было создано в девять раз больше данных, чем за всю предыдущую историю человечества. По прогнозам Computer Science Corporation, к 2020 году мы создадим 73,5 зеттабайт данных – выражаясь словами Стивена Хокинга, это семьдесят три с двадцатью одним нулем.

Примечательно и зачастую печально, что большинство компаний сегодня по-прежнему полагаются почти исключительно на интуитивные догадки своих лидеров. Даже если они используют данные для анализа, они часто становятся жертвами длинного списка когнитивных ошибок при принятии решений – от ошибки невозвратных затрат до ошибки подтверждения (список наиболее типичных когнитивных ошибок смотрите ниже). Одна из причин успеха компании Google кроется в том, что она гораздо шире опирается на данные, чем большинство других компаний, вплоть до найма персонала.

Точно так же, как сегодня мы больше не можем справиться со сложностями управления воздушным движением или цепочками поставок без помощи алгоритмов, завтра почти все решения и оценки в бизнесе будут опираться на данные.

Анализ 17 исследований практик найма персонала, проведенный Американской психологической ассоциацией, показал, что простой алгоритм побеждает человеческую интуицию более чем на 25 % с точки зрения успешного найма сотрудников. Эксперт в области искусственного интеллекта Нил Якобстейн отмечает, что искусственный интеллект и алгоритмы позволяют уменьшить влияние или полностью исключить многие из следующих эвристических ошибок человеческого интеллекта:

• Ошибка якорения: Тенденция чрезмерно сосредотачиваться («якориться») на какой-либо определенной информации или одном факторе при принятии решений.

• Ошибка доступности: Тенденция переоценивать вероятность событий, которые более «доступны» в памяти из-за того, что произошли недавно или же являются более яркими, необычными или эмоционально окрашенными.

• Ошибка подтверждения: Тенденция искать и вспоминать такую информацию, а также интерпретировать информацию таким образом, чтобы подтвердить существующие убеждения.

• Эффект обрамления: Тенденция делать разные выводы на основе одной и той же информации в зависимости от того, кем и как представлена эта информация.

• Ошибка оптимизма: Склонность быть чрезмерно оптимистичным, переоценивать вероятность благоприятных событий и исходов.

• Ошибка при планировании: Тенденция переоценивать выгоды и недооценивать затраты и время, необходимое для выполнения задачи.

• Ошибка невозвратных затрат или отвращение к потере: Негативные эмоции, которые люди испытывают при потере чего-либо, намного превосходят положительные эмоции, которые они испытывают при приобретении того же размера[5].

Как любит подчеркивать Якобстейн, кора головного мозга не подвергалась серьезной модернизации 50 тысяч лет. По размеру, форме и толщине она сравнима с бумажной салфеткой. «Что если бы мы могли создать аналог коры размером со скатерть? Или с Калифорнию?» – задает он вопрос.

Существует интересное расхождение во мнениях относительно того, как много данных следует использовать в зависимости от характера рынка, на котором работает организация. Традиционная мудрость говорит, что нужно собирать как можно больше данных (отсюда и термин «большие данные»), но психолог Герд Гигеренцер предупреждает, что на рынках с высокой степенью неопределенности лучше использовать более простой, эвристический подход и опираться на меньше переменных. В то же время на стабильных и предсказуемых рынках он рекомендует организациям усложнять анализ и использовать алгоритмы с большим количеством переменных.

Одним из лидеров в области извлечения ценой информации из массивов данных является компания Palantir, основанная в 2004 году. Она занимается разработкой программных решений для государственного, коммерческого и медицинского секторов, помогая организациям извлекать пользу из разрозненных сырых данных. Беря на себя решение технических проблем, Palantir позволяет клиентам сосредоточиться на решении человеческих проблем. Венчурные инвесторы предсказывают Palantir большое будущее – компания уже получила ошеломительные 900 млн долларов финансирования и оценивается в 10 раз дороже.

Майкл Чуй отмечает, что сегодня многие успешные компании встраивают большие данные в свои ДНК. Мы считаем, что это только начало и в ближайшие годы появится еще больше ЭксО с бизнес-моделями на основе алгоритмов, которые в полной мере задействуют то, что Юри ван Геест называет «Пятью П больших данных»: производительность, профилактика, партиципация, персонализация и прогнозирование.

Бизнес-модель на основе алгоритмов включает четыре основных шага:

1. Сбор: Аналитический процесс начинается с получения данных, которые могут собираться через систему датчиков или людей или импортироваться из открытых наборов данных.

2. Обработка: Следующим шагом необходимо организовать данные и подготовить их для анализа при помощи процесса, известного как ETL-процесс (извлечение, преобразование и загрузка).

3. Анализ: После того как данные подготовлены, к ним необходимо применить инструменты машинного обучения, такие как Hadoop и Pivotal, или даже алгоритмы глубинного обучения (с открытым кодом), такие как DeepMind, Vicarious или SkyMind, чтобы извлечь их них полезные знания, выявить тенденции и настроить новые алгоритмы.

4. Открытие данных: Последний шаг – выложить данные в открытый доступ. Использование открытой платформы с открытыми данными и интерфейсами прикладного программирования позволяет сообществу ЭксО разрабатывать новые ценные услуги, новые функциональные возможности и инновационные продукты поверх платформы ЭксО, смешивая данные ЭксО с собственными данными. Именно так поступают такие известные компании, как Ford, Uber, Rabobank, порт Роттердам, IBM Watson, Wolfram Alpha, Twitter и Facebook.

1 ... 12 13 14 15 16 17 18 19 20 ... 73
Перейти на страницу:
На этой странице вы можете бесплатно читать книгу Взрывной рост: Почему экспоненциальные организации в десятки раз продуктивнее вашей (и что с этим делать) - Майкл Мэлоун.
Комментарии