Категории
Самые читаемые
onlinekniga.com » Компьютеры и Интернет » Прочая околокомпьтерная литература » Цифровой журнал «Компьютерра» № 166 - Коллектив Авторов

Цифровой журнал «Компьютерра» № 166 - Коллектив Авторов

Читать онлайн Цифровой журнал «Компьютерра» № 166 - Коллектив Авторов

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 11 12 13 14 15 16 17 18 19 ... 29
Перейти на страницу:

Дело здесь не столько в этике, сколько в целесообразности. Токсикологические эксперименты на лабораторных животных характеризуются относительно низким показателем воспроизводимости результатов. Вдобавок они требуют эмпирических методов пересчёта для учёта отличий в строении человека.

3D-биопринтер Organovo (фото: Wired)

Концептуально сходный исследовательский приём – моделирование патологических процессов с целью изучения ключевых механизмов их развития. На животных это делать непродуктивно, а идентичная ткань будет практически идеальной моделью. Упомянутая Organovo в 2013 году начала сотрудничать в этом направлении с Институтом проблем рака при университете штата Орегон.

В целом биопечать позволяет оценить многие аспекты влияния различных веществ и процессов непосредственно на тех клетках, которые являются основными мишенями для новых препаратов. Наиболее полноценно это можно сделать в рамках концепции «лаборатория-на-чипе», о которой «Компьютерра» уже писала.

Перспективы

Наибольший интерес проявляется к грантам на послойное создание из живых клеток работающей и пригодной для трансплантации почки. На втором месте стоит задача биопечати печени и поджелудочной железы. Эти тему в последние годы относительно щедро финансируют NASA, DARPA, другие крупные агентства и неправительственные организации. Однако сначала всё же попытаются создать простые полые органы, и только затем придёт очередь более сложных – паренхиматозных. В настоящее время исследователи отмечают, что при существующих темпах развития отрасли доли первых органов можно будет напечатать не ранее чем к 2030 году. Берегите себя! Менять запчасти по гарантии нам будут ещё не скоро.

К оглавлению

Потоки игр, или Почему графическая революция с облаков не спустится

Юрий Ильин

Опубликовано 26 марта 2013

Если в середине 1990-х компьютерные игры с завышенными системными требованиями могли провалиться в продажах, то уже в начале 2000-х именно игры повышенной требовательности сделались основным локомотивом продаж нового компьютерного «железа». Исходя из той здравой, казалось бы, мысли, что далеко не все готовы покупать топ-модели, производители начали «диверсификацию» своей продукции, и вот сейчас на рынке — огромное количество похожих по заявленным характеристикам процессоров (обычных и графических), и надо иметь усердие зоолога или ботаника, чтобы разбираться, чем они отличаются друг от друга при практическом использовании. Производители игр тоже, мягко говоря, не в восторге от такой фрагментированности платформы PC: слишком много ресурсов уходит на то, чтобы обеспечивать совместимость со всеми разновидностями процессоров и графических карт. В результате и для разработчиков игр, и для геймеров, которые не могут себе позволить топовые игровые платформы, очень соблазнительной выглядит идея вывести все вычисления, связанные с графикой (и даже, возможно, с игровой логикой), за пределы пользовательской платформы. Например, на «облако».

Преимущества подобного подхода, казалось бы, налицо: на сервере можно рендерить всё что угодно, так что в теории становится возможным видеореализм, подлинная трассировка лучей в реальном времени, неограниченное количество полигонов и так далее. Но только в теории.

На пользовательское устройство передаётся уже только видеосигнал, а для его отображения гипермощного видеопроцессора не требуется. Для разработчиков и издателей плюсы тоже очевидны: поскольку на стороне пользователя будет только «тонкий клиент», а сам игровой контент останется на сервере, проблема пиратства либо снимается вовсе, либо её острота значительно снижается. Но слишком много появляется и проблем. Главная из них — это толщина канала связи и количество других факторов, влияющих на скорость соединения между пользовательским устройством и «облаком».

Тем не менее попытки реализовать что-то подобное предпринимались раньше и, вероятно, будут предприниматься и впредь.

Новая веха?

Год назад в беседе с корреспондентом «Компьютерры» директор по продажам подразделения AMD Component Channel в регионе EMEA Бертран Кокар заметил, что лично для него следующая веха в ИТ-мире наступит, «когда весь рендеринг будет осуществляться на сервере, а не на вашем компьютере»:

- Всё упирается в алгоритмы сжатия информации. Не в 2012 году, но в последующие годы что-то подобное произойдёт непременно. Сегодня всё больше люди играют через интернет, а не индивидуально на своих десктопах.

Как ни странно, наступления этой «новой вехи» ждут уже более десятилетия: ещё в 2000 году компания G-Cluster представила на Е3 свою технологию, где весь рендеринг и расчёты проводились на сервере, после чего графика перебрасывалась на ручные консоли через беспроводные соединения. В конце февраля 2013 года G-Cluster и Konami объявили о заключении партнёрского соглашения, в рамках которого в игры Konami можно будет играть на любом телевизоре, подключённом к широкополосному каналу связи.

«G-Cluster превращает телевизор в эквивалент игровой консоли, при этом необходимость в приобретении дорогостоящего оборудования отсутствует», — указывается в пресс-релизе обеих компаний. Там же говорится, что первые «облачные» игры будут объявлены уже этой весной. Ждём-с.

В свою очередь, Crytek ещё в 2005 году начала изыскания в области «облачного гейминга» для игры Crysis, но в 2007 году приостановила разработки, сославшись на то, что существующая сетевая инфраструктура, мягко говоря, не совсем готова.

В 2010 и 2011 годах были запущены сразу несколько сервисов, предоставлявших (и предоставляющих) услуги облачного гейминга. Это, во-первых, Onlive, во-вторых, Jeuxvideo a la demande, базирующийся на технологии вышеупомянутых G-Cluster, в-третьих, Gaikai, в четвёртых, китайский сервис Cloud Union, который к июлю 2012 года набрал 300 тысяч пользователей. Впрочем, для Китая это капля в море.

В том же июле 2012 года Sony выкупила за 380 млн долларов сервис-провайдер Gaikai, к тому моменту уже крупнейший в мире. К моменту покупки сервис предлагал более 200 игровых наименований, а аудитория составляла порядка 50 млн человек.

Ну а в августе 2012 года стало известно, что OnLive уволил большую часть персонала, а в октябре был продан некоей венчурной фирме за вшивые, простите, 4,8 млн долларов, притом что даже тогда ещё капитализация сервиса оценивалась в несколько сотен миллионов долларов. В общем, печальная и вряд ли красивая история.

По техническим причинам

В 2012 году на выставке GPU Technology conference NVidia представила свою концепцию «виртуализации GPU», а также технологию, которая позволяет использовать графические процессоры в качестве основы для крупных дата-центров («облаков», собственно).

«Облачные GPU-технологии основываются на новой архитектуре Nvidia Kepler GPU Architecture, предназначенной для использования в крупномасштабных дата-центрах. Её виртуализационные возможности позволяют одновременно использовать одни и те же GPU сразу несколькими пользователями. Её сверхскоростная передача потоковых данных устраняет все задержки, так что складывается впечатление, будто удалённый дата-центр находится за соседней дверью. А её высочайшая энергоэффективность и плотность обработки данных снижают стоимость владения таким дата-центром», — говорится в пресс-релизе.

Реализация архитектуры Kepler сразу же пошла в двух направлениях — платформа VGX для виртуализации десктопов для корпоративного сектора и GeForce GRID для облачного гейминга.

Чжэн-Сунь Хуан рядом с рэком с серверами Grid. Этот рэк позволит обслуживать одновременно до 480 человек (фото: Ars Technica)

Если говорить о технике, то основу системы Grid составляет, собственно, игровой сервер размером 2U, в котором располагаются 12 GPU Nvidia. Каждый из этих GPU способен обслуживать одновременно двух пользователей (таким образом, каждый сервер обслуживает до 24 человек одновременно). Если нужно больше пользователей, потребуется больше серверов. Серверный рэк с 20 серверами способен, соответственно, обслуживать 480 пользователей, потребляя при этом 800-900 Вт энергии в нагруженном состоянии.

Главной проблемой для всех подобных затей, однако, остаётся задержка в интерактивности. Особенно это касается шутеров, где доли секунды решают всё. Одна из причин провала OnLive заключается как раз в том, что они толком не смогли победить эту задержку. Да и невозможно её победить в настоящее время. Сказываются географическое расстояние от пользовательского устройства до физического размещения дата-центра, в котором располагается игровое «облако», количество сетей разных провайдеров, по которым идёт сигнал, состояние этих сетей и задержки в них. В общем, неизвестных очень много.

NVidia, конечно, делает всё, что может: в частности, собственные технологии кодирования видео позволяют «экономить» до 30 мс на стороне сервера (плюс ещё 10 мс на стороне пользователя, если у него самого установлены собственные графические процессоры NVidia). Но опять же, NVidia не в состоянии привести к нужному уровню качества сети провайдеров — по объективным причинам.

1 ... 11 12 13 14 15 16 17 18 19 ... 29
Перейти на страницу:
На этой странице вы можете бесплатно читать книгу Цифровой журнал «Компьютерра» № 166 - Коллектив Авторов.
Комментарии