РЕКЛАМА

Загрузка...


Первая информация о проекте полноценного графического ускорителя от Intel появилась еще в конце 2007 года. С тех пор компания успела немного пересмотреть концепцию и несколько раз перенести сроки релиза Larrabee. На IDF старший вице-президент Intel Пэт Гельсингер подтвердил, что ускоритель выйдет на рынок в конце этого или начале следующего года, а его основным предназначением станут не столько трехмерные игры, сколько помощь центральному процессору в сложных вычислениях.' />

Графический ускоритель Intel Larrabee выйдет в конце этого года

На данный момент Intel уже тестирует первые образцы Larrabee в кремнии. На французском сайте hardware.fr даже разместили фотографию вице-президента компании с пластиной чипов Larrabee. В рамках самого IDF Intel представила некоторые инструменты для разработчиков. В своей презентации Гельсингер отметил, что компания теперь ждет отзывов. Интересно, что Intel использует иные принципы, чем ATI и Nvidia, поэтому компании придется завоевать признание программистов. Каким бы новаторским ни был чип, какие бы гениальные идеи в него ни заложили, свой потенциал он все равно реализует в приложениях. Не будет программ, которые раскроют прелести Larrabee, графика от Intel окажется выстрелом в воздух. В этом смысле релиз Larrabee аналогичен х86-процессору Nvidia.

А вот и кое-что интересное. Larrabee будет нацелен на параллельные вычисления. API Cuda от Nvidia позволяет использовать всю мощь видеокарты компании, содержащих более миллиарда транзисторов, для решения математических и других задач, которые раньше полностью ложились на центральный процессор. Есть аналогичный проект и у ATI, Apple и других – OpenCL. Язык для Larrabee получил название CT.

Графический ускоритель Intel Larrabee выйдет в конце этого года


К сожалению, пока не известно, что из себя представляют сами чипы Larrabee. В основу архитектуры лег Pentium образца 1995 года. Позднее Intel более подробно рассказала о внутреннем устройстве процессора. В этот раз на IDF Гельсингер отметил, что GPU хорошо масштабируются: наблюдается прямая зависимость между количество ядер и производительностью. Затем он продемонстрировал пластину с уже готовыми образцами Larrabee. Вице-президент Intel показывал ее публике буквально пару минут. Судя по всему фотография с hardware.fr является единственной возможностью рассмотреть, что представляет собой проект в кремнии. Чипы столь же велики, как Nvidia GT200, которые выпускались по техпроцессу 65 нм, но при этом хорошо видно, что сама пластина относится к более тонким нормам: 45 или 32 нм.
4
947
12 апреля 2009
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.
Смотрите также
Intel до конца года покажет разработчикам видеокарту LarrabeeIntel до конца года покажет разработчикам видеокарту Larrabee

Корпорация Intel вышлет разработчикам свою новую дискретную видеокарту Larrabee в ноябре 2008 года, пишет The Inquirer. В январе текущего года Intel п...

Фотография 48-ядерного процессора IntelФотография 48-ядерного процессора Intel

Компания Intel уже давно рассказывает на профильных мероприятиях о своём процессоре с 48 простыми ядрами, который может использоваться разработчиками...

Nvidia подтвердила возможность выпуска собственного Intel-совместимого проц ...Nvidia подтвердила возможность выпуска собственного Intel-совместимого проц ...

Компания Nvidia в течение двух-трех лет может выпустить Intel-совместимый процессор, сообщает Electronista со ссылкой на заявление старшего вице-прези...

Intel выпустила новые процессоры для встраиваемых системIntel выпустила новые процессоры для встраиваемых систем

Компания Intel начала производство процессоров для встраиваемых систем и мобильных интернет устройств, сообщает Ars Technica. Чипы Intel EP80579 Integ...

Загрузка...
Комментарии

MoDErahN
12 апреля 2009 23:22
Посмотрим что за паровоз

Iron Man
13 апреля 2009 00:15
Хорошая новость среди знающих всю пользу данных чипов. Удобнее будет пользоваться видео редакторами. Главное что видно что это технология развивается. smile

topme
13 апреля 2009 09:42
Спасибо. Буду стараться быть в центре IT-индустрии и постить это все здесь

MoDErahN
17 апреля 2009 01:23
Цитата: Iron Man
Удобнее будет пользоваться видео редакторами.

Видеоредакторам от GPU польза что в голове, что в ж..пе никакая. Вообще очень сложно хоть как то прикрутить функции GPU к кодированию видео.
Другое дело различные редакторы 2D и 3D графики, но и там задачи зачастую настолько спецефичны и дифиринциальны, что намного проще реализовать их старым дедовским способом, задействовав только CPU.
На самом деле GPU предоставляет достаточно узкий набор функций, да, они позволяют обсчитывать графику в разы быстрее чем CPU, но делается это не очень большим количеством узкоспециализированных алгоритмов, что в итоге сводит к нулю прирост производительности при создании математически сложных эффектов графики.
Вы думаете почему тот же 3DMax только совсем недавно стал хоть как-то задействовать GPU (я имею ввиду при рендеринге, во время разработки все естественно через графический процессор отображается)? А все потому, что GPU не может дать всего того многообразия эффектов, которые необходимы на выходе.


Так что тут нужно очень четко проводить границы, да, GPU хорош для расчета потоковой графики, и очень быстр, но качество обсчета никогда не сравниться с затратным по времени и памяти, но выверенным алгоритмом, который будет выполнен CPU.
Посетители, находящиеся в группе Гости, не могут оставлять комментарии в данной новости.
Понедельник, 20 Февраля
USD 1.8731
EUR 1.9952
RUB 0.0325
evg256 306 минут назад
Цитата: gismo_2
А моделлеры, их есть у меня, могу дать контакты.
Энтузиасты все ушли, энтузиазм выветрился, а я один в довесок к работе пока не потяну, но за предложение благодарю, если что, буду знать, куда обратиться)
gismo_2 311 минут назад
Цитата: evg256
Зная ядро сложно не стать лидом в компании, которая это оценит.

Ну да, особенно в своей собственной...
evg256 312 минут назад gismo_2, давай, gl hf. Зная ядро сложно не стать лидом в компании, которая это оценит. Кодеров и так куча.
в Unity частицы на GPU перенести
А вот тут как-раз и требуют тех, кто бы шарил в графических апи, а не просто в двигах. Так-то да, на gpu можно очень крутые вещи делать, при том быстродейственные.

SabakaZ, я пытался, рассыпаются... а еще в песочнице каки(
gismo_2 313 минут назад
Цитата: evg256
я был очень рад, что UE4 на С++. Но для таких движков, как Unity и, особенно UE4, нужен соответствующая задумка, иногда реально проще написать на фреймворке, чем брать полноценный двиг. Пока в функционале разберешься, куча времени пройдет, да и избыточность 90%. А вообще нужно ж где-то контент еще брать, это моделлер нужен, художник. В общем так и загнулся наш проект игровой.

Ну, если бы только избыточность. Я помню, жопу порвал чтобы в Unity частицы на GPU перенести.
А моделлеры, их есть у меня, могу дать контакты.
evg256 315 минут назад gismo_2, я был очень рад, что UE4 на С++. Но для таких движков, как Unity и, особенно UE4, нужен соответствующая задумка, иногда реально проще написать на фреймворке, чем брать полноценный двиг. Пока в функционале разберешься, куча времени пройдет, да и избыточность 90%. А вообще нужно ж где-то контент еще брать, это моделлер нужен, художник. В общем так и загнулся наш проект игровой. gismo_2 316 минут назад
Цитата: evg256
да не особо, все приходиться на ходу учить.

Изучай ядро, я Лид буквально потому что ядро знаю.

Короче, уже 2 часа, пойду переключу контекст. А то сегфолтить начинаю.
SabakaZ 320 минут назад А я куличики круто леплю. gismo_2 320 минут назад
Цитата: evg256
игрушки

Прикольно, я в свое удовольствие Unity и UE4 колупаю.
Новости от партнеров

ИНТЕРЕСНОЕ:

Загрузка...
Сейчас на сайте
9 пользователей, 660 гостей