Larrabee - новый GPU от Интел. Очень много шума в форумах и блогах по поводу Larrabee, то есть как минимум в этом Интел преуcпела - разработчики интересуются. Сами интеловцы ездят по конференциям, рассказывают всякое и слайды показывают.
Larrabee будет состоять из кучи x86 процессоров. Программировать его можно будет на С++. На том С++, к которому все привыкли, а не на каком-то странном языке, похожем на С++. И с использованием компиляторов, к которым все привыкли. Это приятно. Как оно всё будет на самом деле, увидим и довольно скоро.
Ссылки:
Parallel Programming on Larrabee - слайды
Next-Generation Graphics on Larrabee - слайды
Larrabee: A Many-Core x86 Architecture for Visual Computing[.pdf]
Larrabee for HPC: Not So Fast
Intel Larrabee - википедия
Thanksgiving
5 дней назад
11 коммент.:
Ох уж они со своим x86 то...
интересно - насколько это похоже на wliv процы?
на Texas Instruments тоже можно писать на C++ а их хитрый компилер распараллеливает код по конвейерам достаточно эффективно, и для GPU задач эти процы весьма эффективны.
Дык это ж дополнительные IA32/64 CPU в количестве до 48 штук...
Для многозадачности должно хорошо рулить.
PS: А графика мне в общем-то пофиг. системщик я. :)
Это хорошая новость. Поскольку мы делаем некоторые продукты для военных, нам не разрешают использовать DSP от NVIDIA и прочих иностранных производителей(а тексас, вообще, считается конкурентом), а Intel-у почему-то доверяют :)
2 Андрей Валяев
>> Дык это ж дополнительные IA32/64 CPU в количестве до 48 штук...
А на каждом еще и по 4ре гпертреда...
Но есть и менее приятные новости. "Есть мнение", что это "In order" числодробилка.
Интел хочет максимально использовать свои х86 наработки. Похоже не очень умные менеджеры сказали: «Мы завоевали рынок своими x86 CPU, теперь завоюем рынок x86 GPU». Я не могу понять какое преимущество дает использование x86 архитектуры в GPU. Похоже это простая возможность для Интел продолжать производство морально устаревших ядер. А на понятном С++ можно писать и не под х86.
А сейчас есть привыкшие использовать софтверные рендеры, а не надстройки над OpenGL, DirectX и тому подобные языки?
Интересная разработка, если заживет - можно будет распараллеливать, например, обработку видео на видеокарте.
2AleSha:
А сейчас есть привыкшие использовать софтверные рендеры, а не надстройки над OpenGL, DirectX и тому подобные языки?
Как минимум софтверный рендерер придется использовать, если у тебя железка без хардварной акселерации. Возможно, в компании есть некий софтверный рендерер, написанный в стародавние времена, который всех устраивает, и который периодически дорабатывается.
Еще есть научные разработки по поводу рендеринга, там тоже все софтово.
2omega:
Интересная разработка, если заживет - можно будет распараллеливать, например, обработку видео на видеокарте.
Дык эта, уже можно.
На CUDA чего только не считают. В том числе и видео обрабатывают.
А программировать шейдеры не так уж и сложно. Не вижу смысла ставить создавать столько шума. Вот если цена-производительность будет на высоте, да и сами процессоры окажются хорошими, то мне все равно, является ли этот язык истенным С++ или просто похож. До сегодняшнего дня Intel пока не очень преуспевал со своими графическими процессорами.
Не перуспевал? Интел лидер на рынке встроенных видеоадаптеров.
Зачем покупать дискретную видеокарту за 200$ если в процессор за 400$ сможет справляться с графикой? ИМХО по этому ивидиа стала суетиться с лицензированием x86 технологий, покупать VIA и т.п.
Отправить комментарий