Инженер из Микрософта рассказывает об аналоге MapReduce, под названием Dryad. В отличие от MapReduce, работа идет с ацикличным графом, с его помощью можно разные интересные штуки делать с обработкой данных. Вообще произвольный ацикличный граф - штука мощная, тут при желании сложность можно задрать до небес. Но если без фанатизма, то Dryad выглядит интересно.
Доклад вообще хороший. Но есть неприятные моменты. Во-первых, несколько раз подчеркивается, что это "как MapReduce, только лучше". То есть MapReduce их очень задевает.
Во-вторых, докладчик сильно нервничает, но явно на пустом месте. На вопросе про устойчивость к ошибкам его разве что не трясло. При этом он явно знает о чем говорит, что-то где-то забыл, но это нормально...
По ссылке с Geeking with Greg.
Ссылки по теме:
Кроме видео, есть документ Dryad: Distributed Data-Parallel Programs from Sequential Building Blocks
Про MapReduce можно почитать здесь: Передовые технологии Гугла.
четверг, декабря 13, 2007
Microsoft Dryad
в 10:54:00
Категории: programming
Подписаться на:
Комментарии к сообщению (Atom)
3 коммент.:
да, интересный доклад. вообще в googletechtalks много интересного пролетает
Иногда простота сама по себе является главной фичей, даже в ущерб функциональности. Особенно для библиотек и прочего middleware, в том числе и внутреннего. Такое ощущение, что среди omnipotent Microsoft beings эта идея непопулярна.
Подозреваю, стоимость разработки MapReduce (и количество багов в нем) раз так в пять меньше.
хороший доклад, да и рассказывает он вполне неплохо, я не заметил особой напряжённости даже в секции вопросов. Ему скорее сложно было сформулировать свои мысли пояснее (или почётче), типичная для технических людей особенность.
Я в течение всего доклада думал о том, как эта модель сильно напоминает модель редукции графов (например в реализациях ленивых функциональных языков), и вспоминал про Distributed Haskell. В нём, конечно, задачи более низкоуровневые потенциально, но, как я понимаю, ничего не мешает выбирать уровень дробления задач, так чтобы накладные расходы на параллелизацию и ожидание минимизировались.
Ещё понравилась идея, как они фактически на уровне большой модели избавляются от „Тьюринг-полноты”, гарантируя конечность всего вычисления (в случае конечности вычислений на каждой ноде).
Отправить комментарий