source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Борется ли Роскомнадзор с незаконной торговлей “симками”?
['телекоммуникации', 'роскомнадзор', 'нелегальные SIM', 'проверка', 'полиция', 'пакет яровой']
На сайте Роскомнадзора накануне вновь появился отчет о борьбе ведомства с торговлей нелегальными сим-картами. Действительно, в силу тотальной борьбы с терроризм и распространения мобильной...
На сайте Роскомнадзора накануне вновь появился отчет о борьбе ведомства с торговлей нелегальными сим-картами. Действительно, в силу тотальной борьбы с терроризм и распространения мобильной связи этот вопрос встает намного более остро, чем в предыдущие годы. В общем если говорить сухим языком цифр, то Роскомнадзор совместно с МВД за минувший год провели 819 проверок. Больше всего регулятор и полиция “напрягали” нелегалов на территории Северного (189), Центрального (146) и Уральского (115) федеральных округов. В ДФО активность ведомств была не такой высокой — всего 45 проверок. Всего в ходе проверок было изъято более 28 тыс.! “симок”. Половину изъятых карт приняли на себя представители “большой четверки” ПАО «ВымпелКом»; 18% – ПАО «Мегафон»; 16% – ПАО «МТС»; 12% – ООО «Т2 Мобайл». Естественно, что по большей части распространение нелегальных “симок” характерно для мегаполисов. Глава Роскомнадзора Александр Жаров комментируя итоги проверок, вновь подчеркнул, что оборот сим-карт пора бы уже начать регулировать на законодательном уровне. Меж тем эта история длится уже не один год, идя по одному и тому же кругу. Проверки, изъятия сим-карт, штрафы для продавцов и так далее и тому подобное. Каких-то результатов кроме цифр в отчете это не приносит. Например, в Екатеринбурге купить “симку” не предъявляя паспорта проще простого, несмотря на “зачистку” Роскомнадзора. На одних и тех же местах торгуют годами, не стесняясь полиции. У прилавков очереди. Да и зачем человеку, который хочет сделать пару звонков все эти заморочки с паспортными данными и оформлением номера, когда можно купить все с рук без лишних вопросов. А уж тем более это выгодно потенциальному террористу, мошеннику или разыскиваемому преступнику. Вся же борьба с торговлей нелегальными телефонными номерами, у полиции и Роскомнадзора сводится лишь профилактической работе с населением и периодическими рейдам. Такое поведение, как минимум, странно. Тем более, что государство так страстно пытается контролировать и фиксировать кто и чем занимается в интернете, вводя авторизацию при входе в сеть в общественных местах и обязуя операторов писать практически весь трафик, совсем забывает об использовании нелегальных номеров для анонимного выхода в сеть. Так на самом ли деле Роскомнадзор борется с нелегальной торговлей или на это просто нет времени из-за борьбы с порносайтами?
https://geektimes.ru/company/nag/blog/283926/
habrahabr
Налетай, торопись, покупай живопись, или единый реестр новогодних скидок от HyperX
['hyperx', 'cloud', 'alloy fps', 'новый год', 'распродажа', 'аукцион невиданной щедрости']
Привет, Гиктаймс! Сложно представить Новый Год без скидок. Кто-то предпочитает воспользоваться доверчивостью покупателей и ажиотажем, но мы не такие. Под катом — список ВСЕХ скидок на продукцию...
Привет, Гиктаймс! Сложно представить Новый Год без скидок. Кто-то предпочитает воспользоваться доверчивостью покупателей и ажиотажем, но мы не такие. Под катом — список ВСЕХ скидок на продукцию HyperX и Kingston в предновогодний период 2016 года. Железо: Здесь собраны вкусности для тех, кто затеял апгрейд оперативки или SSD. Для удобства коды разбиты по магазинам, в которых предоставляются скидки. Юлмарт Серия Predator — DDR4 (Промо-код  GEEKPR16 ) - скидка 12% на DDR4 Predator в сети Юлмарт — для получения скидки введите промокод при оформлении заказа — акция действует до 31 декабря Серия Savage — DDR3, DDR4 и SSD (Промо-код  SAVAGE16 ) - скидка 10% в Юлмарт —   для получения скидки на продукцию серии HyperX Savage (оперативная память DDR3 и DDR4, твердотельные накопители) введите промокод при оформлении заказа — акция действует до 28 декабря Kingston ValueRAM — KVR DDR3, DDR4, DDR3L (Промо-код  KING16 ) - скидка 10% в Юлмарт на память Kingston KVR — для получения скидки введите промокод при оформлении заказа — акция действует до 28 декабря DNS Особое предложение не требующее даже ввода промокода в сети DNS — комплекты DDR4 HyperX Fury 16 гигабайт (2 модуля по 8) и SSD HyperX Fury емкостью 240 и 480 гигабайт — скидка 10 процентов и акция продлится до 1 января 2017 года. Периферия: Геймерские девайсы — одна из самых востребованных категорий новогодних подарков. Немного перефразирую доктора Лайтмана: «Играют все!», а значит каждый будет рад найти под елочкой устройство от HyperX. DNS Игровая механическая клавиатура HyperX Alloy FPS с переключателями Cherry MX Red/Brown/Blue — скидка 1500 рублей в сети DNS до 25 декабря. Итого стоимость 7 490 рублей Гарнитура HyperX Cloud Stinger — до 25 декабря скидка 500 рублей в cети DNS, итого уши за 4 490 рублей Гарнитура HyperX Cloud Drone - до 25 декабря скидка 500 рублей в сети DNS, итого уши за 3 490 рублей 4Frag Ребята из 4Frag не мелочатся, когда делают скидки. Все, что есть в ассортименте от HyperX, предлагается по суперспециальной новогодней цене . Особо стоит отметить, что скидка по акции суммируется с индивидуальными скидками в 4Frag! Промо-код HX2017 — скидка 17% на всю продукцию HyperX — действует до 31 декабря. Не забудьте ввести код при оформлении заказа. Юлмарт Если вы обладатель игровой приставки нового поколения и решили приобрести Hyper CloudX, то сейчас самое время, потому что при покупке гарнитуры за 7990 можно получить в подарок золотой статус XBox Live на три месяца. Акция действует до 31 декабря 2016 года. Дополнительно: DNS Беспроводное мобильное устройство MobileLite Wireless G2 — купон на 500 рублей при покупке универсального девайса в сети DNS. Акция стартует 26 декабря 2016 года и продлится целый месяц. Спасибо за внимание, удачных новогодних покупок и оставайтесь с Kingston на GeekTimes.ru!
https://geektimes.ru/company/kingston_technology/blog/283868/
habrahabr
Иллюзии мозга. Иллюзия «конца истории»
['конец истории', 'изменение личности', 'ложные воспоминания']
Рисунок: Randy Mora Иллюзия конца истории — очень интересный феномен, который проявляется у людей практически всех возрастов (исследование 2013 года проводили на выборке более 19 000...
Рисунок: Randy Mora Иллюзия конца истории — очень интересный феномен, который проявляется у людей практически всех возрастов ( исследование 2013 года проводили на выборке более 19 000 респондентов в возрасте от 18 до 68 лет). Суть этой иллюзии в том, что люди любого возраста считают, что их личность сильно изменилась в прошлом, но слабо изменится в будущем. Эффект очень стабильный и, повторим, проявляется в любом возрасте. Каждый день в мозге образуются новые нейронные связи. В долговременной памяти формируются новые воспоминания, а старые неиспользуемые связи (воспоминания, навыки и т.д.) ослабевают. Ежедневно мы получаем новый опыт, новые впечатления, знакомимся с новыми людьми, узнаём новую информацию. Фактически, каждый день наш мозг немного меняется — и мы становимся немного другими людьми. Трансформация личности происходит ежедневно на протяжении всей жизни. Человек сейчас не может быть таким же, каким он был год назад, это просто физически невозможно. Но исследование 2013 года убедительно показало, что люди очень слабо осознают суть изменений, которые происходят с их мозгом. Они склонны думать, что основные изменения произошли в прошлом, а в данный момент их личность сформировалась окончательно. Многие абсолютно уверены, что их желания, мотивы и характер не изменятся ни через пять, ни через десять лет. Что им будут нравиться те же вещи, что они будут жить в той же стране. Конечно же, ничего не остаётся неизменным. Достаточно вспомнить себя 5−10 лет назад — и посмотреть, какие изменения произошли за это время. Изменения в личных предпочтениях, в личностном росте, в мировоззрении. То же самое продолжится и дальше. Сообщаемые (чёрным) и предсказуемые (серым), по словам опрошенных, изменения в личности, ценностях и предпочтениях Судя по проведённому исследованию, изменения в личности вовсе не останавливается на каком-то этапе жизни. Ни в детстве, ни в подростковом возрасте, ни в зрелости, ни даже в старости. Судя по воспоминания людей любого возраста, изменения продолжались постоянно, хотя и проявлялись медленнее, но не останавливались никогда. При этом люди уверены, что эти изменения остановились в данный конкретный момент времени . Так считают и 18-летние, и пенсионеры. Причины феномена Один из авторов научной работы Дэниел Гилберт в лекции на TED рассуждает, что причина этой иллюзии может быть связана с общей сложностью прогнозировать изменение своей личности в будущем и того, как изменится отношение к окружающему миру. Это связано и с влиянием факторов, которые мы не можем прогнозировать, и с общей трудностью восприятия времени человеческим мозгом. Влияние на жизнь «На каждом этапе нашей жизни мы принимаем решения, которые влияют на наше дальнейшее становление. И когда мы достигаем желаемого, мы не всегда рады своему выбору. Молодые тратят большие деньги на удаление татуировок, за нанесение которых подростками тоже платили много. Люди в зрелости разводятся с теми, с кем совсем юными торопились пожениться. Пожилые стараются избавиться от того, что в зрелом возрасте получили с трудом. И так далее. Вопрос, интересующий меня, таков: почему мы принимаем решения, о которых часто жалеем впоследствии?» — спрашивает Дэниел Гилберт, психолог и «специалист по счастью», как он себя называет. В самом деле, очень многие наши решения принимаются исходя из посылки, что в будущем мы останемся такими как сейчас. Потом об этих решениях приходится жалеть. Но что делать, как избежать этих ошибок? Как прогнозировать, чего нам захочется в будущем, как изменится наша личность? Гилберт намекает, что во многом ответы на эти вопросы связаны с воображением. Да, человек не может знать, каким он станет через много лет. Но он может это вообразить . И эта фантазия может оказаться недалеко от истины. Воображение — это не просто несерьёзная фантазия, это в каком-то роде проецирование, прогнозирование будущего. Воображая себе определённое будущее, человек в какой-то степени влияет на него, осознанно изменяя свои ценности, предпочтения и личность. С другой стороны, мы всё равно никогда не будем такими, какими мы себе это представляем. Критика Исследование "The End of History Illusion" было опубликовано 4 января 2013 года в журнале Science (doi: 10.1126/science.1229294) и произвело немалый шум в научном сообществе. Всё-таки не каждый день психологи «открывают» такие важные феномены, которые оказывают серьёзное влияние на жизнь людей. Правда, не обошлось без критики. Авторов научной работы критикуют по двум пунктам. Во-первых, они проводили исследование методом поперечных срезов, когда одновременно изучаются группы людей разного возраста. Получается «моментальная» картина, когда мнения в разном возрасте соответствуют мнениям разных людей . А ведь для объективной картины хотелось бы провести лонгитюдное, то есть долговременное исследование, опрашивая одних и тех же людей в разные периоды их жизни. Очевидно, что такое более объективное исследование займёт гораздо больше времени. Во-вторых, критики выражают сомнение вообще в объективности ретроспективных воспоминаний человека, то есть автобиографической памяти. Эксперименты неоднократно подтверждали, что автобиографическая память может легко подвергаться искажениям. Есть методы внедрения ложных воспоминаний, которые люди потом считают настоящими фактами из собственного детства. Так рождаются мифы. Исследователи выяснили, что при внедрении ложных воспоминаний наибольший внушающий эффект оказывают фотографии. Благодаря эффекту когнитивного диссонанса люди эффективно «придумывают» воспоминание, которое отсутствовало в их памяти, но присутствует на фотографии. Оно воссоздаётся в мельчайших подробностях. Затем испытуемые отказываются верить, что фотографии были подделаны. Есть и известный эффект забывания событий в автобиографической памяти. Наиболее чётко в памяти сохраняются события так называемой «прерванной идентичности» — переломные события жизни, и окружающие их события. Менее значимые события, а особенно негативные, постепенно стираются из памяти. Таким образом, иллюзия конца истории определённо нуждается в дополнительной проверке. Но всё-таки с некоторыми словами Гилберта нельзя не согласиться: «Люди — это постоянно развивающиеся создания, которые ошибочно полагают, что их формирование закончено. Человек, которым вы являетесь сейчас, также мимолётен, скоротечен и непостоянен, как и все те люди, которыми вы были раньше. Единственное, что постоянно в нашей жизни, — это изменения».
https://geektimes.ru/post/283930/
habrahabr
Быть настоящим и писать код VS перебирать и казаться
['framework', 'angular', 'react.js', 'coffeescript', 'javascript']
Отличный фреймворк! Простой, чистый, производительный! Так на его могиле и напишем... Полсотни интернет-зависимых не спят. Прижав тощие и не очень задницы...
Отличный фреймворк! Простой, чистый, производительный! Так на его могиле и напишем... Полсотни интернет-зависимых не спят. Прижав тощие и не очень задницы к стульям, они флудят в самописном чатике. Удовольствие стоит 6 рублей в час (цена «городского интернета» в далеких 2000-х с одним сервером на город-полумиллионник). На это хватало сэкономленного на студенческих обедах. На выход в Глобальный Интернет по 33 рубля (хренасе!) в час — уже нет. Писк модема на 33600. Ночь. Самое главное — на сервер можно зайти по FTP и выложить на всеобщее обозрение свое Ясделие. Свой сайт. Или чат. Или что ты там еще придумал. И кто-нибудь обязательно туда придет, посмотрит и оценит. И ты увидишь это на счетчике посещений (предтеча лайков размером 88×31). В стеке технологий (правда, тогда слово «стек» употребляли с чем-то вроде «push ax») у нас было много всего: PHP3, который еще не успели охулить (или успели, но в «городском интернете» про это никто не знал). HTML4, который не во всех тогдашечных браузерах умел рендерить таблицы. CSS-1.0 — магия. JavaScript, который ламеры путали с Java. Шестая чашка дрянного нескафе-голд. Эти технологии были потрясающими. В прямом смысле. Например, JavaScript мог трясти окнами браузера и открывать десять тысяч окон, отправляя в нокдаун неугодного пользователя чата. Нынешние фреймворки так не умеют. Но через пару лет пришли хулители из Java (которая не Script) и рассказали, что все, что мы делаем — дерьмо. И на сервере код наш — дерьмо. И на клиенте — дерьмо. И браузеры наши — дерьмо. И вся веб-разработка дерьмо. Впрочем, доля горькой правды в этом была. Браузеры того времени и впрямь были удивительными механизмами. Кладбище фреймворков. Начало Глотком свежего воздуха стал Prototype (кто-нибудь помнит этот фреймворк?). Было так круто писать вместо document.getElementById что-то типа $()! Вот только Prototype расширял функционал базовых объектов. А это посчитали дерьмовым. И старичок загнулся практически сразу, как появился jQuery. Меня это бесило дня два. Мне нравилось писать $("id").style.color = "#FFF"; вместо $("id").css({color: "#FFF"}); Но кто-то сказал, что это плохо, и я пересел на jQuery. Многие пересели. Prototype оказался только шлюзом в мир, полный настоящего, вонючего дерьма! Оно хлынуло потоком. Маленькими кусками вроде mootools, который реально где-то полгода делал вид, что он конкурент jQuery и Prototype. И большими кусками вроде Dojo (кто это помнит?!), Yahoo! UI Library (в итоге — Extjs). Нам нужен был MVC (или HMVC?), и у нас появился выбор: Backbone, CanJS, Knockout и еще десяток новых каждую неделю. Нам надоел CSS, и снова мы могли выбирать: Less, Sass, PostCss. Кто-то сказал, что JavaScript — дерьмо, и так появился CoffeeScript, и меня реально убеждали, что надо писать именно на нем, ибо прогресс! Блин, ну и где он теперь?! TypeScript. ES6. Отлично, JavaScript стал типизированным, но перестал работать в браузере: теперь его приходилось компилировать. И не только его. Много-много рутинной магии на сервере. Поэтому появились автоматизаторы рутинной серверной магии по типу Grunt, Gulp, Broccoli, Webpack. Меня выворачивало наизнанку от синтаксиса Angular, и я был рад сплясать на его могиле, когда появился React (к которому нужен был Redux). Даже Vanilla JS , фреймворк в 25 байт в сжатом виде, на фоне общего зоопарка выглядел не так плохо. Каждый день появлялись новые фреймворки и библиотеки, которые решали проблемы, о которых мы даже не задумывались. Каждый день появлялось то, что можно поизучать. Мы читали хабр, и у нас глаза блестели от счастья (или от ингибитора обратного захвата серотонина). Но не проходило и полгода как новую хорошую технологию кто-то яростно охуливал, и она становилась сначала отстоем, а потом — дерьмом. Бывало, начинаешь проект с новыми и хайповыми технологиями и методологиями, а заканчиваешь уже с отстойными. Хотя по сути ничего не менялось, разве что появлялась парочка статей на хабре «Почему ангуляр — отстой» и «Scrum умер и больше не работает». Проект, работа и даже собственная компания казались отстоем просто потому, что кто-то сказал «MVC — для лохов!». Не быть лохом Правда в том, что большей части разработчиков фиолетово на сам проект. Куда важнее чувствовать себя «в тренде». Не быть лохом. Поэтому часто хипстерскость технологии — решающий фактор в выборе работы. И мало кто из работодателей сознается, что набирает людей для поддержки унылого проекта на фреймворках полугодовой давности. В вакансиях студии выпячивают только те технологии, которые не успели обрасти разгромными отзывами. Мы тоже так делали и прятали под стол гадости вроде лучших отечественных CMS-систем. Да мы даже обернули её Zend-ом , чтобы клиенты радовались маркетинговому трепу про мощность админки, а мы — пользовались MVC, не особо мучаясь. Мы в студии не в самом плохом положении — можем экспериментировать и менять технологии как перчатки. У нас негласное правило — на новом проекте попробуй новую технологию. Стек всегда остается более-менее актуальным. Но глобально это не решало вопрос. Не все проекты заканчиваются сразу после релиза, ага. Разнообразие мнений породило проблему выбора и обучения junior-ов. Я собеседовал людей, которые на полном серьезе говорили, что учили Angular, а не JavaScript. Ай хэйт ю, агнуляр. Я видел разработчиков, которые считали, что умеют писать «на jQuery» — точнее, они могут найти подходящий слайдер и воткнуть его на страницу. И (цитирую дословно) «настроить под себя». Эти люди гордо именовали себя «jQuery-интеграторы», но не могли отсортировать список значений в select-боксе. Они беспокоились, что разговор зайдет о чем-то, что может быть сложнее «интеграции плагинов» (точнее, занятий, которые они почему-то считают «программированием»). Когда их просили написать чуток кода на бумажке без копипасты с гитхаба, их поры сочились гормонами сжиженного стресса. Но черт возьми! Не они в этом виноваты! Не читай срачи, а трогай ручками Как-то вечером я захотел сделать небольшой проект для души: сайтик с простым бэкэндом и кое-каким интерактивом на Javascript. И решил предварительно посмотреть, на чем сейчас модно писать. Господи, зачем я это прочитал... [Разработка → Каково оно учить JavaScript в 2016 перевод ] Мой проект не закончен до сих пор. Кажется, скоро я открою стартап или начну искать ко-фаундера. Сейчас в арсенале нашей студии: jQuery + CanJS + Less + Gulp на одних проектах; и React + Redux + Babel + JSX + ES6 + Browserify + PostCSS + Webpack на других. Но я не знаю, сколько времени осталось, пока они не вошли в категорию «X — дерьмо!». Если ты талантлив и одарен, у тебя, скорее всего, есть и обратная сторона этих ништяков — ты слишком умный. Ты оптимизируешься, экономишь силы. Перестаешь изучать и пробовать технологии на практике. И все больше полагаешься на стороннее мнение. Становитесь зашоренными. Изучение и применение технологии заменяешь чтением веселой статьи на хабре про то, что она — отстой. В курилке можно назвать технологию X отстоем — это поднимет авторитет в глазах коллег и даст моральное право не изучать ее и не использовать. Со стороны выглядит также круто, как если бы ты освоил технологию. Но это не одно и то же. Сингулярность ближе, чем ты думаешь. Избегай зашоренности. Меньше полагайся на чужое мнение. Смотри сам. Изучай сам. И попробуй потрясти этот мир. Всмысле window.moveBy(x, y) :)
https://habrahabr.ru/post/318190/
habrahabr
Космос зовет: нужен математик-специалист в области численного решения стохастических дифференциальных уравнений
['космос', 'численные методы', 'спутники', 'T.H.O.R.I.U.M.']
Александр 4110 Шаенко (экс-инженер Даурия Аэроспейс, ныне главарь проекта краудсорсингового спутника «Маяк») и Степан Тезюничев пишут открытый софт для моделирования теплового режима спутников....
Александр 4110 Шаенко (экс-инженер Даурия Аэроспейс, ныне главарь проекта краудсорсингового спутника «Маяк») и Степан Тезюничев пишут открытый софт для моделирования теплового режима спутников. Репозиторий тут . До этого, Саша писал дисер — «Метод решения задачи лучистого теплообмена без матрицы угловых коэффициентов» ( диссертация , автореферат ). Код тут . (он на VB.NET, тормозной, но работает и даже есть документация) Космоинженеры используют метод Монте-Карло и до них вдруг дошло, судя по всему, система дифференциальных уравнений является стохастической, раз их часть получается методом случайных испытаний. Парни хотят написать алгоритм, который решал бы систему дифуров как можно быстрее, и поэтому им нужна консультация математика-специалиста в области численного решения стохастических дифференциальных уравнений. Основную сложность ребята вроде решили, построив массивно-параллельный алгоритм расчета хода излучения с методом Монте-Карло на CUDA. Теперь они хотят использовать для интегрирования своей системы, а она большой размерности, порядка 100 тыс. неизвестных, и жесткая, подходящий метод интегрирования по времени. Обычные явные методы требуют слишком мелкого шага по времени, а неявные требуют много раз вычислять правую часть, что ресурсозатратно. Поэтому и нужно найти или построить такой метод интегрирования, который подходил бы для такого сочетания требований и позволял бы считать быстро. Для чего это надо Сейчас в России и в мире в целом нет открытого софта, который был бы заточен под расчет теплообмена спутников. Те коммерческие, которые есть, стоят десятки и сотни тысяч долларов и для обычных людей недоступны. Есть, конечно, открытые коды просто для расчета теплообмена, но чтобы на них полноценные посчитать сколько-нибудь реальный спутник, нужно изрядно поплясать. Вы скажете, что для обычных людей они и не нужны, но это только до тех пор, пока вы не хотите сделать собственную маленькую компанию по созданию спутников. У большинства отечественных частных космических фирм нет денег на такой софт, да и у многих зарубежных нет тоже. А если вы студент, который проектирует собственный спутник на курсовом или дипломном проекте? Триальной версии на 30 дней может и не хватить. А если вам хочется разобраться в лучистом теплообмене? Или использовать хорошую реализацию метода трассировки хода лучей для других приложений? Одним словом, приложений будет много и не только космических. T.H.O.R.I.U.M. Идея T.H.O.R.I.U.M. родилась у Шаенко в далеком 2007 году на конференции IASS в Венеции и развилась в размышлениях над автоматизацией расчетов прочности интерцепторов для пассажирского самолета 787 в московском отделении компании Boeing. " Радиоастрон " В то время Александр учился в аспирантуре Астрокосмического центра ФИАН им. Лебедева. Там, в то время заканчивали делать космический телескоп “Радиоастрон” и задумывались о “Миллиметроне”. " Миллиметрон " В «Миллиметроне» нужно было несколько лет поддерживать большое 10-метровое зеркало при температуре около 4 К (-269 С). Для этого зеркало планируется поместить в тень многослойного зонтика из полимерной металлизированной пленки, который бы защищал нежную аппаратуру от теплового излучения Солнца и Земли. Зонтик назвали “тепловой экран”. Точно такой же есть и у американского конкурента JWST, Космического телескопа Джеймса Вебба. Реальная форма теплового экрана — это мятые двадцатиметровые полотнища пленки с небольшим расстоянием между ними. Это значит, что по-хорошему надо моделировать каждую более-менее большую складочку, чтобы понять как между ними будет распределяться тепло. К тому же разные слои имеют очень сильно различающуюся температуру — от примерно +100 С на освещенном Солнце слое до -223 С на слое, обращенном к зеркалу. При таком разбросе свойства материалов менялись очень сильно. Существующие расчетные коды не позволяли все это учесть и поэтому на свет появился T.H.O.R.I.U.M. — Thermooptic radiation iterative universal module. В его основе лежат две идеи, возникшие в конце 2007 года: Для расчета хода излучения в трехмерной графике разработано множество программных и аппаратных средств и так как в космосе внешний теплообмен — лучистый , то можно воспользоваться наработками из графики в расчете теплообмена. Если хочется посчитать сложные конструкции с большим количеством элементов в модели, то не стоит запоминать перед началом расчета какие элементы с какими обмениваются излучением. Выгоднее смотреть это на каждом шаге интегрирования по времени. Эти два принципа были реализованы и старом коде на VB.NET и с новом. “Миллиметрон” был спасен, а T.H.O.R.I.U.M. зажил своей собственной жизнью, помогая проектировать системы обеспечения теплового режима (СОТР) для малых аппаратов. Например, СОТР DX1 и МКА-Н, малых аппаратов Даурии были спроектированы с его помощью. Видос старого T.H.O.R.I.U.M. с Дауриевским МКА-Н DX1 в T.H.O.R.I.U.M. С точки зрения математики, T.H.O.R.I.U.M. решает систему дифференциальных уравнений нестационарного радиационно-кондуктивного теплообмена с учетом переменности теплофизических и термооптических характеристик материалов. Уравнения эти выглядят вот так: где c i — удельная теплоемкость i-го элемента; ρ i — его плотность; V i — объем элемента; T i — температура элемента; t — время; N i n — количество элементов, имеющих общую грань с i-м элементом; Qn k i — мощность, передаваемая от k-го соседа i-го элемента посредством теплопроводности; S i — площадь i-го элемента; Qe i — плотность исходящего лучистого потока i-го элемента; Qr ij — мощность, передаваемая от j-го элемента на i-й элемент посредством излучения; N — количество элементов в модели; Qr j m — мощность излучения, испускаемого m-ым внешним источником и поглощенного в i-ом элементе; M — количество источников излучения; Qi i p — тепловыделение от p-го внутреннего источника тепла в i-ом элементе, P — количество внутренних источников тепла. Число N может быть больше 10 5 , свойства элементов и граничные условия могут очень резко меняться от времени, например, при включении какого-то прибора или выходе на Солнце из тени, интегрировать нужно 10-20 витков, а это порядка 120000 секунд. Так что поиск хорошего метода интегрирования такой системы был бы очень полезен и авторам, и космонавтике, и инженерному делу в целом. Кто заинтересовался — пишите в комменты или на почту Александру — ark4110@gmail.com.
https://habrahabr.ru/post/317856/
habrahabr
Excel «Всемогущий» и Redmine: как генерировать задачи прямо в Excel
['excel', 'vba', 'redmine', 'rest api']
В далёких от IT проектных организациях Excel часто используется в качестве инструмента обработки бог весть каких данных. Передо мной встала задача в очень сжатые сроки наладить в Excel...
В далёких от IT проектных организациях Excel часто используется в качестве инструмента обработки бог весть каких данных. Передо мной встала задача в очень сжатые сроки наладить в Excel мониторинг весьма специфичного проекта с попутной выдачей заданий в проектные отделы. Касательно мониторинга ТЗ было более-менее определено и весь функционал был реализован средствами VBA самого Excel. С выдачей заданий всё было не так однозначно. Поскрипев креслом, я решил попробовать отправлять задачи в Redmine прямо из Excel, получая обратно гиперссылку и номер задачи. Статья написана инженером-проектировщиком для таких же новичков в программировании, автоматизирующих подручными средствами рутинную работу. Буду рад любым замечаниям! Зачем это вообще? Так получилось, что Excel в отрасли проектирования де-факто такой же стандарт при обмене между сотрудничающими организациями всевозможными списками документации и спецификациями, как и AutoCAD для чертежей. Раньше я думал, что так только в нашей организации, а продвинутые конторы используют умные инструменты и базы, исключающие дублирование и нарушения целостности в данных. Но на деле оказалось, что даже большие компании на многомиллиардных проектах используют Excel в режиме «туда-сюда» при обмене данными и технической документацией с контрагентами. В таких проектах одновременно в разработке могут быть сотни комплектов технической документации. К нам, например, регулярно присылают документы с прилагаемой экселевской таблицей на ~4500 строк, где каждая строка определяет текущий статус конкретного документа. При достижении определенного статуса каждый документ должен быть запущен в работу: переведён, согласован, адаптирован под ГОСТ и т.д. Такие однотипные задачи удобно запускать в Redmine прямо из Excel, формируя их в соответствии с данными из таблицы. Ко всему выше сказанному, какой-никакой опыт написания костылей на vba у меня уже был, и примерный путь решения проблемы в голове уже крутился. Я не буду подробно останавливаться на установке и настройке самого Redmine. Те, кто ещё не сталкивался с этой системой управления проектами, могут попробовать demo , или скачать и запустить стак от bitnami . Документацию по работе с виртуальной машиной Bitnami Redmine можно посмотреть тут . Источник информации по API — Redmine API . Простой пример создания задачи Итак, заходим в редактор vba в Excel, создаем новый модуль и вписываем в него следующее: ' Пользователя Redmine, от имени которого будет создана задача, ' можно не указывать в тексте url, тогда окно с запросом ' логина и пароля будет выведено автоматически Const REDMINE_URL = "http://redmine_url" ' но можно и жестко задать 'Const REDMINE_URL = "http://user:password@redmine_url ' гиперссылка и номер задачи, которые нам вернет функция PostIssue ' (к сожалению, я не нашел, как вернуть эти значения в одной функции ' без глобальных переменных, не строя дополнительных массивов) Public issue_url, issue_id As String Sub Redmine_Create_Issue() Dim ReqStatus As Boolean Dim PROJECT_ID, TRACKER_ID, ASSIGNED_TO_ID, CATEGORY_ID As Integer Dim Subject, Body, DUE_DATE, REDMINE_API_KEY As String ' ID должны быть из базы Redmine ' Позже я опишу, как их можно вытащить из Redmine PROJECT_ID = 32 TRACKER_ID = 1 ASSIGNED_TO_ID = 20 'ID пользователя, на которого будет назначена задача ' Сюда можно вписать любые данные из нашей таблицы Subject = "Тема задачи" Body = "Текст задачи" ' Плановая дата завершения задачи DUE_DATE = Format(ActiveSheet.Cells(ActiveCell.Row, 12), "yyyy-mm-dd") 'REDMINE_API_KEY = "e11234567891234567891234567891234567bce0" ' если используется API key ' Запускаем задачу в редмайн при помощи функции ReqStatus = PostIssue(PROJECT_ID, TRACKER_ID, ASSIGNED_TO_ID, Subject, Body, DUE_DATE, _ REDMINE_API_KEY, CATEGORY_ID) ' Проверяем, что задача отправлена If ReqStatus <> False Then MsgBox "Redmine: Ok, задача отправлена" ' Добавим в нашу таблицу во 2й столбец гипперссылку на созданную задачу ActiveSheet.Cells(ActiveCell.Row, 2) = issue_id ActiveSheet.Hyperlinks.Add Range("B" & ActiveCell.Row), issue_url, "", _ "Открыть задачу" & issue_url ' Дату создания задачи вписываем в 11й столбец на листе) ActiveSheet.Cells(ActiveCell.Row, 11) = Date Else MsgBox "Redmine: Ошибка, обратитесь к администратору" End If End Sub ' Сама функция отправки задачи в формате xml Function PostIssue(ByVal PROJECT_ID As Integer, ByVal TRACKER_ID As Integer, _ ByVal ASSIGNED_TO_ID As Integer, ByVal Subject As String, _ ByVal Body As String, ByVal DUE_DATE As String, _ ByVal REDMINE_API_KEY As String, ByVal CATEGORY_ID As String) Dim xhr Dim RequestURL As String Dim RequestBody As String RequestURL = REDMINE_URL & "/issues.xml?format=xml" ' если используется API key 'RequestURL = REDMINE_URL & "/issues.xml?format=xml&key=" & REDMINE_API_KEY Set xhr = CreateObject("Microsoft.XMLHTTP") xhr.Open "GET", RequestURL, False xhr.SetRequestHeader "Content-Type", "text/xml" RequestBody = "<?xml version=" & Chr(34) & "1.0" & Chr(34) & "?>" RequestBody = RequestBody & "<issue>" RequestBody = RequestBody & "<project_id>" & PROJECT_ID & "</project_id>" RequestBody = RequestBody & "<tracker_id>" & TRACKER_ID & "</tracker_id>" RequestBody = RequestBody & "<assigned_to_id>" & ASSIGNED_TO_ID & "</assigned_to_id>" RequestBody = RequestBody & "<subject>" & Subject & "</subject>" RequestBody = RequestBody & "<description>" & Body & "</description>" RequestBody = RequestBody & "<due_date>" & DUE_DATE & "</due_date>" RequestBody = RequestBody & "</issue>" ' Проверяем, что задача отправлена xhr.Send (RequestBody) If xhr.Status = 201 Then PostIssue = True Else PostIssue = False End If ' гиперссылка и номер задачи issue_url = xhr.getResponseHeader("location") issue_id = Right(issue_url, Len(issue_url) - InStrRev(issue_url, "/")) End Function Примечание: для авторизации в Redmine можно использовать логин и пароль, или ключ API, который можно посмотреть в профиле. В примере выше используется логин-пароль, строки с ключом закомментированы. Всё хорошо, но как быть с параметрами, которые мы можем узнать только из базы данных Redmine? Я имею в виду ID для проекта, трекера, и на кого назначена задача. В моем случае все эти параметры связаны с данными из таблицы (проект, его статус, ответственный отдел), поэтому я поступил просто, хоть и неправильно с точки зрения универсальности. Я подсмотрел ID в базе Redmine через phpMyAdmin и создал на отдельном листе табличку настроек, где прописал эти ID для нужных мне параметров из основной таблицы. Как результат, пользователю нужно только выбрать нужную строку в таблице и нажать кнопку отправки задачи, никаких дополнительных диалоговых окон. Я немного упростил реальную логику для наглядности, но смысл тот же — берем значение из текущей строки и сравниваем по таблице с ID. Как видите, в моем случае вписывать ID совсем немного: проект с несколькими подпроектами, четыре трекера, и чуть больше дюжины ответственных руководителей отделов, на которых изначально должна назначаться задача. Таким образом, вместо: PROJECT_ID = 32 TRACKER_ID = 1 ASSIGNED_TO_ID = 20 Я вписал как-то так: PROJECT_ID = 0 TRACKER_ID = 0 ASSIGNED_TO_ID = 0 Set ID_WS = Application.ThisWorkbook.Sheets("ID") last_row = ID_WS.Cells(Rows.Count, 1).End(xlUp).Row For i = 2 To last_row If ActiveSheet.Cells(ActiveCell.Row, 3) = ID_WS.Cells(i, 2) Then PROJECT_ID = ID_WS.Cells(i, 3) End If If ActiveSheet.Cells(ActiveCell.Row, 4) = ID_WS.Cells(i, 5) Then TRACKER_ID = ID_WS.Cells(i, 6) End If If ActiveSheet.Cells(ActiveCell.Row, 10) = ID_WS.Cells(i, 8) Then ASSIGNED_TO_ID = ID_WS.Cells(i, 9) End If If PROJECT_ID <> 0 And TRACKER_ID <> 0 And ASSIGNED_TO_ID <> 0 Then Exit For Next Парсинг xml Более правильный и сложный подход — считывать нужные данные прямо из Redmine. Тут нам снова поможет API. Нам понадобятся следующие функции: XMLtoArray — функция парсит xml начиная с заданного узла. Требует подключения дополнительной библиотеки Microsoft XML, поэтому если кто знает, как сделать это проще, подскажите, пожалуйста. XMLtoArray Подключение библиотеки Microsoft XML через Tools --> Reference Function XMLtoArray(ByVal RequestURL, ByVal ElementsByTagName As String, ByVal arr) As Variant ' функция получает xml и переводит его в массив ' ElementsByTagName - начальный xml узел для обработки ' arr - массив узлов и аттрибутов Dim strXML As String Dim currNode As IXMLDOMNode If Not IsArray(arr) Then MsgBox "Это не массив!", vbCritical: Exit Function ' делаем запрос и получаем xml Set xhr = CreateObject("Microsoft.XMLHTTP") xhr.Open "GET", RequestURL, False xhr.SetRequestHeader "Content-Type", "text/xml" xhr.Send strXML = xhr.responseText ' парсим xml ' необходимо подключить библиотеку Microsoft XML, v6.0 (Tools --> Reference) Set xmlParser = CreateObject("MSXML2.DOMDocument") If Not xmlParser.LoadXML(strXML) Then Err.Raise xmlParser.parseError.ErrorCode, , XDoc.parseError.reason End If Set colNodes = xmlParser.getElementsByTagName(ElementsByTagName) ReDim newarr(0 To colNodes.Length, 0 To UBound(arr)) N = 0 For Each node_item In colNodes For i = 0 To UBound(arr) If Not arr(i) Like "*@*" Then If Not IsNull(node_item.SelectSingleNode(arr(i))) Then newarr(N, i) = node_item.SelectSingleNode(arr(i)).Text End If Else For Each nodeChild In node_item.ChildNodes If part1(arr(i)) = nodeChild.nodeName Then newarr(N, i) = nodeChild.getAttribute(part2(arr(i))) If nodeChild.ChildNodes.Length > 0 Then p = 0 For Each nodeChildChild In nodeChild.ChildNodes If p = 0 Then newarr(N, i) = nodeChildChild.getAttribute(part2(arr(i))) Else newarr(N, i) = newarr(N, i) & "@" & nodeChildChild.getAttribute(part2(arr(i))) End If p = 1 Next End If End If Next End If Next N = N + 1 Next XMLtoArray = newarr End Function SWAP — функция перестановки столбцов в двумерном массиве (взял отсюда ). SWAP Function SWAP(ByVal arr As Variant, ByVal NewColumnsOrder$) As Variant ' Функция принимает в качестве параметра двумерный массив arr (для перестановки столбцов) ' и текстовую строку NewColumnsOrder с новым порядком столбцов в формате ",,5,6,8,,9-15,18,2,9-11,,1,4,,21," ' Возвращает массив, в котором столбцы переставлены в нужном порядке On Error Resume Next cols = Split(Replace(NewColumnsOrder$, " ", ""), ","): Dim n As Long: ReDim colArr(0 To 0) For i = LBound(cols) To UBound(cols) Select Case True Case cols(i) = "", Val(cols(i)) < 0 colArr(UBound(colArr)) = -1: ReDim Preserve colArr(0 To UBound(colArr) + 1) Case IsNumeric(cols(i)) colArr(UBound(colArr)) = cols(i): ReDim Preserve colArr(0 To UBound(colArr) + 1) Case cols(i) Like "*#-#*" spl = Split(cols(i), "-") If UBound(spl) = 1 Then If IsNumeric(spl(0)) And IsNumeric(spl(1)) Then For j = Val(spl(0)) To Val(spl(1)) Step IIf(Val(spl(0)) > Val(spl(1)), -1, 1) colArr(UBound(colArr)) = j: ReDim Preserve colArr(0 To UBound(colArr) + 1) Next j End If End If End Select Next i ReDim Preserve colArr(0 To UBound(colArr) - 1) ColumnsArray = colArr ReDim tmpArr(LBound(arr, 1) To UBound(arr, 1), LBound(arr, 2) To UBound(ColumnsArray) + 1) For j = LBound(ColumnsArray) To UBound(ColumnsArray) If Val(ColumnsArray(j)) >= 0 Then For i = LBound(arr, 1) To UBound(arr, 1): tmpArr(i, j + LBound(arr, 2)) = arr(i, Val(ColumnsArray(j))): Next i End If Next j SWAP = tmpArr End Function Теперь можно делать запросы в Redmine: Перечень проектов: RequestURL = REDMINE_URL & "/projects.xml?include=trackers" Arr_childNodes_projects = Array("id", "name", "trackers@id", "trackers@name", _ "identifier", "description", "parent@id", "parent@name", _ "status", "is_public", "created_on", "updated_on") Arr_projects = XMLtoArray(RequestURL, "project", Arr_childNodes_projects) Arr_projects_SWAP = SWAP(Arr_projects, 1) На выходе получаем два массива — массив со всеми полученными данными, и урезанный SWAP массив только с нужными нам столбцами, в данном случае, с именами проектов, которые можно выводить в форму для пользователя. Аналогичным образом получаем: Статусы задач RequestURL_status = REDMINE_URL & "/issue_statuses.xml" Arr_childNodes_status = Array("id", "name", "is_closed") Arr_statuses = XMLtoArray(RequestURL_status, "issue_status", Arr_childNodes_status) Arr_statuses_SWAP = SWAP(Arr_statuses, 1) Приоритеты задач RequestURL_priorities = REDMINE_URL & "/enumerations/issue_priorities.xml" Arr_childNodes_priorities = Array("id", "name", "is_default") Arr_priorities = XMLtoArray(RequestURL_priorities, "issue_priority", Arr_childNodes_priorities) Arr_priorities_SWAP = SWAP(Arr_priorities, 1) Участников проекта RequestURL_memberships = REDMINE_URL & "/projects/" & Arr_projects(i, 0) & "/memberships.xml?limit=300" Arr_childNodes_memberships = Array("user@id", "user@name", "project@id", "project@name", "roles@id", "roles@name") Arr_memberships = XMLtoArray(RequestURL_memberships, "membership", Arr_childNodes_memberships) Arr_memberships_SWAP = SWAP(Arr_memberships, 1) где Arr_projects(i, 0) — ID конкретного проекта. Задачи проекта RequestURL_issues = REDMINE_URL & "/issues.xml?project_id=" & Arr_projects(i, 0) Arr_childNodes_issues = Array("id", "subject") Arr_issues = XMLtoArray(RequestURL_issues, "issue", Arr_childNodes_issues) Arr_issues_SWAP = SWAP(Arr_issues, "0,1") ComboBox_parent_issue.List = Arr_issues_SWAP где Arr_projects(i, 0) — ID конкретного проекта. Этих данных вполне достаточно для реализации функционала создания задачи, например, при помощи такой формы: Эта форма делалась под Word (сути не меняет, так как код vba тот же и в Excel) для другого проекта, с параллельной генерацией задания на печать и подпись для наших бюрократов. Но это, как говорится, уже другая история.
https://habrahabr.ru/post/318198/
habrahabr
Что влияло на курс биткоина в 2016 году
['HashFlare', 'итоги года', 'курс биткоина']
2016 год был годом больших сюрпризов — и эти сюрпризы сказывались на цене биткоина в лучшую сторону. Coindesk перечислил главные события, влиявшие на цену криптовалюты в уходящем году. За год...
2016 год был годом больших сюрпризов — и эти сюрпризы сказывались на цене биткоина в лучшую сторону. Coindesk перечислил главные события , влиявшие на цену криптовалюты в уходящем году. За год курс биткоина пережил четыре больших волны За год курс криптовалюты вырос с $430 в начале года до $845 на момент публикации поста. Главными факторами, повлиявшими на курс биткоина в этом году стали: Брекзит, взлом биржи Bitfinex и уполовинивание вознаграждения при майнинге с 25 BTC до 12.5 BTC за блок. И если связанные с собственно функционированием криптовалюты события тормозили или сбивали курс, то любые внешние кризисы — в первую очередь, политические — стабильно прибавляют биткоину стоимости. Британия вышла. Да здравствует биткоин Одним из самых мощных кризисов года стал Брекзит — 52% голосов за выход Великобритании из ЕС стал полной неожиданностью даже для сторонников этой идеи. Фунт обвалился вместе с надеждами на светлое будущее единой Европы, а биткоин всего за сутки подскочил с $551 утром 23 июня, в день референдума, до $625,49 на следующий день, когда стали известны результаты. Уполовинивание Так совпало, что регулярное уполовинивание биткоина по времени шло сразу за референдумом в Соединённом королевстве, и состоялось 9 июля 2016 г. Уменьшение вдвое награды за блок — плохая новость для майнеров, но хорошая для биткоина: чем дефицитнее он становится — тем выше его цена. В течение года после предыдущего уполовинивания 28 ноября 2012 года цена на эту крипту выросла в сто раз: с 12 до 1200 долларов за монету. Перед уполовиниванием этого года биткоин вырос до $704,42 3 июля и подешевел до $664,74 8 июля, накануне уполовинивания. После того, как событие состоялось, цена биткоина устаканилась в районе между $625 и $675. Питар Живковски, COO биржи Whaleclub, объяснил «Коиндеску» это тем, что сама по себе идея дефицита биткоинов толкает его стоимость на новые вершины. Артур Хайс, сооснователь и CEO биржи BitMEX, с большим скепсисом оценил важность уполовинивания: «Цена с января по июль едва удвоилась». Впрочем, как показал 2012 год, эффект уполовинивания долгосрочный — так что продолжавшийся в течение всего 2016 года рост стоимости биткоина можно отнести на счёт увеличения сложности его добычи. Следующее уполовинивание ориентировочно произойдёт 2 июля 2020 года . Взлом Bitfinex Состоявшийся 2 августа хак биржи Bitfinex, завершившийся уводом 120 тысяч биткоинов стал самым тяжёлым ударом по стоимости криптовалюты в уходящем году, приведя к обвалу с $607,37 до $480 за один день. Впрочем, к 4 августа цены вернулись на уровень $580. Артур Хайс по этому поводу заявил «Коиндеску», что хак зародил сомнения в жизнеспособности стартапов, управляющих огромным количеством денег клиентов и заставил их начать думать дважды перед тем, как отправлять криптовалюту или фиаты на любую биржу вообще. И хотя рынок в итоге переварил это событие, если бы не взлом — то курс биткоина сегодня мог бы быть ещё выше. В свою очередь, Живковски снова заступается за биткоин, утверждая, что Bitfinex был небольшим игроком, фейл которого не способен подорвать ценность биткоина в целом. Эффект Трампа Выборы президента США были следующим большим событием 2016 года, приближение которого чувствовалось по состоянии с курсом валюты. И хотя рост сам по себе был не таким значительным, как многими ожидалось , составив всего 4% (с $709 до $739 9 ноября) — происходило это на фоне временного падения биржевых индексов по всему миру. Такие большие события, как Брекзит и выборы в США наряду с кучей мелких, вроде ограничения на количество наличных денег в Индии , демонстрируют один и тот же эффект: пока традиционные рынки на неприятные сюрпризы реагируют падением котировок, курс биткоина растёт. Как показал 2016 год, всплеск котировок биткоина на фоне исторических событий всегда спекулятивный, и быстро отказывается назад, поэтому само по себе это скорее хорошая новость для биржевых спекулянтов, чем просто сторонников криптоэкономики. Важнее тут другое: что именно биткоин рассматривается как «тихая гавань», альтернатива традиционным валютам и инвестициям, позволяющая пережить встряски на рынке. Происходит это по двум причинам: во-первых, независимая природа биткоина в принципе привлекательно выглядит на фоне кризисов, имеющих вполне себе рукотворную политическую природу. А во-вторых, конкретно биткоин уже на фоне всех остальных криптовалют, которых становится всё больше, кажется более надёжным вложением в силу своей распространённости. Такие события, как Брекзит, Трамп или взлом биржи — это спекулятивные факторы, которые сами по себе, конечно, не стоят того, чтобы рассматривать их как аргументы «за» или «против» инвестиций в криптовалюту в силу их случайной природы. Но они однозначно помогают лучше понимать место биткоина в современной финансовой системе. Под конец года курс биткоина опять мощно растёт: сегодня курс уже пробил $850 и к новому году «с уверенностью 65%» ждут преодоления уровня в $900 — и хотя аналитики считают, что природа этого роста, опять же, чисто спекулятивная, это не отменяет того, что долгосрочный тренд на подорожание биткоина сохраняется. Особенно должны выиграть те, кто смогут не потратить все монеты, скажем, к следующему уполовиниванию в 2020 году. Сила биткоина — в его самой природе: независимости, прозрачности и демократичности — и предсказуемости, как ни странно. По крайней мере, ожидаемые с точностью до дня следующие уполовинивания наград при майнинге, выглядят приятным контрастом на фоне абсолютной непредсказуемости обвалов традиционных валют — например, уже обсуждаемой в СМИ возможности скорой четвёртой взрывной девальвации рубля (простите за плохие новости с утра). 2016 год многими называется паршивым и безумным годом. Но мы в HashFlare убедились, что именно среди общего безумия биткоин оказывается весьма разумным выбором.
https://geektimes.ru/company/hashflare/blog/283882/
habrahabr
Hugin — отличная бесплатная программа для создания панорам
['hugin', 'панорамы', 'панорама', 'панорамная фотография', 'фотография', 'фотографии', 'open source', 'software', 'soft', 'софт', 'открытое программное обеспечение', 'программное обеспечение', 'linux', 'linux для всех']
Сегодня я расскажу вам про замечательную программу — Hugin. С ее помощью можно без усилий построить даже самые крутые и самые сложные панорамы. Hugin — является самой популярной программой для...
Сегодня я расскажу вам про замечательную программу — Hugin. С ее помощью можно без усилий построить даже самые крутые и самые сложные панорамы. Hugin — является самой популярной программой для построения панорам и кроме того имеет полностью свободную лицензию и ее использование абсолютно бесплатно. Программа считает EXIF ваших фотографий и автоматически выровняет их относительно фокусного расстояния и угла обзора вашего объектива, разместит их в нужном порядке и без проблем склеит тени, провода, заборы, людей и другие объекты вашей панорамы. Наконец все построение панорамы, вместо сложной и муторной работы, сведется к игре найди 5 отличий схожестей, а то и вовсе к нажатию всего трех кнопок. Панорама собранная из 56 снимков Я уверен многие из вас уже пробовали подружиться с ней и забросили это дело, т.к. Hugin имеет не самый интуинтивный интерфейс. Сегодня мы исправим эту ситуацию. Как снимать панорамы? Пара слов о том как получить хорошие снимки для вашей будующей панорамы. Здесь все просто: Заблокируйте изменение экспозиции — это основное требование. Переключите ваш фотоаппарат в ручной режим и выставьте статические параметры диафрагмы, выдержки и ISO. Необходимо, чтобы эти параметры были одинаковыми на каждой фотографии из панорамы. Требование не обязательное, но крайне желательное. Тем самым вы убережете себя от возможных проблем при сборке и засветов в конечном результате. Снимайте поочередно — слева-направо и сверху вниз. Не существенно для маленьких панорам, но когда фотографий становиться больше 10… Вам же будет проще их потом разбирать. Результат неправильно снятой панорамы Интерфейс Итак мы скачали и установили Hugin, давайте же его запустим: Сразу разберем значение и функции каждой отдельной вкладки: Assistant (Ассистент) — Это вид по умолчанию, здесь находятся три основных кнопки и окошко предпросмотра вашей панорамы. Preview (Предпросмотр) — Здесь можно включить и отключить показ определённых фотографий, а также перейти в меню фотографии для наложения масок. Layout (Размещение) — Здесь мы можем увидеть все связи между фотографиями и быстро перейти к их созданию и редактированию. Projection (Проекция) — Тут можно изменить параметры проекции вашей панорамы. Move/Drag (Сдвиг/Смещение) — На этой вкладке можно двигать фотографии и размещать их в нужном порядке. Crop (Обрезка) — Здесь мы можем выбрать конечную область, которая попадёт на вашу панораму. Альтернативный интерфейс Кроме того Hugin имеет еще альтернативный интерфейс " Panorama editor (Редактор панорамы)", который вызывается через панель меню "View (Вид)", или если переключиться в расширенный интерфейс, но об этом чуть позже. Скриншот альтернативного интерфейса Быстрый старт Итак, если у вас есть правильно отснятая панорама и если вам повезет, то все ваши действия сведутся к нажатию всего трех кнопок: 1. Загрузить снимки... Нажимаем на " 1. Load images... (1. Загрузить снимки...)" Выбираем наши фотографии для панорамы, они загрузятся в проект. Загруженные фотографии в проект 2. Выровнять... Нажимаем на " 2. Align... (2. Выровнять...)" Спустя определенный промежуток времени, Hugin просчитает связи и соединит ваши фотографии между собой. Если повезет... Автоматически выстроенная панорама Если же этого не произошло, а вместо предполагаемой панорамы вы видите что-то непонятное, вам лучше отменить и перейти к созданию панорамы в полуавтоматическом режиме. При желании вы можете перейти на вкладку " Move/Drag (Сдвиг/Смещение)", чтобы выровнять горизонт и на " Crop (Обрезка)", чтобы выбрать конечную область панорамы. 3. Создать панораму... Нажимаем на " 3. Create panorama... (3. Создать панораму...). И сохраняем нашу готовую панораму. Опции сохранения панорамы Обычно этих трех простых шагов бывает достаточно, но что делать если у нас достаточно большая и сложная панорама, которая не хочет собираться в полностью автоматическом режиме? — давайте разберемся! Получившаяся панорама Теория Для начала нам нужно понять как работает Hugin. Среди ваших фотографий загруженных в проект, при нажатии кнопки " 2. Align... (2. Выровнять...)", Hugin при помощи определенного алгоритма ищет некие контрольные точки между вашими фотографиями и сдвигает их в соответсвии с ними. Контрольные точки — это не что иное, как одинаковые места на двух фотографиях. Две фотографии имеющие контрольные точки между ссобой — считаются связанными. Получается, что каждая фотография должна имееть связь с одной или несколькими другими фотографиями в проекте. Контрольные точки можно так же выставлять вручную. Связанные контрольными точками фотографии образуют группу, и ведут себя уже как отдельная фотография. Изначально, число групп равно числу несвязанных ссобой фотографий, ваша задача — свести число таких групп к одной. Следующим шагом Hugin начинает сведение панорамы и чем больше контрольных точек будет на ваших фотографиях — тем лучше. Сборка панорамы Итак, давайте попробуем собрать панораму в полуавтоматическом режиме. Проекция Первым делом загрузим фотографии в проект и перейдем на вкладку Projection (Проекция) и настроим поле зрения. Поле зрения — это черное окошко в котором вы видите все ваши фотогафии. Оно представляет ссобой не что иное, как угол обзора вашей панорамы. Измеряется он в градусах и и как правило больше чем 360° по ширине и 180° по высоте он быть не может. Именно поэтому фотографии которые приближаются к полюсам так прикольно спплющиваются. Изменять поле зрения можно в любое время из любого режима полузнками справа и внизу интерфейса Hugin. Расстановка фотографий Переходим на вкладку " Move/Drag (Сдвиг/Смещение)", и начинаем сдвигать фотографии в нужном порядке. Процесс расстановки изображений в нужном порядке Стоит заметить, что вам не нужно стараться попадать пиксель в пиксель при соединении фотографий. Ваша задача — соединить фотографии так, чтобы Hugin "понял" какая фотография с какой имеет связь, для этого достаточно чтобы они просто касались друг-друга. Проверить связи можно переключившись на вкладку " Layout (Размещение)". Есть два режима перемещения: normal (Нормальный) — можно перемещать группы фотографий простым перетаскиванием за нее. normal, individual (нормальный, настраиваемый) — в этом режиме можно выбрать отдельные фотографии и работать непосредственно с ними. Если вам необходимо повернуть фотографию, сделать это можно во втором режиме выбрав нужную фотографию и потянув за пустое место вдали от нее. Сборка После того как вы выстроили ваши фотографии в нужном порядке, можно снова попробовать автоматический режим: Переключимся на вкладку " Preview (Предпросмотр)" и нажмем " 2. Align... (2. Выровнять...)", тем самым инициализировав процесс автоматического поиска контрольных точек. Результат Таким образом у вас может образоваться одна или несколько групп связанных ссобой изображений. Связанные контрольными точками фотографии в первом режиме можно двигать только все скопом, куда как во втором, по прежнему можно двигать по отдельности. Если у вас образовалось больше одной группы изображений, программа вас об этом предупредит: Выровняйте их относительно друг-друга и переходите к следующему пункту. Если фотографии соединились неправильно и образовали непонятное нечто, отмените автоматическое выравнивание и переходите к проставлению контрольных точек вручную. В случае же если все прошло нормально просто переходите к этапу создания панорамы Создание контрольных точек вручную Итак, по прошествии прошлых шагов мы получили несколько несвязанных между ссобой групп изображений. Сейчас мы научимся их связывать. Связи Связи между фотографиями Переходим на вкладку Layout (Размещение) и здесь мы видим все связи между вашими фотографиями. Серыми линиями отмечены предполагаемые связи — это те самые связи которые должны существовать, исходя из расположения фотографий на вкладке Move/Drag (Сдвиг/Смещение), но еще не имеют своих контрольных точек. Их то нам и нужно разрешить: выбираем одну такую связь, после чего у вас откроется окно с двумя фотографиями. Теперь нам нужно найти несколько одинаковых мест на фотографиях и проставить на них контрольные точки. 2-3 точки будет вполне достаточно, для каждой пары фотографий. Инода можно обойтись и вовсе одной. Создание точек Алгоритм простой: Выбираем точку на левом снимке, выбираем точку на правом снимке. Нажимаем Add (Добавить). Можно воспользоваться функцией Fine-tune (Точно скорректировать). Добавляем 2-3 точки, закрываем, переходим к следующей связи. Процесс создания контрольных точек После того как все фотографии будут связанны контрольными точками, переходим на вкладку Assistant (Ассистент) и нажимаем " 2. Align... (2. Выровнять...)" Как показывает практика не всегда нужно обрабатывать абсолютно все связи, порой достаточно соединить лишь некоторые, остальные hugin достроит сам. Результат Если все прошло хорошо, переходите к этапу создания панорамы Если же нет, то добавляйте дополнительные контрольные точки и пробуйте повторить выравнивание. Дополнительные возможности и удобности На этом список функций Hugin не заканчивается, есть еще несколько полезных и удобных дополнений, о некоторых из них я вам расскажу. Клавиша Ctrl Подсвечивание клавишей Ctrl Когда вы зажимаете Ctrl, вы можете навести курсор на фотографию и моментально увидеть ее номер и ее содержимое. Если кликнуть по ней, вы попадете в режим редактирования конкретной фотографии. Маски Наложение масок Вы можете использовать маски, если хотите исключить или в обязательном порядке включить какие-то области из ваших фотографий, для этого перейдите в альтернативный интерфейс , на вкладку " Masks (Маски)". Выберите нужную фотографию, нажмите на " Add new mask (Добавить новую маску)", затем выберите нужную область, и выберите тип маски: Exclude region (Исключенная область) Include Region (Включенная область) Exclude region from stack (Исключенная область из стопки) Include Region from stack (Включенная область из стопки) Exclude region from all images of this lens (Исключенная область из всех снимков этого объектива) Обрезка фотографий Вы можете настроить обрезку краев у ваших фотографий, для этого перейдите в альтернативный интерфейс , на вкладку " Masks (Маски)" и в нижнем окне выберите " Crop (Обрезка)", эти параметры можно применить сразу для нескольких фотографий, если их предварительно выбрать в верхнем окне. Разные типы проекций панорамы На вкладке " Projection (Проекция)" вы можете выбирать различные типы проекций панорамы, например вы можете выбрать что-нибудь экзотическое, что позволит ей выглядеть довольно необычно. Режимы вывода панорамы Exposure corrected, low dynamic range (Коррекция экспозиции, узкий динамический диапазон) Exposure fused from stacks (Сначала сведение экспозиций, затем объединение) Exposure fused from any arrangement (Сначала объединение, затем сведение экспозиций) Как показала практика, первый режим работает лучше других двух других. К сожалению он не всегда доступен из вкладки " Assistant (Ассистент)", но его все равно можно вызвать через альтернативный интерфейс , на вкладке " Stitcher (Сшивка)" Форматы вывода TIFF JPEG PNG По умолчанию всегда стоит TIFF, но он достаточно "тяжелый", по этому можно изменить его на JPEG. Заключение Мы только что рассмотрели профессиональный инструмент для построения панорам и разобрали его функции. Таким образом, с помощью данной последовательности действий у вас соберется даже самая большая и непростая панорама. Теперь вы знаете как делать это правильно и больше не будете бояться снимать панорамы. Спасибо за внимание и делитесь результатами :) Результат последней панорамы из скриншотов Ссылки Официальный сайт Hugin Страница загрузки на SourceForge Галерея панорам сделанные в Hugin Hugin Users Group на Flickr
https://geektimes.ru/post/283874/
habrahabr
Как я проект на БЭМ переводил… и перевел
['HTML', 'CSS', 'верстка', 'БЭМ', 'BEM']
Связка HTML и CSS (CSS в большей степени) всегда казалась мне несколько «туманной», хуже всего поддающейся контролю и тестированию. Я придумывал для себя различные правила и пытался так или иначе...
Связка HTML и CSS (CSS в большей степени) всегда казалась мне несколько «туманной», хуже всего поддающейся контролю и тестированию. Я придумывал для себя различные правила и пытался так или иначе стандартизировать свой подход, но не было ощущения, что «вот, это оно». Я несколько раз мельком знакомился с БЭМ (и не только), читал статьи на эту тему, но дальше чтения дело не заходило. Но чем дальше, тем сильнее было ощущение необходимости в наличии определенной строгой методологии. В конце концов, я решил попробовать внедрить БЭМ на одном из своих проектов, где без этого, на мой взгляд, было не обойтись. Речь идет о CMS, упрощенную страничку бекенда которой я приведу в качестве примера верстки: Сразу хочу заметить, что БЭМ — это далеко не методология на все случаи жизни, и вопрос о необходимости ее применения в том или ином проекте следует рассматривать в частном порядке (в том числе исходя из того, нравится она вам или нет). Также, в силу того, что я не использовал предлагаемую специфическую файловую структуру или генерацию HTML, о них говорить не будем (позднее я все-таки разделил CSS-файл на отдельные части, соответствующие блокам, но этим решил пока ограничиться). Также, уже достаточно много (например, вот и вот ) написано о достоинствах и недостатках этого подхода в целом, поэтому говорить об этом тоже не будем, я просто поделюсь своим опытом и размышлениями на эту тему, предполагая, что с сутью вы уже знакомы. Приступаем Итак, в моем случае CMS — большой и модульный проект с открытым исходным кодом, в котором каждый модуль может иметь собственные куски бекенда, используя общие и добавляя к ним специфические элементы интерфейса. В идеале, модули должны разрабатываться и другими разработчиками. Думаю, это как раз такой проект, где применение БЭМ (или другой серьезной методологии) является не просто уместным, а необходимым. Особенно это важно, т. к. многие из веб-разработчиков считают CSS побочной, недостойной внимания и глубокого изучения технологией, пытаясь добиться необходимого результата путем копирования готовых кусков разметки и стилей, концентрируясь на том, что им больше нравится, получая в итоге неподдерживаемые таблицы стилей ужасающего качества. На первых порах проще всего было вообще не трогать исходный код моего проекта, т. к. он достаточно крупный. Вместо этого я создал простой HTML-документ (/index.html) и таблицу стилей (/css/style.css) для него, положил все это на рабочий стол для удобства и решил для начала сверстать несколько фрагментов с картинки выше, используя для этого Notepad++ и браузер. (В результате я хотел получить страницу, содержащую вообще все необходимые мне составные части, и уже затем, в случае успеха, перенести это в свой проект. Упрощенный результат доступен для изучения по ссылке в конце статьи; ссылку на то, как все вышло в реальности, тоже можно глянуть там.) Кнопки Я решил начать не со структуры, а с маленького блока кнопки — button . Кнопки у меня бывают 3-х типов: позитивное действие, негативное действие и нейтральное действие. Отличаются они лишь цветом, поэтому эти отличия я описал в виде булевых модификаторов , соответственно, button--positive , button--negative и button--neutral (я выбрал альтернативный синтаксис для модификаторов и вместо одного символа подчеркивания использую два дефиса — для меня это выглядит значительно нагляднее). В результате в HTML кнопка описывается таким образом: <button class="button button--positive" type="button">Text</button> Также допусти́м и такой вариант (одной из особенностей БЭМ является, в идеале, независимость внешнего вида от используемого тега, хотя я считаю достаточным исходить из того, к каким тегам класс может применяться, и не пытаться предусмотреть все, раздувая таблицу стилей лишними правилами): <a class="button button--neutral" href="#">Cancel</a> Выглядит вполне читаемо и понятно. Посмотрим теперь на CSS: .button { border: none; cursor: pointer; font: normal 15px 'PT Sans', sans-serif; line-height: 20px; display: inline-block; padding: 5px 10px; } Кнопка описана очень просто. Хотя я и встречал рекомендации сбрасывать значения всех правил внутри своих классов (чтобы на них не влияло окружение), но, как по мне, это уже слишком, и требуется лишь тогда, когда есть реальный шанс, что вы будете повторно использовать ваш блок в каком-то другом проекте, где стиль верстки отличается от вашего (например, вы разрабатываете какой-то виджет, который нельзя вставить как iframe в целевую страницу). Класс блока button , как и требует БЭМ, никаким образом не специфицирует свои размеры или внешние отступы. Идем далее: .button--positive { background-color: #87b919; color: #fff; } .button--positive:hover { background-color: #a0d71e; color: #fff; } .button--negative { background-color: #ff4100; color: #fff; } .button--negative:hover { background-color: #ff7346; color: #fff; } .button--neutral { background-color: #f0f0f0; } .button--neutral:hover { background-color: #f5f5f5; } Эти классы определяют модификаторы для различных типов кнопок (в зависимости от действия) и их состояния при наведении на них курсора мыши. Посмотрим на наши кнопки вживую: По-моему, хорошо. Группы кнопок В моем проекте я практически нигде не использую кнопки сами по себе, они почти всегда сгруппированы в группы (например, «Сохранить» и «Отмена» в форме). В каждой группе кнопки должны быть расположены горизонтально, на расстоянии ровно в 1 пиксель друг от друга. Чтобы не испытывать затруднений с выдерживанием этого расстояния (в случае с inline- или inline-block -элементами оно зависело бы от форматирования HTML, а именно, от наличия пробела между тегами), проще всего добавить кнопкам правило float: left , но только тогда, когда кнопка является элементом группы кнопок (т. е. само собой было бы неверно добавлять это правило непосредственно блоку button ). Итак, опишем блок группы кнопок buttons с единственным элементом buttons__button , представляющим кнопку, входящую в группу. Тогда HTML группы кнопок будет выглядеть вот так: <div class="buttons"> <button class="buttons__button button button--positive" type="button">Send</button> <a class="buttons__button button button--neutral" href="#">Cancel</a> </div> Рассмотрим CSS: .buttons { } Класс блока buttons пуст. .buttons::after { content: ''; display: block; clear: both; } Поскольку к кнопкам внутри группы будет применяться правило float: left (причину я описал выше), я отменяю обтекание таким образом. Кстати, этот способ закрытия потока обтекания float нравится мне больше всего, хотя в устаревших браузерах он и не будет работать (чаще всего ориентироваться на них нет необходимости). В любом случае, не в этом суть. .buttons__button { float: left; margin-right: 1px; } Здесь мы непосредственно описываем элемент-кнопку, входящую в группу, с отступом в одну точку справа. .buttons__button:last-child { margin: 0; } Последняя кнопка в группе не должна иметь отступа справа, используем псевдокласс :last-child для этого. Я использовал именно псевдокласс, а не модификатор, т. к. все без исключения кнопки в группах, если они расположены последними, не должны иметь этот отступ справа. Считаю использование модификаторов в таком случае излишним. На мой взгляд, получается достаточно здорово. Сами по себе блоки никак не позиционируют себя, не описывают внешних отступов. Но когда мы помещаем блок в другой блок, он как бы одновременно становится элементом своего блока и именно класс элемента позволяет дополнительно специфицировать все необходимые правила его расположения, если они необходимы. Кстати, я всегда располагаю классы элемента первыми, затем следуют классы модификаторов элемента, а уже затем — классы блока и его модификаторов. Это очень упрощает чтение HTML, т. к. если классов много, то сразу понятнее, что во что входит. Еще момент (на всякий случай). Порядок применения CSS-классов определяется порядком их следования в CSS-файле (а не в атрибуте class, как могло бы показаться), поэтому объявлять классы следует начинать с самых простых блоков, и в самом конце размещать блоки, отвечающие за общую структуру страницы. Вот как наша группа кнопок выглядит в браузере: На этом с кнопками мы почти покончили, идем дальше. Текстовые поля и текстовые области Далее я решил разобраться с другими элементами управления. Аналогичным образом описал блоки текстового поля text-box и текстовой области text-area (текстовую область рассматривать не будем, т. к. блоки практически идентичны — в исходниках примера можно посмотреть). Далее приведен HTML блока текстового поля. Дополнительно добавлен модификатор text-box--required , означающий, что поле является обязательным к заполнению (он добавляет красную полоску справа от поля): <input class="text-box text-box--required" type="text" /> Соответствующие CSS-классы выглядят так: .text-box { background-color: #f0f0f0; border: none; font: normal 15px 'PT Sans', sans-serif; line-height: 20px; outline: none; padding: 5px 10px; resize: none; } .text-box:hover { background-color: #f5f5f5; } .text-box:focus { background-color: #f5f5f5; } .text-box--required { border-right: 5px solid #ff4100; } Ничего особенного здесь нет, за исключением, повторюсь, последнего модификатора text-box--required . У текстовой области тоже есть такой, но называется он text-area--required . Выглядит наше текстовое поле следующим образом: Поля форм Как и в случае с кнопками, текстовые поля и области редко применяются сами по себе в моем проекте. Чаще всего они используются в составе форм в виде полей форм (совокупность заголовка и текстового поля, например). Т. е. формы собираются из небольших готовых кусков, а не из отдельных элементов управления. Поэтому я решил добавить блок field , и описать, как ведут себя заголовки и текстовые поля и области внутри поля формы с помощью элементов field__label , field__text-box и field__text-area . В итоге HTML поля формы с текстовой областью выглядит так: <div class="field"> <label class="field__label label">Body</label> <textarea class="field__text-area text-area"></textarea> </div> Все просто. Еще раз обратите внимание на порядок следования классов. Сперва, например, следует field__label , а label — после него, т. к. тег label является в первую очередь элементом field__label своего блока field , а уже потом независимым блоком label . Такое единообразие очень помогает. Рассмотрим CSS: .field { } Этот класс пуст. При отображении полей форм непосредственно в формах нам потребуется, чтобы между ними были вертикальные отступы, но мы опишем это в соответствующем элементе form__field блока form далее. .field__label { display: block; margin-bottom: 1px; } Заголовки внутри блока field будут выводиться с новой строки и иметь отступ в один пиксель снизу. .field__text-box { width: 430px; } .field__text-area { width: 430px; height: 190px; } Этими двумя классами мы задаем размеры для текстовых поля и области, когда они являются элементами поля формы. Результат всего этого следующий: Также часть полей форм у меня являются локализируемыми (мультиязычными). Им необходим дополнительный визуальный маркер для указания языка, к которому относятся входящие в них текстовые поля или области. В HTML поле формы с набор локализируемых текстовых полей выглядит следующим образом: <div class="field"> <label class="field__label label">Subject</label> <div class="field__culture"> <div class="field__culture-flag">en</div> </div> <input class="field__text-box field__text-box--multilingual text-box text-box--required" type="text" /> <div class="field__multilingual-separator"></div> <div class="field__culture"> <div class="field__culture-flag">ru</div> </div> <input class="field__text-box field__text-box--multilingual text-box text-box--required" type="text" /> </div> Обратите внимание на набор классов текстового поля, их четыре. Давайте еще раз по ним пройдемся. Класс field__text-box определяет размеры текстового поля внутри поля формы, field__text-box--multilingual добавляет небольшой дополнительный отступ справа, чтобы символы при наборе не залезали под маркер языка, который отображается поверх текстового поля. Класс text-box определяет основные параметры текстового поля, а text-box--required добавляет красную полоску справа от поля. Новые CSS-классы: .field__culture { position: relative; left: 450px; width: 0; z-index: 10; } .field__culture-flag { background-color: #323232; color: #fff; cursor: default; font-size: 8px; line-height: 16px; text-align: center; text-transform: uppercase; position: absolute; left: -23px; top: 7px; width: 16px; height: 16px; } .field__multilingual-separator { height: 1px; } Подробно останавливаться тут не на чем. Первые два класса нужны для того, чтобы отобразить маркер языка над текстовым полем или текстовой областью, а последний — для добавления отступа высотой в один пиксель между элементами управления для разных языков. Формы Теперь, рассмотрим блок формы form . Формы состоят из полей форм и групп кнопок, которые у нас уже описаны, но добавляют к ним вертикальные отступы с помощью классов элементов form__field и form__buttons . Вот так выглядит упрощенный HTML блока form : <form class="form"> <div class="form__field field"> <label class="field__label label">Body</label> <textarea class="field__text-area text-area"></textarea> </div> <div class="form__buttons buttons"> <button class="buttons__button button button--positive" type="button">Send</button> <a class="buttons__button button button--neutral" href="#">Cancel</a> </div> </form> А вот так выглядит его CSS: .form { } .form__field { margin-top: 10px; } .form__buttons { margin-top: 20px; } Как видим, все достаточно очевидно. При необходимости, мы можем вставить, например, группу кнопок в какую-нибудь панель управления на нашем сайте, но если мы говорим о форме, то, снабдив группу кнопок дополнительным классом form__buttons , мы получим необходимый отступ сверху. В браузере форма целиком выглядит так: Таблицы Теперь займемся немного более сложным элементом — таблицей. Думаю, все знают, что таблицы следует верстать таблицами (т. к. это семантически верно и имеет хорошую поддержку браузеров), но, в случае с адаптивной версткой, иногда удобнее все-таки это делать, используя теги общего назначения div со стилями, вроде display: table . В таком случае, на мобильных устройствах горизонтальную таблицу легко превратить в вертикальный список, всячески манипулируя отображаемыми данными (что-то можно скрыть, а что-то — объединить). Как бы там ни было, для реализации таблиц в своем проекте я решил использовать table , но, отчасти в качестве эксперимента, перед этим сверстал ее с использованием div . Прелесть независимости БЭМ от тегов в том, что, заменив затем теги div на table , tr и td , мне ничего не пришлось изменять в своем CSS-файле, таблица выглядела идентично. Я привел оба варианта для сравнения. Стандартная таблица в HTML выглядит так: <table class="table"> <tr class="table__row"> <th class="table__cell table__cell--header">Cell</th> <th class="table__cell table__cell--header">Cell</th> <th class="table__cell table__cell--header">Cell</th> </tr> <tr class="table__row"> <td class="table__cell">Cell</td> <td class="table__cell">Cell</td> <td class="table__cell">Cell</td> </tr> </table> Как видим, каждому тегу дан класс. Может показаться непривычным, зато это дает возможным безболезненно поменять table , tr и td на div и не визуально не заметить различия. CSS таблицы: .table { border-collapse: collapse; display: table; width: 100%; } .table__row { display: table-row; } .table__cell { font-weight: normal; text-align: left; vertical-align: top; display: table-cell; padding: 5px 10px; } .table__row:hover .table__cell { background: #ffff96; } .table__cell--header { background: #f0f0f0; } .table__row:hover .table__cell--header { background: #f0f0f0; } Как видим, для самого блока, как и для его элементов, установлены правила display: table , display: table-row и display: table-cell . Благодаря этому блок становится относительно независимым от тегов. По сути, повторюсь, не думаю, что есть смысл в этих правилах, если вы уверены, что таблица будет всегда сверстана именно стандартными табличными тегами. Ну и наконец, посмотрим на результат вживую: Меню Переходим к завершающему этапу. Меню представлены блоком menu. Каждое меню может содержать несколько групп элементов меню (элемент menu__group ), каждая из которых, в свою очередь, может содержать один заголовок группы элементов меню (элемент menu__group-title ) и несколько элементов меню (элемент menu__item ). Вот соответствующий HTML: <div class="menu"> <div class="menu__group"> <div class="menu__group-title sub-title"> Group title 1 </div> <a class="menu__item" href="#">Menu item 1</a> <a class="menu__item" href="#">Menu item 2</a> <a class="menu__item" href="#">Menu item 3</a> </div> </div> Я думал над тем, чтобы сделать элементы menu__group и menu__item отдельными блоками, но не нашел аргументов в пользу такого решения: нигде больше они не используются, это привело бы лишь к увеличению количества классов. Вроде бы все очевидно, но для наглядности приведу еще и CSS: .menu { } .menu__group { } .menu__group-title{ } .menu__item { display: block; padding: 5px 0; } В данном случае у меня пусты некоторые классы. Как видим, например, внешний вид заголовков групп элементов меню определяется общим блоком sub-title (я на нем не останавливался — посмотрите, пожалуйста, в исходниках). Необходимости в пустых классах нет (скорее, есть необходимость в их удалении). Я их решил оставить для наглядности нашего примера. Меню само по себе выглядит так: Общая структура Напоследок, рассмотрим общую структуру страницы. Но перед этим я хотел бы коснуться еще одного момента. Дело в том, что в основном в статьях по БЭМ рекомендуют не иметь в CSS-файле правил, не относящихся к блокам. Т. е. общих правил, применимых ко всему документу (например, с селектором по тегу, а не по классу). Я решил не идти этим путем, т. к. в таком случае увеличивается количество правил, которые необходимо дублировать в каждом блоке или элементе. Я не вижу особой причины делать это в моем случае. Если задуматься, то все блоки в моем проекте описываются в рамках единого контекста, и он неизменяем, поэтому вполне допустимо, например, задать общий стиль для текста, и во всех блоках отталкиваться от него, т. к. они все-равно должны иметь обобщенный стиль. Кроме того, мне кажется лишним назначать класс для каждого заголовка, абзаца в тексте, каждой ссылки. В таком случае, при использовании, например, WYSIWYG-редактора нам потребовалось бы добавлять эти классы вручную (или делать это автоматически при сохранении). Так или иначе, это лишнее неудобство. Вернемся к общей структуре. Я решил представить ее одним блоком master-detail с двумя основными элементами: master-detail__master и master-detail__detail , отвечающими, соответственно, за левую-темную и правую-светлую части страницы. В master-detail__master я добавил два меню. Одно меню не содержит никаких дополнительных классов элемента master-detail__master , т. к. нет нужды дополнять его какими-то CSS-правилами. Второе же меню является одновременно элементом master-detail__secondary-menu , что позиционирует его внизу элемента master-detail__master . Дополнительно, элементы этого второго меню «замиксованы» с элементом master-detail__secondary-menu-item , что придает им серый цвет. Не буду приводить HTML/CSS этого блока, т. к. он слишком громоздкий, и его необходимо рассматривать в контексте остального содержимого страницы. Поэтому, предлагаю взглянуть на исходники тестового примера, ссылку на которые можно найти ниже. Также на странице остался еще один блок — табы. Решил, что описывать их уже не имеет смысла, т. к. блок очень прост. Ну что же, в итоге мы получим такой результат, как на первой картинке. Выводы Зачем я решил написать это? Когда я принялся разбираться с БЭМ у меня было много вопросов, на которые я не находил однозначных ответов. Это был некий полуфабрикат идеи. Было интересно перестроиться и взглянуть по-новому на процесс HTML-верстки, отказаться от использования каскадов и так далее. В результате я так или иначе нашел для себя решения, и мне захотелось поделиться этим опытом, чтобы постараться упростить для кого-то этот процесс «привыкания и перестроения», показав еще одну точку зрения. Методология в целом мне понравилась. Самое важное, на мой взгляд, что она загоняет разработчика в достаточно жесткие рамки в плане структурирования, стиля именования и так далее. В итоге в большинстве случаев есть всего один ответ на вопрос «как?», что очень здорово (особенно, в крупных и командных проектах). Стану ли я применять БЭМ на мелких и простых проектах? Пока не знаю. Хотя я и не испытывал вообще никаких лишних сложностей и не заметил лишнего «напряга» из-за увеличившегося количества классов, но все-таки следование методологии требует несколько бо́льших усилий, чем при «традиционном» подходе. Хотя, вполне возможно, это из-за недостатка опыта и сноровки. Надеюсь, было интересно. Вживую посмотреть и потрогать можно тут , а здесь лежит реальная демка проекта, кусок упрощенной админки которого я привел в качестве примера. Там можно глянуть в реальном масштабе как это выглядит, а также, при желании, сравнить с тем, что было раньше.
https://habrahabr.ru/post/318204/
habrahabr
Власти Калифорнии официально запретили Uber тестировать беспилотные автомобили
['Uber', 'Калифорния', 'тестирование', 'регистрация', 'правила', 'ДТП', 'транспорт', 'робомобили']
Компания Uber получила официальный запрет от властей Калифорнии на тестирование собственных беспилотных легковых автомобилей, сообщает Reuters и еще ряд крупных англоязычных изданий....
Компания Uber получила официальный запрет от властей Калифорнии на тестирование собственных беспилотных легковых автомобилей, сообщает Reuters и еще ряд крупных англоязычных изданий. Тестирование началось в прошлую среду и уже через несколько часов руководство Uber получило официальное уведомление с требованием остановить работы под угрозой судебного иска со стороны администрации штата. Переговоры, которые велись последнюю неделю, так ни к чему и не привели. Теперь Uber придется искать новое место для проведения тестирования. Запрет поступил по причине того, что Uber, по мнению властей, не зарегистрировал свои тестовые транспортные средства должным образом в качестве автономных автомобилей. Представители Uber со своей стороны утверждают, что им подобная регистрация не нужна, так как их разработка пока не может передвигаться самостоятельно без участия человека на протяжении всего маршрута. При этом законы штата Калифорния определяют автономный транспорт как устройства, способные «передвигаться без активного физического участия и мониторинга со стороны физического лица». Неповиновение Uber было расценено со стороны властей негативно и в итоге компания получила официальный запрет на тестирование под угрозой подачи иска к компании. Власти мотивируют свои действия заботой о безопасности других участников дорожного движения и пешеходов. При корректном прохождении регистрации автономного транспортного средства, компания-разработчик обязана подавать информацию о любых ДТП, произошедших с участием робомобиля. По всей видимости, в Uber хотели этого избежать. При этом компания не отказывается от своих планов провести тестирование в Калифорнии. «Сейчас мы ищем место, куда сможем переместить для тестирования свои автомобили, но мы на 100% остаемся привержены идее работы в Калифорнии и удвоим наши усилия по разработке устройств, подходящий под правила штата», — заявили в Uber. Ранее компания провела тестирование своего грузовика Otto в Питсбурге. Тогда автономный тягач на базе грузовика Volvo доставил в автоматическом режиме 50000 банок пива с завода Budweiser из Питсбурга в Колорадо Спрингс. Разработкой занимался одноименный стартап Otto, который Uber приобрел летом этого года.
https://geektimes.ru/post/283934/
habrahabr
Как упростить работу с IntelliJ IDEA: полезные функции для разработчиков
['intellij idea', 'webstorm', 'wrike', 'wriketechclub']
На прошедшем в конце ноября митапе по разработке на Dart Александр Дорошко из JetBrains рассказал о полезных фичах, хинтах и горячих клавишах, которые упрощают работу в Intellij Idea и WebStorm....
На прошедшем в конце ноября митапе по разработке на Dart Александр Дорошко из JetBrains рассказал о полезных фичах, хинтах и горячих клавишах, которые упрощают работу в Intellij Idea и WebStorm. Нам показалось, что доклад будет полезен не только дарт-разработчикам, поэтому делимся записью презентации Александра со всем широким кругом хабровчан.
https://habrahabr.ru/company/wrike/blog/318136/
habrahabr
Еще 12 big data кейсов
['data mining', 'big data', 'big data solutions']
Хабр, привет. Сегодня мы подготовили еще 12 примеров того, как технологии больших данных приносят компаниям деньги. Ориентация на клиента 1. Компания: Билайн. Отрасль: телеком. Билайн...
Хабр, привет. Сегодня мы подготовили еще 12 примеров того, как технологии больших данных приносят компаниям деньги. Ориентация на клиента 1. Компания: Билайн. Отрасль: телеком. Билайн обладает огромным набором данных о своих абонентах, которые компания планирует использовать не только для внутренней оптимизации и работы с клиентами (повышение продаж, удержание клиентов, противодействие мошенничеству), но и для вывода новых аналитических продуктов на рынок (предоставление данных для кредитного скоринга, таргетированной цифровой рекламы, создание геоаналитических отчетов, IPTV аналитика, внешний консалтинг). Компания реализовала множество big data проектов. Например, было произведено сегментирование базы абонентов на основе расширенного клиентского профиля, в том числе с предсказанием пола и возрастной категории, построением социальных графов; реализован проект по распознаванию и защите абонентов от денежных махинаций и вирусных активностей; были выделены абоненты, пользующиеся услугами связи на нескольких типах устройств, а также абоненты, находящиеся в аэропорту и улетающие за границу, для предложения им подходящих услуг и тарифных планов. И это далеко не полный перечень. Для хранения и обработки данных компания использует HDFS и Apache Spark, для анализа данных – rapidminer и python, в том числе библиотеку scikit-learn. Результат: к 2018 г. прогнозируемые доходы от big data составят более 20% выручки компании. 2. Компания: Caesars Entertainment. Отрасль: развлечения, игорный бизнес. Caesars Entertainment – один из лидеров игорного бизнеса США, управляет известным казино Caesar’s Palace в Лас Вегасе и еще более 50 игорными заведениями по всему миру. Сама компания недавно была оштрафована более чем на 20 млн. $ за отмывание денег, и ее подразделение, управляющее казино, было подвергнуто процедуре банкротства. Однако за 17 лет компания накопила впечатляющий объем данных и аналитики по своей программе лояльности Total Rewards, который теперь является одним из самых ценных ее активов и был оценен в 1 млрд. $. В игровой индустрии важны данные о каждом клиенте: некоторые игроки высшей, седьмой категории по классификации компании, ежегодно тратили в казино порядка 500 тыс. $, а один бизнесмен в базе и вовсе оставил в Лас Вегасе за год 200 млн. $. Очень важно иметь возможность встретить такого клиента по имени, проводить на любимую игру и предложить бесплатные дополнительные опции по его вкусу: развлечения, авиабилеты, поездки на лимузине, проживание в отеле и т.д. С помощью накопленных данных о вкусах и поведении клиентов и продвинутых методов анализа данных компания могла находить к клиентам такой подход, чтобы они оставили как можно больше денег и обязательно возвращались снова. Компания использует Hadoop и облачные решения, обрабатывая более 3 млн. записей в час. Анализ данных также используется для сегментации клиентов и повышения стандартов безопасности. Результат: создан наиболее ценный индивидуальный актив компании стоимостью более 1 млрд. $, достигнут рост прибыльности и стандартов безопасности. 3.Компания: eHarmony. Отрасль: сайты знакомств. eHarmony – сайт знакомств, ориентированный на построение долгосрочных отношений. В анкете на сайте пользователь может оставить очень подробную информацию о себе, указать более 1000 параметров. Далее, используя эти данные, а также историю симпатий и развития отношений пользователей сайта, система рекомендует наиболее подходящие варианты знакомств, причем не просто на основе схожести интересов и убеждений. Анализируются фотографии пользователей, дополняющие друг друга и совпадающие, но при этом вызывающее особое притяжение между людьми характеристики. Например, удалось выяснить, что вегетарианцы скорее образуют устойчивую пару, чем любители гамбургеров, и площадь лица на фотографии определенным образом влияет на взаимную привлекательность. Также компания анализирует эффективность каналов маркетинговых компаний, использует персонализированную рекламу, управляет лояльностью пользователей, противодействует оттоку клиентов. В анализе данных компания использует решения SPSS, рекомендательные системы, Hadoop, Hive и облачные технологии. Результат: Ежедневно система делает около 100 миллионов предположений о том, что два человека могут подходить друг другу, 10 млн. $ ежегодно сберегается за счет противодействия оттоку клиентов и за счет сокращения неэффективных маркетинговых затрат. 4. Компания: Nippon Paint. Отрасль: химическая промышленность, производство лакокрасочных материалов. Nippon Paint – японская компания, занимает 7 место по обороту в мире среди компаний по производству красок, лидирующая компания отрасли на рынке Китая. С помощью запущенного компанией сайта iColor , который позволяет опробовать разные цвета краски на реальных интерьерах, получил широкую популярность среди как среди частных клиентов, так и среди дизайнеров и оформительских компаний. Анализ полученных с помощью этого сайта данных позволяет компании отслеживать новые тренды в цветах и дизайне, чтобы разрабатывать новые продукты и планировать производство. Также, с помощью данной платформы компания взаимодействует с дизайнерами и оформительскими компаниями, чтобы через них продвигать продукцию компании, сегментирует потребителей и создает для них персонализированные предложения. Для обработки и анализа данных компания использует решения на базе SAP HANA и Hadoop. Результат: компания получила мощный инструмент для выявления и отслеживания рыночных трендов, позволяющий планировать спрос и разрабатывать новые продукты, а также платформу для решения ряда других задач целевого взаимодействия с клиентами. 5. Компания: Hitachi Consulting, Vital Connect, ClearStory Data. Отрасль: здравоохранение. В США сепсис занимает 10 место в рейтинге причин смерти среди болезней. Ежегодно сепсис возникает примерно у 1 млн. американцев, от 28% до 50% из них умирает. На лечение сепсиса ежегодно тратится порядка 20 млрд. $. При этом основная причина смертельных случаев – недостаточный врачебный контроль. Пациенты выписываются из госпиталя или получают первую помощь, и после этого за ними не наблюдают. Однако после этого велик риск развития сепсиса, симптомы которого – жар, озноб, учащенные дыхание и пульс, сыпь, растерянность и дезориентация – похожи на симптомы других распространенных заболеваний. Часто пациенты слишком поздно обращаются к врачу или заболевание не удается правильно диагностировать на ранних стадиях. В результате быстро развивается септический шок и происходит часто необратимое поражение множества органов. Для контроля состояния пациентов предлагается использовать сертифицированное устройство HealthPatch от компании Vital Connect, которое будет собирать основные показатели состояния пациентов, включая даже позы и движения (при сепсисе они меняются). Далее информация поступает на серверы ClearStory Data, где объединяется с другими медицинскими данными о пациентах и анализируется в реальном времени с помощью решения на базе Apache Spark. В перспективе такие устройства будут получать все пациенты, покидающие госпитали и получившие первую помощь по состояниям, за которыми может следовать сепсис. Подобная система, но с меньшим уровнем анализа данных, уже успешно реализована в Сингапуре. Результат: создано решение, которое позволит системе здравоохранения США значительно снизить смертность от сепсиса (общего заражение крови). 6. Компания: JJ Food Service. Отрасль: доставка продуктов питания b2b. JJ Food Service – одна из крупнейших британских b2b компаний по доставке продуктов питания, имеющая более 60 тыс. клиентов в форме кафе, ресторанов, школьных и офисных столовых и т.п. В 2010 г. почти все заказы компания принимала через call-центры, сегодня 60% заказов принимается через Интернет-портал. Это повысило эффективность работы, однако привело к потере персонального контакта с клиентом. По телефону клиенту предлагали приобрести более дорогие или дополняющие товары и услуги, сообщали ему о тенденциях в его сегменте рынка. Эти возможности нужно было реализовать на новом уровне с помощью технологий больших данных. Для решения этих задач компания обратилась к специалистам Microsoft, чтобы построить решение на базе облачных сервисов Azure Machine Learning. Рекомендации, формируемые построенными на этой платформе предиктивными моделями, теперь используются не только на Интернет-портале, но и сотрудниками колл-центра. Когда клиент звонит в колл-центр или входит на сайт, его корзина уже заполнена на основании истории покупок и рекомендаций (учитываются рецепты, сходные заказы других пользователей, добавляются новинки, о которых клиенты еще не знают). Около 80% этих товаров покупатели действительно оставляют в корзине и приобретают. Такое решение возможно в b2b индустрии, т.к. часто нужны достаточно регулярные поставки определенного набора продуктов. Непосредственно перед оформлением заказа учитывается тип заведения и используемые им рецепты, чтобы определить, не забыл ли клиент купить что-то необходимое. Внедрение системы заняло 3 месяца. Результат: 80% товаров в предварительно заполненных потребительских корзинах приобретается клиентами, рост продаж, скорости обслуживания и удовлетворенности покупателей. Внутренняя оптимизация 1. Компания: Сбербанк. Отрасль: банковская. В предыдущем посте мы уже описывали некоторые кейсы применения больших данных в Сбербанке, в этот мы расскажем еще об одном кейсе – АС САФИ. Эта система анализа фотографий для идентификации клиентов и предотвращения мошенничества с документами была разработана и внедрена в Сбербанке к началу 2014 г. В основе работы системы лежит сравнение фотографий из базы с изображениями, получаемыми веб-камерами на стойках, с помощью технологий компьютерного зрения. В результате потери от такого вида мошенничества сократились в 10 раз. Основой АС стала биометрическая платформа «Каскад-Поиск» от компании «Техносерв». Изначально эта система была разработана для использования в оперативной, справочной и экспертной работе, но была адаптирована для нужд Сбербанка и интегрирована с автоматизированной системой рассмотрения кредитных заявок. Система работает очень быстро: благодаря ряду инновационных решений, таких как In-Memory Processing, сопоставление изображений камеры и изображений в базе занимает всего несколько секунд. Результат: потери от мошенничества с документами физических лиц сократились в 10 раз. 2. Компания: FarmLogs. Отрасль: сельское хозяйство. FarmLogs – компания, предоставляющая фермерам big data аналитику и удобные сервисы для планирования и оптимизации их работы. Мобильные и веб-приложения компании уже используются более чем третью фермеров США. Сервисы FarmLogs используют открытые геоданные о типе почв, детальные данные о погодных условиях, осадках и солнечной активности. Также широко используется анализ спутниковых снимков для автоматического определения посевов различных культур, мониторинга их состояния и учета исторических данных для прогнозирования и формирования рекомендаций. Компания предоставляет фермерам в аренду устройства, которые устанавливаются в сельскохозяйственные комбайны и автоматически записывает в систему данные обо всех произведенных операциях, маршрутах и расходе топлива. В результате формируются детальные рекомендации по ведению сельского хозяйства и автоматически ведутся все необходимые расчеты, в том числе финансовые. Результат: сравнительно далекий от высоких технологий фермерский сектор экономики США охвачен big data оптимизацией более чем на треть. 3. Компания: Dubai Airports. Отрасль : транспорт – аэропорты. Международный аэропорт Дубая – самый загруженный в мире аэропорт по объему международного пассажирского трафика, один из крупнейших в мире. Большие данные о показателях работы аэропорта, рейсах и перемещении пассажиров широко используются для оптимизации работы аэропорта и повышения удовлетворенности пассажиров. Аэропорт использует сложные алгоритмы оптимизации для динамического назначения выходов для посадки и прилета. В частности, если два рейса имееют большое число пассажиров, пересаживающихся с одного рейса на другой, их выходы будут назначены рядом. Очень многие пассажиры посещают Дубай для шоппинга, и аэропорт имеет множество магазинов в зоне duty free. Однако увлечение шопингом приводит к тому, что пассажиры часто опаздывают на рейсы. Многие из них не говорят ни на английском, ни на арабском – на языках, на которых делаются объявления. После внедрения новой программы оповещений в каждом из магазинов аэропорта сканируются посадочные талоны пассажиров, и они получают оповещения о том, к какому выходу им нужно пройти, по какому маршруту, и сколько на это потребуется времени, на языке, которым они владеют. Результат: оптимизировано назначение выходов на посадку и прилет, значительно сократилось число опозданий на рейсы. 4. Компания: Macy’s. Отрасль: розничная торговля, одежда, обувь и аксессуары. Macy’s – крупная сеть универсальных магазинов, основанная в 1858 г. и сегодня имеющая более 840 магазинов в 45 штатах США. В течение года хотя бы 1 раз магазины сети посещают 70% американцев. Компания анализирует большие объемы данных по спросу, акциям, отсутствию товара в конкретных магазинах, совмещает эти данные с предпочтениями покупателей, живущих на данной территории, и таким образом оптимизирует ассортимент всех категорий товаров в каждой из торговых точек. Используя технологии SAS Institute, ретейлер производит коррекцию цен на 73 миллиона товаров практически в реальном времени, используя данные о спросе и имеющихся товарных запасах. Компания использует большие данные не только в части внутренней оптимизации, но и в части ориентации на клиента. Например, интернет-магазин Macys.com, как и другие онлайн-ретейлеры, использует персонализацию, таргетированные рекламные баннеры и рассылку по электронной почте, оптимизацию поисковой системы сайта, чтобы покупатель легко мог найти интересующий его товар. Персонализация рекламных сообщений и предложений в компании очень высокая, число уникальных вариаций одной почтовой рассылки может достигать 500 000. Результат: высокие темпы роста продаж (до 50% в год), как минимум 10% из которых, по оценке компании – чистый эффект big data. 5. Компания: Ancestry. Отрасль: банк данных, справочная система. Основной актив компании Ancestry – огромная база данных современных и исторических документов, позволяющая восстанавливать родственные связи между людьми и строить генеалогические деревья. Сегодня банк данных компании содержит уже более 5 млрд. профилей людей, живших в разное время (начиная с 16 века) в большом количестве стран, было построено более 45 млн. генеалогических деревьев, задающих семейные связи между ними. Исторические данные, как правило, представлены не в машиночитаемом формате. Это могут быть, например, рукописные записи в учетных книгах. Кроме того, такие данные могут быть противоречивыми, неточными и неполными. В обработке, дополнении и верификации данных компании помогают алгоритмы data mining и машинного обучения, в том числе алгоритмы нечеткого сопоставления (fuzzy matching). Для хранения и анализа данных используются технологии больших данных. Данные Ancestry обрабатываются на трех кластерах MapR (дистрибутив, основанный на Hadoop). Первый сопоставляет с образцами в базе результаты анализа ДНК (в базе уже более 120 тыс. образцов), которые пользователи могут получить всего за 99$, плюнув в трубку и прислав образец слюны в компанию по почте. Второй реализует алгоритмы машинного обучения, третий – майнинга данных. Предварительный анализ базы позволяет упрощать поиск родственников и формировать предположения, которые облегчают расследование семейной истории. Сегодня огромное число открытий, сделанных пользователями, обеспечивается предварительным соединением профилей и ранжированием результатов, проведенных системой на основе анализа данных профилей и предыдущей истории поиска в системе. Еще несколько лет назад все такие открытия были заслугой исключительно пользователей системы. Пользовательский опыт в системе также постоянно анализируется, чтобы выявлять этапы, где у пользователей возникают трудности, чтобы добавлять в эти области дополнительный контент или ранжировать результаты поиска. Результат: накоплена огромная база исторических данных с очищенными, подтвержденными и предварительно соединенными записями, обеспечивающая легкое и продуктивное использование системы. 6. Компания: Rolls-Royce Holdings. Отрасль: машиностроение, производство двигателей. Rolls-Royce Holdings – британская мультинациональная компания, производящая двигатели и турбины для аэрокосмической отрасли, морских судов и энергетики. Двигатели, которые они производят, очень крупные и дорогостоящие, просчеты и ошибки в их производстве могут стоит миллионы и привести к гибели людей. Rolls-Royce использует технологии больших данных в разработке, производстве и дальнейшей поддержке своих двигателей после продажи. При разработке двигателей широко используется компьютерная симуляция, производящая терабайты данных. Анализ и визуализация этих данных производится на высокопроизводительных вычислительных кластерах. Производственные системы компании взаимодействуют друг с другом посредством Интернета вещей. Двигатели Rolls-Royce снабжены сотнями датчиков, которые регистрируют малейшие детали их работы. Эти данные оперативно обрабатываются с помощью алгоритмов машинного обучения и передаются инженерам в случае возникновения отклонений. Компания не дает точной оценки эффективности внедрения big data технологий, однако по заявлениям руководства компании, они дали значительное сокращение издержек. Большие данные также изменили бизнес-модель компании: благодаря ним компания смогла предложить клиентам новую модель обсаживания “Total Care”, когда компании почасово оплачивают мониторинг состояния работы двигателей во время их работы. Результат: значительное сокращение издержек в разработке и производстве, повышение надежности, внедрение новой бизнес-модели. Будем рады вашим комментариям. И ждем вас на программе «Специалист по большим данным», старт 15 марта.
https://habrahabr.ru/company/npl/blog/318208/
habrahabr
Попытки открытия новой шашечной тактики или Что делать с несбыточной мечтой
['шашки']
Введение Спортивная игра «Шашки» является одной из игр человечества, которые компьютер ещё не просчитал полностью. Есть новости о том, что ученые нашли стратегию, при которой компьютер никогда не...
Введение Спортивная игра «Шашки» является одной из игр человечества, которые компьютер ещё не просчитал полностью. Есть новости о том, что ученые нашли стратегию, при которой компьютер никогда не проиграет. За свои 9 лет, посвящённых этой игре, я встретил лишь одну программу, которую никак не мог победить. Пожалуй, мой спортивный опыт позволит сделать предположение, что это была программа реализующая стратегию описанную выше. К моему большому удивлению, она занимала лишь 60 Мбайт. А может быть, там была хорошо обученная нейронная сеть в основе? Но всё же мне не верится, что просчитать их невозможно. Там всего лишь 10^20 позиций, неужели мой компьютер не справится с такой задачей? А также, неужели нет тактики, в которой в начале партии соперник отдаёт шашку и оказываются в тактическом преимуществе?! Ни одного дебюта такого я не встречал. Пойду проверю… Реализация алгоритма для решений комбинационных задач Первая попытка была предпринята в конце 2-го курса. После качественного изучения языка Си, я считал, что не помешало бы изучить С++. После просмотра большого количества лекций по данному языку, я хотел взяться за какой-нибудь проект. И взялся за шашки. Более тонкая работа с переменными позволила более рационально тратить время на просчёт позиций. Если данные действия уподобить действиям с графами, то этот алгоритм можно было бы назвать поиском в ширину. Остановкой работы алгоритма являлось полное прохождение по графу. Один объект описывал сложившуюся ситуацию на доске. В одном объекте хранилось: class Queue { public: Queue *pnr; /*pointer to next record*/ Queue *ppr; /*pointer to prev record*/ Map *pdb; /*pointer to draught board*/ char *action; /*actions of parents*/ Queue *pp; /*pointer to parent*/ Queue *pfc; /*pointer to first child*/ int nmd; /*Approval of the number of moves to a draw*/ int color; }; Так как здесь был реализован алгоритм поиска в ширину, то данные можно было складировать в двусвязный лист, где pnr и ppr указатели реализующие эту коллекцию. pdb — Указатель на расстановку доски. action – данные о ходе совершённом родителем, для того, чтобы достичь эту позицию. Она выглядела как обычная запись ходов в шашках «c3–d4» при передвижении шашки или «c3:e5» при срубе. Переменная была необходима для более точной отладки сложившейся ситуации. pp , pfc – указатели на родителя и на первую порождённую позицию. Т.к. алгоритм поиска был реализован в ширину, то все порождённые позиции в двусвязном списке располагались рядом, один за другим. Поэтому для того, чтобы сохранить данные в виде дерева достаточно хранить указатель на первого дитя, а все остальные последующие дети ссылались на одного и того же родителя. Данный алгоритм позволял извлекать родителю результаты детей, то есть анализировать текущую ситуацию, смотря лишь на то, к чему может привести тот или иной ход породивший ребёнка. nmd – Число показывающее, сколько ходов осталось, до того, как партия будет считаться ничейной. Например, при ситуации 3-ёх дамок против 1-ой, на завершение партии выделяется лишь 15 ходов. При изменении количества шашек, а также после становления шашки дамкой данное число пересчитывается. color – Чей сейчас ход. Я очень боялся переполнения стека и считал, что передавать указатели в функции будет всё же лучше, поэтому решил избегать прямой передачи объекта в качестве параметра. Реализация была проста: берём элемент из очереди, рассматривает его, порождая последующие позиции, затем брали следующий элемент из очереди и так по кругу. Результат: Просмотрено: 61.133 позиций Хранится записей в очереди: 264.050 позиций Оперативная память (2 ГБ) закончилась лишь на таких данных. Такие результаты подходят лишь для коротких комбинационных задач. Зато такой способ работы с шашечными позициями позволил тщательно отладить работу «ядра» программы. Переход к «системе контроля версий» В алгоритме очень много памяти уходило на сохранение данных о доске. Каждая позиция требовала выделить участок памяти. Тем более, как закодировать текущую шашечную расстановку лучше, я не придумал: /* info about one checker */ class Checkers { public: chlive live; chstatus status; }; /* info about position a checker */ class PosCheckers { public: chcolor color; Checkers *ptrCheckers; }; /* battlefield */ class Map { public: PosCheckers coordinate[8][8]; }; color – Цвет шашки. Чёрная, белая, либо пусто. ptrCheckers – Если шашки на данном поле нет, то не выделяем память. status – Дамка или шашка. live – Жива ли шашка. Лишь для того, чтобы не срубить эту шашку повторно. Понимаю, что вместо coordinate[8][8] можно было обойтись лишь coordinate[8][4], но понимание собственного кода бы весьма сильно пострадало. В общем, очень много памяти требовалось на сохранение позиции, поэтому я решил возложить ответственность за идентификацию позиций шашек на action – запись о ходе родителя, в которой содержались данные типа «c3-d4». Теперь, когда берём элемент из очереди, мы, начиная с самого начала. Берём исходную позицию шашек и от неё уже по обратному пути, выполняем ходы, привлёкшие к этому ребёнку. Так строилась расстановка шашек на доске для каждого элемента очереди. Результат: Просмотрено: 1.845.265 позиций Хранится записей в очереди: 8.209.054 позиций Отказ от «системы контроля версий»; переход к поиску в глубину К сожалению, у поиска в ширину было как минимум несколько существенны проблем: Иногда он создавал одинаковые расстановки партий. А распознать, уже созданную партию, при большом количестве данных, было трудоёмко. Также не понятно было, что делать, когда нам не хватало памяти. Все хранящиеся данные были необходимы, чтобы восстановить идеологическую цепочку, так что при необходимости «черпнуть» откуда-нибудь памяти, её не оказывалось. Поиск “в глубину” позволил перейти от задач локального характера (решений комбинационных задач) к глобальным (просчёт всей партии). Данный алгоритм рассматривает текущую расстановку шашек, порождая потомков, выбирает из них первого и назначает его на роль текущего. Если потомков нет, то указываем, что в данной позиции мы проиграли и переходим рассматривать следующую расстановку у родителя. Также дабы не просчитывать повторные позиции при наличии дамок, было решено просматривать все позиции-родители. При наличии таковой я не рассматриваю её, а перехожу к следующей. Было решено убирать из памяти правнуков у расстановки, у которой был известен результат. Тем самым можно было избежать её переполнения. Если же переполнения не произойдёт при поиске самого глубинного элемента. Также было решено добавить новый способ хранения позиции – список из фигур: class ListCheckers { public: ListCheckers *pnr; chcolor color; chstatus status; int x,y; /* coordinate */ }; При помощи него мы стали более быстро находить возможность сруба, а также перебирать шашки для проверки возможности хода. Теперь наш объект «позиция» хранившийся в очереди, имел такие поля: class Queue { public: ListCheckers *plch; /*pointer to list of checkers*/ ListChilds *pcs; /*pointer to list of childs*/ chcolor color; int draw; chresult result; }; Я никак не ожидал, что команда free не гарантирует 100% освобождения памяти . При отладке выяснилось, что после выполнения команды free память не освобождалась вовсе. Где-то в потёмках форумов я узнал, что free лишь подаёт инструкцию ОС об освобождении памяти, а уже ОС сама решает, освобождать ли память или нет. В общем, ОС у меня оказалась “жадной”, поэтому пришлось работать с памятью по-другому. Я выделял память по мере необходимости для удержания цепочки из первых «детей». А вместо удаления «первого» ребёнка, которого мы просмотрели, данные о нём перезаписывались данными о следующем ребёнке. Для этого был разработан элемент отвечающий за динамическую работу с памятью: class MainQueue { public: MainQueue* parent; /*pointer to parent’s record*/ MainQueue* next_record; /*pointer to child’s record*/ Queue* now; /*pointer to record on data with position*/ int draw; }; Результат: За 1 день непрерывной работы: создано было 2.040.963 партии просмотрено было 1.241.938 партии Занимаемое место на оперативной памяти: 1.378 МБ Работа с файлами К сожалению, при таком выборе следующего элемента мы подолгу бы «подвисали» с одинаковыми позициями. Особенно при просчётах для дамок. Поэтому хотелось реализовать базу данных, где хранились бы результаты уже просмотренных позиций. Поэтому я решил хранить данные о каждой партии. Уходя от проблемы с памятью, я снова с ней столкнулся. Так как оперативной памяти мне не хватало, я решил использовать внешний носитель. Все позиции я записывал в файл index.txt и queue.txt. В queue.txt у меня хранились данные о каждой партии. А в index.txt – идентификатор партии и расположение информации о этой партии в queue.txt, то есть смещение. Хотелось сжать данные, но оставить их в читабельном виде. Потому что я считал, что до финиша было всё равно далеко. Поэтому я сохранял данные в таком виде: queue.txt : aaaaeaaaaacaaaaa aaaaeaaaaaakaaaa 50 U Aaaaaaeaaacaaaaa Aaaaaaauaacaaaaa 49 U aaaaaaeakaaaaaaa aaaaaaeacaaaaaaa 48 W Aaaaaaaaaauaaaaa 47 L … index.txt : Aaaaeaaaaaaacaaa000000000000000000000 aaaaeaaaaacaaaaa000000000000000000040 aaaaeaaaaaakaaaa--------------------- Aaaaaaeaaacaaaaa000000000000000000080 Aaaaaaauaacaaaaa000000000000000000178 … На доске игровая клетка может принимать 5 состояний: белая/чёрная шашка, белая/чёрная дамка, либо пусто. Значит, у двух клеток будет 25 состояний в различных комбинациях. Заметим, что в латинском алфавите 26 букв и он вполне подходит, для того, чтобы одной буквой описать состояние сразу 2-ух игровых клеток. Значит, что всю доску с 32-мя игровыми клетками можно описать 16-ю буквами латинского алфавита, которые имеют более-менее читабельный вид. Также необходимо сохранить, чей в данной позиции ход. Тогда, если первая буква будет заглавной, то ход сейчас чёрных. Также нам следует запомнить количество ходов от текущей расстановки, до принятия позиционной ничьи. А также и результат: W-win, L-lose, D-draw, U-unknown. И отлаживаться не стало сложней. Результат: За два часа программа потребовала лишь 4 MB оперативной памяти, но партий просчитала крайне мало. В queue.txt находилось 2918 записей и равен был 401 КB. Файл index.txt содержал 6095 записей и весил 232 KB. С такими темпами получится просчитать лишь 500 млн = 5*10^8 позиций и мой диск в 1TB сообщил, что памяти у него не достаточно. Да и произойдёт это весьма и весьма не скоро. Мои просчитанные позиции слабо скажутся на всю игру в целом. Сжатие данных Я смог придумать лишь 3 варианта продвижения проекта: 5^32 – различных расстановок фигур, 2*5^32 – учитывая, чей ход 2*(2*5^32) – максимальное количество занимаемого места ~ 9,32 * 10^22 бит при условии, что достаточно будет у каждой расстановки указать результат равным в 2 бита. Причём, в обычной партии имеется 5*10^20 различных позиций. А значит, около 2*(2*5*10^20) = 2*10^21 бит будут информационными, а остальные ~(9,12*10^21) будут обозначать, что такой расстановки шашек в данной партии не существует. В распоряжении имеется 1TB = 8*10^12 бит Необходимо разработать алгоритм сжатия для данной задачи, сохранив быструю индексацию данных. В обычной партии имеется 5*10^20 различных позиций. Для быстрой индексации сохраним у каждой позиции её «детей», а также результат. В среднем у позиции около Y потомков. Закодируем «ссылки» на потомков в Х бит, а результат в 2 бита, а также разделитель между записями в Z. Получаем (Х*Y+2+Z) бит на каждую позицию. Итого (Х*Y+2+Z)*5*10^20 бит требуется выделить для хранения всех позиций, используемых в начальной расстановке. В распоряжении имеется 1TB = 8*10^12 бит Необходимо разработать алгоритм сжатия для данной задачи, сохранив быструю индексацию данных. Попробуем найти повторяющиеся закономерности в записях и реализовать замену повторов на более короткие записи. Идейно алгоритм похож на код Хаффмана. Отрицательно скажется на не столь быстрой индексации. Итого нужно сжать данные c ≈10^22 до 10^13 бит. А значит, необходимо было написать алгоритм, который позволил бы сжимать данные всего лишь на 99.9999999914163%. Сомневаюсь, что какой-либо алгоритм на это способен, причём, не учитывая ещё, что необходимо сохранить быструю индексацию. Результат: Сохранение каких-либо данных обо всех партиях совсем не применимо. Возврат к работе проекта только на оперативной памяти. Создание «процессора» Было принято хранить данные, которые хранились в файлах, в оперативной памяти. Для этого было решено изменить структуру хранения данных: class list_strings { public: list_strings* next; char* data; list_strings() { data = new char[17]; data[0] = '\0'; next = nullptr; } }; class Queue { public: ListCheckers *plch; /*pointer to list of checkers*/ list_strings *pcs; /*list of data of childs*/ chcolor color; chresult result; int to_draw; } А также изменён принцип хранения объекта Queue. После того, как перезаписывался MainQueue, перезаписывается и объект Queue, на который указывает MainQueue. Поле «pcs» предназначенное для хранения «детей» теперь реализовано как односвязный список с данными типа «Aaaaaaeaaacaaaaa», расширяющийся по мере необходимости. Дабы использовать выделенную память повторно (при перезаписи) поля с данными становились равными ‘\0’ – нулю, для обозначения того, что поля не содержат важную информацию. Т.к. «объект» изменился. Результат: Максимальное занимаемое место на оперативной памяти: 844 КБ. Запуск на 7 часов позволил просмотреть 8.865.798.818 позиций. Но, позиции могут повторяться. Данные результаты являются недостаточным, для достижения полного просчёта партии за приемлемое время выполнения. Теперь можно сказать, что есть «процессор», который будет перемалывать позиции и ему потребуется лишь 844 КБ оперативной памяти, а значит, оставшуюся память можно потратить с пользой, например, реализовать «cache-память», дабы не просчитывать позиций, которые уже просчитаны. Создание «cache-памяти» Для наиболее быстрой выборки данных из памяти была выбрана hash-таблица, заполоняющая максимально-возможное пространство в оперативной памяти. В качестве hash-функции были выбраны последние числа алгоритма md5, на вход которой подавалась закодированное описанное позиции. То есть позиция «Aaauaueaaacckaaa» с md5 0237d0d0b76bcb8872ecc05a455e5dcf будет хранится по адресу: f * 2^12 + c * 2^8 + d * 2^4 + 5 = 15*4096 + 12*256 + 13*16 + 5 = 64725. Единицей хранения записи в hash-таблице была ячейка. Данный подход позволяет удалять данные из «устаревших» ячеек и использовать их пространство повторно. «Устаревание» реализовано при помощи кольцевого буфера: По первому адресу в cache-памяти хранятся ячейки №1 и №5, во второй №3… А в кольцевом буфере ячейки хранятся в хронологическом порядке. Если бы максимум мы могли хранить 5 ячеек, то ячейку с №1 «выдернули» из того места, где находится сейчас и поместили бы на место 6-ой ячейки. Причём, теперь в cache-памяти по первому адресу будет храниться только ячейка №5. class mem_cel { public: mem_cel* pnhc; /* pointer to next in hash collection */ mem_cel* pphc; /* pointer to prev in hash collection */ mem_cel* pnrb; /* pointer to next "mem_cel" record in ring buffer */ mem_cel* pprb; /* pointer to prev "mem_cel" record in ring buffer */ chresult result; int draw; stringMap condition; }; Поле condition необходимо для идентификации искомой расстановки шашек, потому что различные расстановки могут храниться по одному и тому же адресу cache-памяти. Поле draw необходимо для выявления совпадения запроса. Если в памяти хранится ничейный результат позиции, для которой было выделено лишь 3 хода, то при наличии большего количества ходов можно как добиться выигрыша, так и успеть проиграть. Результат: Запуск на 1 час позволил просмотреть 10.400.590 позиций. Необходимо реализовать что-то, позволяющее ускорять данный просчёт. Но, если производить расчёты, то мой компьютер, в лучшем случае, будет вычислять 10^20 позиций в течении: 10^20 / 10.400.590 = 9,6 * 10^12 часов = 4*10^11 дней. Посмотрим, какой кусок кода является «узким горлышком». Для этой цели я использовал профилировщик OProfile: 1. Queue::operator!=(Queue) Проверка различности элементов очереди. Вызывается при добавлении нового элемента в очередь для проверки троекратного повторения позиции. Проверка производится со всеми элементами, которые привели к текущей позиции. Оптимизация: При изменении количества шашек на доске или их статуса, отметить. Для того чтобы с позициями, которые имеют другой набор фигур, не производить проверку. 2. code_string(PosCheckers*) Используется для преобразования элемента шашечной позиции в букву. Необходим для функции Board_to_String(Map*, char*, chcolor). Оптимизация: Для начала уменьшить количество вызова функции Board_to_String(Map*, char*, chcolor) 3. String_to_Lcheckers(stringMap, ListCheckers**, chcolor*) 4. Board_to_String(Map*, char*, chcolor) Вызываются достаточно часто. А значит необходимо уменьшить количество обращений к ним. String_to_Lcheckers необходим для преобразования текста в коллекцию из данных о шашках. Board_to_String необходим для перевода позиции в текст, который можно хранить в ОП. Оптимизация: Так как для представления одной и той же позиции на доске мне необходимо работать с тремя структурами данных: Lcheckers – список шашек на поле. Необходим для быстрого выбора шашки для просмотра возможности хода. Map или “Board” – массив [8][8]. Содержит в себе полную расстановку сил. stringMap или “String” – строка для хранения данных. Значит необходимо уменьшить количество конвертаций из одного представления данных, в другой или попытаться уменьшить количество структур данных. Магические bitBoard’ы Неожиданно для себя я нашёл решение на habrahabr: Магические битборды и русские шашки . В котором автор статьи предлагает закодировать информацию о доске при помощи 4-ёх 32-битных слов. Слова: 1) позиции всех фигур белого цвета 2) позиции всех фигур черного цвета 3) позиции шашек белого цвета 4) позиции шашек чёрного цвета Причём позиции фигур нумеруются следующим образом: Теперь для выяснения возможности сруба хотя бы одной шашкой достаточно позиции всех шашек передвинуть в соответствующем направлении: bitboard_t try_left_up = ((((checkers & possible_left_up) << 1) & enemy) << 1) & empty; Тем самым ускоряется поиск возможности, как сруба, так и простого хода. К своему большому сожалению, я так и не понял автора данной статьи, как он решил работать с дамкой. У меня на данный момент стоит не красивый for, который, конечно, в дальнейшем нужно исправить. Тем самым можно заменить 3 структуры данных, описанных выше на одну: typedef uint32_t bitboard_t; bitboard_t bbMap[4]; Также, это изменение позволило не использовать md5 для нахождения номера в hash-таблице. Эта миссия была поручена данной формуле: #define HASH_NUM 0xFFFFFF hash_num = ((bbMap[0] ^ ~bbMap[1]) ^ ReverseBits(~bbMap[2] ^ bbMap[3])) & HASH_NUM; Где ReverseBits – это разворот бит. Пример: было число 0x80E0, стало 0x0701. Результат: Запуск на 1 час позволил просмотреть 15.140.000 позиций, что, несомненно, лучше. Но этого всё ещё не достаточно для полного просчёта. Исправил баг Ранее я указывал 754.000.000 позиций за час. Постыдная опечатка в коде… Считаю, что алгоритм проекта реализован. Поэтому, можно сделать упор на ускорении работы функций. Ускорение работы функций Начитавшись о likely/unlikely я решил проверить его «ускорение» кода. В общем говоря, likely/unlikely указывает какие инструкции следует загружать процессору во время выполнения оператора if. Либо те, которые находятся после then, либо после else. При неудачном выборе инструкций, например then, процессор простаивает, ожидая инструкций, указанных после else. Под компилятор от МS такая инструкция называется __assume. Реализовав каждый if этим способом, я решил затестить: __assume(selected == nullptr); if (selected != nullptr) { return selected; } Результат: К своему большому удивлению, код ускорился действительно на много. За первый час было просчитано 16.750.000 позиций. Исправил баг Ранее я указывал 840.000.000 позиций за час. Постыдная опечатка в коде… Сейчас такой цифры не достигаю. Введу новое значение как только так сразу Реализовывать ассемблерные вставки я не решился. Код у меня становится сразу нечитаемым, а это является для меня важным аспектом. Так как перерывы в проекте у меня иногда достигали несколько месяцев. Ограничитель количества просчитанных ходов в глубь К сожалению, это можно назвать так: со временем, я действительно осознал, что просчитать все позиции пока невозможно. Поэтому я добавил ограничитель ходов с результирующей функцией: шашка = +1 балл, дамка = +3 балла. Я осознаю, что такой подход не совсем верен, но в большинстве своём он будет выдавать валидные значения. Поэтому я решил остановиться на этом. Результат: Я вернулся к тому, с чего начал. С ограничителем количества просчитанных ходов моя программа на данный момент является программой для решений комбинационных задач. Но это не страшно, ограничитель можно отдалить. Общий результат: За первый час просчитывается ≈17 млн. позиций. Исправил баг Ранее я указывал 840 млн позиций за час. Постыдная опечатка в коде… Сейчас такой цифры не достигаю. Введу новое значение как только так сразу Что делать дальше? Непонятно. Можно использовать CUDA, распараллелить вычисления… Но не думаю, что с помощью этого можно добиться просчёта хотя бы 50 ходов для каждого игрока на одном компьютере. Знать бы ещё сколько позиций перебрать придётся… Нужно менять алгоритм… Как? Идей нет… Может использовать разрекламированные нейронные сети? Не думаю, что нейронная сеть оценит по достоинству потерю шашки в начале партии. Пока что подожду грядущее время появление/удешевления более быстрых компьютеров. Авось, тогда уже появятся более продвинутые технологии в ускорении кода. А я пока пойду изучать нейронные сети, возможно я не прав и они будут во главе вычислительного алгоритма… Поживём-посмотрим. Немного данных: Максимальная глубина просчёта — Количество просматриваемых позиций 1 — 7 2 — 56 (Совершаем первый ход белых. После чего порождаем 7 новых позиций для чёрных. Смотрим каждую из них, удостоверяемся, что дальше просчитывать не нужно. Делаем второй ход белых… 7+7*7) 3 — 267 4 — 1017 5 — 3570 6 — 11 460 7 — 34 455 8 — 95 921 9 — 265 026 10 — 699 718 11 — 1 793 576 12 — 4 352 835 13 — 10 571 175
https://habrahabr.ru/post/318210/
habrahabr
10 причин, по которым ваш дата-проект провалится
['обработка данных', 'стартап', 'базы данных']
Введение Наука, связанная с обработкой данных, продолжает волновать людей, однако реальные результаты нередко вызывают разочарование у заинтересованных бизнесменов. Как мы можем снизить риски и...
Введение Наука, связанная с обработкой данных, продолжает волновать людей, однако реальные результаты нередко вызывают разочарование у заинтересованных бизнесменов. Как мы можем снизить риски и обеспечить соответствие результатов ожиданиям? Работа в качестве технического специалиста на стыке НИОКР и коммерческих операций дала мне представление о проблемах, которые стоят на этом пути. Я представляю свою личную точку зрения на наиболее распространённые виды провалов и неудач проектов, связанных с информатикой. Полная версия со слайдами и поясняющим текстом имеется здесь. Слайды есть также отдельно в ПДФ-файле . Есть также некоторое обсуждение на Hacker News . Сначала несколько слов обо мне: Руководил группами специалистов по теории и методам анализа данных в двух стартапах в Лондоне. Разработанные продукты используются компаниями Time Inc, Staples, John Lewis, Top Shop, Conde Nast, New York Times, Buzzfeed и т.д. Настоящий пост базируется на обсуждениях, которые я вёл со многими ведущими специалистами по обработке данных в последние несколько лет. Многие компании, кажется, проходят через общую схему найма команды специалистов по обработке данных только для того, чтобы примерно через 12 месяцев спустя бросить дело или распустить всю эту команду. Почему же количество неудач так велико? Давайте рассмотрим причины. 1. Ваши данные не готовы Если данные находятся в базе данных, то их можно использовать, правильно? Но можно предположить, что это просто мусор, если их не использовали ранее. Проверяйте данные. Весьма мудрый консультант по обработке данных сказал мне, что он всегда спрашивает, использовались ли данные ранее в каком-либо проекте. Если нет, то он добавляет 6-12 месяцев на работы по очистке данных. Проверьте данные, прежде чем начать. Проконтролируйте данные на полноту и загрязнённость. Например, может обнаружиться, что база данных содержит разные операции, сохранённые в долларах и иенах без указания валюты. Подобное, действительно, случается. 2. Нередко слышно: «Обработка данных — это новая нефть» Но это не так. Данные не являются товаром; они должны быть преобразованы в некоторый продукт, прежде чем приобретут какую-то ценность. Многие собеседники рассказывали мне о проектах, которые запускались без какого-либо представления, кто будет их пользователем или как использовать их «ценные данные». Ответ приходил, как правило, слишком поздно: «никто» и «никак». 3. Ваши специалисты по работе с данными подумывают об уходе Могли бы вы прислать мне рабочее задание? Что вы разрабатываете в настоящее время? Вообще-то, я только что получил доступ к R и Python! Буквально 5 минут назад. Не создавайте проблем вашим специалистам, не обеспечивая им доступа к данным и инструментам, требуемым для нормальной работы. Старшему научному сотруднику из переписки выше понадобилось шесть недель на получение разрешения установить Python и R. Он был счастлив! Увы, счастье было недолгим: Вы, должно быть, шутите… Вот оно. Эта программа заблокирована по требованиям групповой политики. За дополнительной информацией обращайтесь к вашему системному администратору. Теперь позвольте представить этого парня: Он был менеджером по продукту на сайте интернет-аукциона, о котором вы, возможно, слышали. Его рассказ был об A/B-тесте нового алгоритма прототипа для главной поисковой машины продуктов. Тест был успешным, и новый алгоритм пошёл в дело. К сожалению, после того как прошло много времени и было потрачено много денег, выяснилось, что в коде A/B-теста имелась ошибка: прототип не был использован. Они случайно проверили старый алгоритм на собственных данных . Результаты оказались бессмысленными. Это была проблема: Вы не будете знать, что результаты представляют собой мусор. Ошибка выборки, смещение измерения, парадокс Симпсона, статистическая значимость и т.д. НИОКР — непростое дело 4. У вас нет специалиста-лидера по обработке данных Вам нужны люди, которые живут и дышат ошибкой выборки, смещением измерения и подобными вещами — или вы никогда не узнаете, что ваши результаты не имеют смысла. Таких людей называют «учёными». Да, кстати. Этот человек не является ни «учёным», ни специалистом по обработке данных: «Руководитель-аналитик, формирующий стратегию для управления информационными потоками, для средств бизнес-аналитики (BI) и для аналитических решений, направленных на организационное преобразование. Имеет опыт руководства командами при разработке решений корпоративного класса и максимизации стоимости бизнеса.» А этого специалиста по обработке данных можно считать «учёным»: «Специализация: вероятностное программирование, анализ данных, байесовское моделирование, скрытые Марковские модели, методы Монте-Карло с цепями Маркова (MCMC), рекуррентные нейронные сети (LSTM), многозадачное обучение, доменная адаптация.» Также — противоположное утверждение очень часто является верным: 5. Вы не должны были нанимать учёных* *См. пункт 3. Для технологии ETL (извлечение, преобразование и загрузка данных) нанимайте специалистов по инженерии данных. Для создания отчётов нанимайте специалистов по средствам бизнес-аналитики (BI). Конец. 6. Ваш босс читает публикации в блоге по машинному обучению Шумиха вокруг машинного обучения означает, что там есть много легкодоступного контента. Это может привести к явлению, которое можно было бы назвать «скороспелый эксперт»: теперь каждый имеет великие идеи по машинному обучению. Симптомом является использование таких словосочетаний как, например, «устранение расходимости» или «ансамблевый метод» в неподходящем контексте. Поверьте мне, подобное хорошо не кончается. Ориентированный на экономию средств проект HealthCare использовал данные из больниц для обработки сведений о пациентах с симптомами пневмонии, поступавшими в приёмные отделения. Было желание создать систему, которая могла бы выявлять людей с достаточно низкой вероятностью летального исхода, благодаря чему их можно было бы просто отправлять назад домой, снабдив антибиотиками. Это позволило бы сосредоточить уход на наиболее серьёзных случаях, которые могли угрожать осложнениями. Разработанная нейронная сеть имела очень высокую точность, но она, как ни странно, всегда отправляла астматиков домой. Это было необъяснимо, так как у астматиков на самом деле риск осложнений от пневмонии довольно высокий . Оказалось, что астматиков, которые проявляли симптомы пневмонии, всегда направляют в отделение интенсивной терапии. Поэтому за интервал обучения нейронной сети не было ни одного случая смерти астматика. Модель в результате заключила, что у астматиков риск летального исхода чрезвычайно низкий, хотя в действительности ситуация обратная. Эта модель имела большую точность, но если бы её стали использовать, то это неизбежно привело бы к смерти людей. 7. Ваши модели слишком сложные Используйте, прежде всего, поддающуюся объяснению модель. Тестируйте, используя для сравнения некоторые базовые характеристики. Мораль этой истории: используйте простую модель, которую вы можете понять. Только затем двигайтесь к чему-то более сложному и то, если в этом есть необходимость . 8. Ваши результаты не воспроизводятся Git; Анализ кода; Автоматическое тестирование; Обеспечение взаимодействия при конвейерной обработке данных. Основой любой науки является воспроизводимость результатов. Делайте всё из указанного. И не говорите потом, что я не предупреждал вас. 9. Лаборатория, занимающаяся НИОКРом, чужда корпоративной культуре вашей компании. Люди предпочитают интуицию. НИОКР является областью деятельности с высоким риском. Встречи в лаборатории, переговоры, публикации статей и т.д. Лаборатория, занимающаяся прикладной наукой, накладывает серьёзные обязательства на компанию. Точные данные часто могут быть весьма опасными для людей, которые предпочитают доверять своей интуиции. НИОКР несёт в себе высокий риск неудачи и требует — как необходимое, но всё же недостаточное для успеха условие — необычно высокого уровня упорства. Спросите честно сам себя — ваша компания, действительно, принимает такую культуру? 10. Разработка информационных продуктов без опоры на реальные данные равносильна занятию таксидермией без наблюдения за живыми животными. При подготовке какого-либо информационного продукта (даже некоторого макета) категорически не допускается разработка взаимодействия с пользователем и работа менеджеров по продуктам с использованием неподлинных данных. Как только на макете будут использованы реальные данные, может оказаться, что он является полной фантазией. Реальные данные могут оказаться со странными выбросами или, наоборот, совершенно монотонными. Они могут проявиться как исключительно динамичные. Они могут быть полностью или трудно прогнозируемыми. Используйте реальные данные с самого начала, или ваш проект закончится в страданиях и ненависти к себе.
https://habrahabr.ru/post/317836/
habrahabr
Анонс 3D-принтера Picaso Designer X PRO
['Picaso 3D', '3D-принтер', '3D-печать']
Мы рады сообщить о долгожданном анонсе и старте предзаказов на 3D-принтер Picaso Designer X PRO. X Pro — 3D-принтер имеющий новое ядро, новую механику и электронику, а также ряд...
Мы рады сообщить о долгожданном анонсе и старте предзаказов на 3D-принтер Picaso Designer X PRO . X Pro — 3D-принтер имеющий новое ядро, новую механику и электронику, а также ряд автоматических фишек, которые позволят решать 3D-задачи еще быстрее и точнее. Аналогов по скорости и точности двух материальной печати теперь нет на рынке! Новинка была презентована Picaso 3D на Form Next 2016 под маркой для европейского рынка — ODIN. Мы решили лично убедиться в качестве этого 3D-принтера и ознакомились с ним на выставке. Технические характеристики: Материал, используемый для 3D печати: PLA, ABS, PLA Flexible, PVA, PC, Hips, Nylon, Laywood, FilaFlex, Filamentarno (диаметр нити 1.75мм); Область печати: 200 х 200 х 210 мм; Материал корпуса: Алюминий (композит); Направляющие: XY: рельсовые (сталь), Z: цилиндрические (сталь) Толщина слоя: от 0,05 до 0,25 мм (Толщина слоя регулируется настройками ПО принтера); Точность позиционирования: XY: 11 микрон; Z: 1.25 микрон; Наличие подогреваемой платформы: Да; Платформа печати: Алюминий — стекло; Количество печатающих головок: 2; Автоматическая калибровка стола: Да; Диаметр сопла: 0.3 мм; Максимальная рабочая температура экструдера: 380C; Максимальная рабочая температура рабочей платформы: 140C; Уровень шума :55 дБа; Плата управления: на базе ядра ARM CORTEX M4 32-битного процессора STM; Интерфейсы: USB, Ethernet, USB Flash [в комплекте]; Интеллектуальная система поддержек: Программное обеспечение Picaso 3D Polygon X поставляемое с принтером автоматически создает поддержки в тех местах, где это необходимо, для обеспечения прочности (устойчивости) детали во время печати; Совместимость с программным обеспечением: Windows XP, Windows 7, Windows 8; Скорость печати: до 30 см3/час; Поддерживаемые форматы: STL, PLG; Программное обеспечение: Программное обеспечение(Picaso 3D Polygon X) для 3D принтера поставляется бесплатно. С помощью данного программного обеспечения вы можете импортировать файлы в формате STL и PLG для последующего вывода 3D модели на печать. Программа позволяет менять масштабы, и производить всевозможные манипуляции с 3D моделью на плоскости; Рабочая температура окружающей среды: 15° – 32°С; Габариты и вес: 492х390х430мм; Вес — 16кг; Габариты и вес в упаковке: 690 x 500 x 470; Вес — 22кг; Энергопотребление: 220В +- 15% 50Гц (доступна опция 110 В +-15% 60Гц) 400W; Гарантия: 1 год; NEW! Автоматизированная система контроля печати: Система контроля подачи пластика. Каждый засор сопла – это потраченное время и материал, значит Ваши деньги. Благодаря данной система принтер может определять засоры сопла и автоматически производить очистку печатающей головки. В случае, если автоматическая очистка невозможна устройство встает на паузу и ждет вмешательства пользователя. Система контроля печати первого слоя Качество печати первого слоя, во многом, определяет успех и качество печати Вашей модели. Именно поэтому эта система так важна. Теперь, при печати первого слоя принтер сам определит необходимые параметры, исходя из профиля установленных в принтер материалов. Система профилей Профили, установленные в принтере, это новая и невероятно удобная система, позволяющая вам не подготавливать новое задание под разные материалы, цвета и разных производителей пластиков. Принтер все сделает за Вас! При загрузке пластика, Вам лишь необходимо выбрать правильный профиль материала и далее, Designer X PRO сам установит все необходимые параметры. Система оповещений Контролируйте каждый этап работы принтера, система оповещений поможет вам в этом. Designer X PRO использует визуальные оповещения и почтовую рассылку так, что в любой момент времени вы будете точно знать в каком состоянии находится ваше устройство. Удобство обслуживания Калибровка уровня стола 50 секунд. Автоматическая калибровка высоты между соплами 5 секунд. Калибровка смещения сопел 5,5 минут. (печать шаблона и установка параметров) Обновленный экструдер Jet Switch Обновленный экструдер Jet Switch позволяет создавать объекты непревзойдённого качества за счёт полного выключения подачи второго материала, без снижения рабочей температуры. Полностью переработанный экструдер (обновлена механическая часть) в новой версии обладает более стабильным качеством печати и повышенной производительность, а также стойкостью к засорам. В совокупности с клапаном подачи, это обеспечивает максимально быстрое переключение между двумя материалами и повышение качества печати. Picaso 3D Designer X PRO обеспечивает самую быструю и качественную печать двумя материалами. Примеры изделий: Высокоточное профессиональное прототипирование на рабочем столе теперь доступно для производственных компаний, которые считают свои деньги. На данный момент доступно 2 варианта предзаказа 3D-принтера Picaso Designer X PRO. Цена предзаказа от 199 000 рублей. Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/283932/
habrahabr
Электронный микроскоп в гараже. Токарная мастерская
['электронный микроскоп', 'в гараже', 'сканирующий электронный микроскоп', 'JEOL', 'токарный станок', 'фрезерный станок', 'мастерская']
Для тех, кто ещё не в курсе о проекте — почитать можно вот здесь. Из вакуумщиков — в токари Для восстановления и модернизации такого рода аппаратов (SEM, TEM и прочих вакуумных приборов)...
Для тех, кто ещё не в курсе о проекте — почитать можно вот здесь . Из вакуумщиков — в токари Для восстановления и модернизации такого рода аппаратов (SEM, TEM и прочих вакуумных приборов) просто жизненно необходимо изготовление всяких нестандартных переходников, заглушек, держателей, приводов и манипуляторов. Конечно, если купить новый микроскоп от дилера, то они всё запустят, и будут проводить ежегодное обслуживание «под ключ». Но во-первых, цена этого удовольствия выходит из бюджета любого гаража, а во-вторых, это достаточно скучно. Например, в случае с нашим микроскопом — в нём вообще нет ни одного стандартного вакуумного соединения: KF или CF . Поэтому любой вакуумный прибор из магазина подключить просто так не удастся. И единственно верным решением будет изготовление переходников на стандартные KF-фланцы. С тем, как работает форвакуумный насос мы разобрались в прошлой статье. Теперь надо всё это подключить. Но даже если изготовить тройник, то понадобится ещё штуцер на форвакуумный насос, чтобы надеть вакуумный шланг. И самое главное: в колонне есть несколько отверстий, которые необходимо закрыть прежде, чем испытать удовольствие от полученного в ней вакуума. Прикинем список того, что нужно сделать: Тройник для подключения двух форвакуумных входов к одному насосу Переходник на вакуумный насос Заглушка для датчика вторичных электронов (датчик кем-то снят на запчасти) Два переходника с проприетарного вакуумного разъёма JEOL на стандартный KF16 для подключения двух вакуумных датчиков на штатных местах (один оригинальный разбит, второй просто отклеился) Один переходник на KF25 для комбинированного датчика вакуума вблизи электронной пушки Пара штуцеров для компрессора Всякая мелочь Купить это нельзя, всё индивидуальное. Можно начертить чертежи и заказать у токаря (ещё поискав хорошего токаря, т.к. там местами надо обеспечить хорошую точность). Но подгонять по месту не выйдет, а заранее всё предвидеть невозможно. Хочется попробовать, как лучше, как будет работать, как не будет. К тому же, у меня ещё много планов, чего можно сделать интересного и о чём вам рассказать. Поэтому какой выбираем путь? Конечно же изучить токарное дело! Как цитировали в комментариях к прошлой статье: засучить рукава дорого пиджака и вперёд, точить. Совершенно с нуля, я никогда даже и не видел токарного станка (в Бауманском многие проходят практику на кафедре металлообработки, но для разработчиков программного обеспечения сделали исключение, и в нашем учебном плане не было ни химии, ни металлообработки). Вооружаемся научным методом, и начинаем изучать предметную область. В общем, есть два больших направления. Первое — это станки с ЧПУ . Второе — универсальные: токарно-винторезные фрезерные координатно-расточные шлифовальные сверлильные заточные станки . Если совсем по-простому, то станок с ЧПУ сам из заготовки, с помощью набора инструментов и программы создаёт нужную деталь. Другими словами, создание детали — это разработка программы, которую можно получить из 3D-модели, для этого есть соответствующее программное обеспечение. А на универсальных станках работает человек, и от его умения и мастерства зависит деталь, которую он сможет сделать. Станок с ЧПУ имеет неоспоримое преимущество в двух случаях: серийный выпуск изделий сложная конфигурация изделия (например, гребной винт судна, или корпус модного гаджета) Малый токарный станок Чтобы как-то вникнуть в тему, я решил начать с малого и по-случаю приобрёл очень редкий и необычный токарный станочек Pilot L400 , сделанный в Эскильстуне, Швеция . Редкий настолько, что эта статья будет второй во всём известном интернете, которая рассказывает про него. К этому станку в комплекте шла куча всего разного — делительная головка, координатный столик, синусный столик, часть сверлильного станка, резцы Sandvik, резцы японские, заготовки, и даже приспособления, предназначение которых я до сих пор не выяснил. Для облегчения перевозки многие части сняли, включая патрон, поперечную подачу, резцедержку. Но суть на этой фотке видна: на деревянной тумбочке установлен этот станок. Сделан он хоть и давно, но очень аккуратно, и состояние просто идеальное (ржавчины нет вообще). Из необычностей, сразу бросившихся в глаза: его передняя бабка регулируется по высоте! Кучу фоток этого станка в похожей комплектации можно увидеть по ссылке выше. Деревянный столик для токарного станка — это как-то несолидно. Поэтому для него был изготовлен из уголка новый стол. Двигатель заменён на гораздо более мощный советского производства, с частотным преобразователем Hyundai (в простонародье называемый частотником ). Вообще, частотник делает работу на станках настолько удобнее, что я ещё вернусь к нему ниже по тексту. Очевидный недостаток — хорошие (на большую мощность) частотники стоят достаточно дорого. Для увеличения максимального диаметра обрабатываемых деталей, рабочее положение передней бабки стало выше, и под резцедержку и заднюю бабку были изготовлены соответствующие проставки. Были заменены подшипники шпинделя, выточен новый шкив для двигателя (на нём же, сам для себя запчасти точит станочек). После всех переделок выглядит вот так: Точит вполне хорошо, и выручал многократно, даже реставрация большого станка (о чём ниже) выполнялась с помощью него. Но конечно мог бы быть жёстче. Большим отрезным резцом стальную заготовку невозможно отрезать, выгибает всё. На этом станке я и начал вникать в токарное дело. Забегая вперёд скажу, что в связи с вводом в строй большого токарного, этот остался в резерве и сейчас используется очень редко. Ресурсов для изучения основ работы на токарном станке сейчас очень много. Есть популярный форум Chipmaker, посвящённый этой тематике ( модератор которого молча вычистил мою тему от ссылок на сами статьи ). Отмечу два видеоканала, которые оказались мне наиболее полезными: Видеокурс по металлообработке Виктора Леонтьева . Здесь исчерпывающе рассказывается про металлобработку на токарных станках. Дядько Максим . У Дядьки замечательные практические примеры, как и что делать на разнообразных станках. Украинский язык начал понимать через несколько видео. Фрезерный станок НГФ Что делать, если нужно изготовить деталь, которая не является телом вращения? Или же просто сделать плоскость на детали/заготовке? В проекте «Электронный микроскоп» нам такое точно понадобится. На помощь приходит фрезерный станок. Тоже начинаем с небольшого, и знатоки его знают по трём буквам НГФ: Настольный Горизонтальный Фрезерный станок . Фрезерные бывают вертикальные и горизонтальные, по расположению оси шпинделя. Сразу скажу, горизонтальные довольно специфичные, и в большинстве случаев требуются вертикальный фрезер. НГФ же универсальный — из горизонтального превращается в вертикальный установкой специальной головки. Сейчас всё увидите. Станок этот учебный, их полно в классах труда советских школ. Поэтому удалось купить совершенно новый, простоявший много лет станок. К сожалению, фото сразу после покупки не сделал, поэтому нашёл из интернета похожее. То, что он новый — означает то, что в нём нет изношенных деталей. А вот плохо пришабренных деталей хватает. Покрашен унылой салатовой краской, вековая пыль, и окаменевшая смазка внутри. Разбираем всё на части, шкурим, красим, смазываем заново. Но станок-то учебный, а значит предназначен для обучения, а не для реальных дел. Нужно доработать! Меняем подшипники в ВФГ ( Вертикальная Фрезерная Головка ) на более современные, смазываем всё хорошей смазкой. Разбираем продольную и поперечную подачи, устанавливаем туда подшипники качения, чтобы всё вращалось легко и непринуждённо (до этого там просто на трении всё основывалось, и из-за отсутствия автоподач процесс фрезерования становился слишком утомительным). Изготавливаем новый ходовой вал, который отвечает за перемещение по оси Z. Это позволяет расширить границы передвижения стола вниз (а это ох как нужно в этом станке) Пришабриваем ВФГ к станине так, чтобы не было люфта. Покупаем и устанавливаем современный цанговый патрон с набором цанг от 2мм до 20мм На сегодняшний день станок в таком состоянии. Этот фрезер выручил и продолжает выручать в трудных ситуациях. На нём сделано очень много всего интересного. Большой токарный станок На шведском токарном станке я получил бесценный практический опыт работы. Но у этого станка есть предел возможностей. Конуса (столь нужные для KF фланцев) точить не получается без дополнительного приспособления, нержавейку обрабатывать не получается, она для него слишком тверда, титан тоже не точится. Всё удобно, небольшие размеры, точно и чётко, но… В общем начал потихоньку присматриваться к станкам побольше, почитал про ИЖ и прочие. Целенаправленно ничего не искал, просто следил за предложениями. И прочитал на форуме, что ребята привезли токарные станки С1Е61ВМ из ПТУ и продают по цене лома плюс им небольшое вознаграждение за доставку в Москву и работу. Станков оказалось штук 10 или даже больше, и их действительно раскупали, как горячие пирожки. Приехали, посмотрели. Да, станки стоят в ряд, состояние — да, металлолом. Побитые, погнутые при погрузке, местами некомплектные. Я долго ходил туда-сюда, крутил ручки, естественно всё заедало из-за того, что испытало сильную деформацию. И тут внимание привлёк самый невзрачный из всех экземпляр. Ржавый, с облупившейся краской, но полностью комплектный, включая патрон. Направляющие не заезженные, хоть и тронутые коррозией. И самое главное — он нигде не битый. Суппорт на месте, задняя бабка на месте, толстый слой масла за десятки лет работы предохранял от коррозии важные детали. Его и решили взять. Вот, какой он был в тот момент, когда только привезли (заменил фон, а то зелёный станок на фоне зелёной травы не очень смотрелся). И вот, во что он превратился в гараже: В нём также перебрали всё. Маслостанция, коробка подач, коробка передач. В передней бабке заменили все подшипники. Самый главный подшипник шпинделя оказался тронут ржавчиной, но даже при этом точность не страдала, а была проблема в излишней шумности. В любом случае всё это заменено на подшипники того же класса. Тоже самое коснулось и фартука станка. Был исправлен ряд небольших проблем, из-за которых, видимо, этот станок и мало использовался по-назначению. Например, не работал перебор, не включалась продольная подача и т.п. Основной проект у нас — микроскоп, поэтому углублённо про восстановление станков могу рассказать подробнее при наличии интереса у читателей. Но кое-что покажу. Например, вот как может старый трёхкулачковый патрон повышенной точности (на индикаторе самая правая значащая цифра — микроны): (да, это частный случай, и на других диаметрах биение больше, но всё-равно токаря оценят). Бюджет 20 тыс. руб — большой токарный станок (забыл сколько) — шведский токарный станок вместе с кучей всего остального 20 тыс. руб — фрезерный НГФ-110Ш4 Бесплатно — немного резцов от разных людей. Но резцов всегда мало, пластинок к ним тоже (даже имея опыт, всё-равно иногда ломаются). Планирую найти ещё эльбор. Бесплатно — часовые индикаторы советские Наверное, вы догадались, что всё это было сделано не за одну неделю и даже не за один месяц. Восстановление большого токарного станка из руин заняло достаточно много времени, и проще было найти рабочий станок типа 16К20 (но точность была бы ниже) или ИЖ. Но полученные знания того стоили. Дальнейшее развитие Если помечтать о будущем развитии, то кандидатами на замену становятся два настольных станка: малый токарный, т.к. функционально он не используется, и фрезерный НГФ. В качестве замены НГФ может быть большой фрезерный, например 6Р12 , или ещё лучше координатно-расточной 2А450 . Он интересен тем, что дискретность позиционирования стола в нём составляет 0.001мм, за счёт применения специальной оптической шкалы. Если только не будет большого интереса к превращению процесса восстановления станка в отдельный видео-проект, то я бы не стал больше рассматривать варианты из металлолома. Тоже самое касается и шлифовального, если он вдруг понадобится. Тем не менее, сейчас у нас есть всё (и инструменты и навыки) для того, чтобы изготавливать детали произвольной сложности для микроскопа и сопутствующих проектов. С этого и начнём в следующей серии ! P.S. Узнав о моём интересе, один университет предложил забрать станки, которые им больше не нужны, в связи с приобретением новеньких ЧПУ-станков. Например, один из них — вот такой фрезер: Но, выяснилось, что за то время, пока они там стояли, помещение успели перестроить так, что вытащить их без разрушения стены здания невозможно (или точнее, вытаскивать их по-кусочкам через длинный коридор будет стоить слишком дорого). Поэтому не сложилось.
https://geektimes.ru/post/283512/
habrahabr
Nokia подала в суд на Apple из-за нарушения патентных прав
['Nokia', 'патенты', 'apple', 'иск', 'суд', 'права', 'нарушение авторских прав', 'регулирование', 'копирайт']
Nokia подала в суд на корпорацию Apple из-за нарушения последней патентных прав финской компании. Об этом сообщается на официальном сайте Nokia. Судиться с Apple Nokia планирует как на...
Nokia подала в суд на корпорацию Apple из-за нарушения последней патентных прав финской компании. Об этом сообщается на официальном сайте Nokia. Судиться с Apple Nokia планирует как на территории Соединенных штатов, так и в Европе, конкретно в Германии. Представители Nokia утверждают, что Apple уже давно нарушает ряд патентов финской компании. После покупки NSN в 2013 и Alcatel-Lucent в 2016 году Nokia стала крупным держателем патентов на технологии, активно использующиеся в смартфонах, планшетах, персональных компьютерах и в других устройствах. В последний раз Apple лицензировала использование запатентованных технологий из портфеля Nokia Technologies еще в 2011 году. После этого компания из Купертино внедряла в свои разработки еще ряд технологий, права на которые, по словам представителей финской компании, принадлежат Nokia. «Благодаря нашему стабильному инвестированию в исследования и разработку, компания Nokia создала или способствовала созданию многих основных технологий, которые используются сейчас в мобильных устройствах, в том числе и в продукции компании Apple. После нескольких лет безуспешных переговоров и попыток достичь соглашения и лицензировать использование Apple наших запатентованных технологий мы принимаем соответствующие меры по защите своих прав», — прокомментировал ситуацию руководитель патентного отдела Nokia Илкка Рахнасто (Ilkka Rahnasto). Всего речь идет о нарушении 32 патентов, среди которых патенты на элементы пользовательского интерфейса, чипсеты, дисплеи, антенны и прочие инженерные решения в конструкции устройств. При этом Nokia не собирается останавливаться на исках в суды США и Германии и готовит заявления в другие инстанции. Компания Apple не в первый раз нарушает патенты других компаний. Так ей пришлось выплатить 24,9 млн долларов за нарушение патентов Dynamic Advances при создании своего голосового помощника Siri. В начале этого года Apple проиграла еще одно патентное дело и выплатила 625 млн долларов за свое приложение Facetime компании VirnetX.
https://geektimes.ru/post/283936/
habrahabr
DevOps — cкорость? Да, скорость
['DevOps', 'devopsdays']
Если посмотреть на девяностые годы прошлого века, то они дали большое количество методологий (если кому больше нравиться фреймворков) разработки программного обеспечения: FDD (Feature driven...
Если посмотреть на девяностые годы прошлого века, то они дали большое количество методологий (если кому больше нравиться фреймворков) разработки программного обеспечения: FDD (Feature driven development), Scrum, Rup, XP. Но самыми востребованными оказались не технические подходы, а ориентированные на людей. В 2001 году это все привело к появлению Agile-манифеста. Не надо нам качества, не надо нам поддержки изменений, дайте нам быстро то, на что можно посмотреть, а уж мы примем решение, что делать дальше. В настоящее время складывается ощущение, что социальные факторы себя исчерпали и для дальнейшего повышения скорости их уже не хватает. Подход, включающий не только «про людей», но и «про технологии», получил название DevOps. Давайте посмотрим на чем еще мы можем выиграть в скорости поставки полезности. Если посмотреть на Agile-манифест, на то, что входит в Scrum, Kanban, то там все про людей. Про взаимодействие внутри команды, про взаимодействие с заказчиком, про организационные процессы. Нет, в FDD и XP, которые тоже относят к гибким методологиям, есть и инженерные вещи (кто, кстати, может сходу вспомнить, что там из инженерного в FDD?). И это работает. Собирая умных людей в одном месте, давая им организационные шаблоны, помогая организовать взаимодействие с заказчиком можно получить приемлемый, а зачастую и отличный результат. Только вот, с возрастанием сложности разрабатываемых систем выясняется, что не все так радужно. Даже умным людям нужны инженерные практики, чтобы продолжать выдавать приемлемый результат в кратчайшие сроки. Понятно, что все уже придумано достаточно давно, взять тот-же « Тест Джоэла: 12 шагов к лучшему коду », и обнаружить, что ничего изобретать не надо. Но почему-то до сих пор можно встретить организации, в которых не используются билд-сервера. И в рамках борьбы с этим перекосом в сторону социально-организационных вопросов и появился DevOps. В отличии от других методологий, у которых есть родоначальники, а зачастую и целые институты, занимающиеся их разработкой (PMBOK разрабатывает PMI, ITIL разрабатывает AXELOS, да и под Agile-манивестом, подписанным в феврале 2001 в штате Юта США, стоят конкретные фамилии), что такое DevOps до сих пор вызывает споры и недопонимание. Нет, есть статья в википедии , проводятся конференции , но формального описания, что входит в DevOps, с которым все сообщество или хотя-бы большая часть разработчиков согласилась, нет. Компания Gartner попыталась провести систематизацию подходов, применяемых в DevOps: *источник изображения Gartner . Как видно из картинки, DevOps включает в себя и то, за что ратует Agile: автономные, кросфункциональные команды; культуру доверия; совместные митинги. Но при все при этом, основной упор делается именно на технологии. Можете ли вы развернуть свое приложение в один клик? Используете ли вы непрерывную интеграцию и тестирование? Если на эти и многие другие вопросы, которые можно задать по блокам с картинки, ответа нет, то это и есть варианты совершенствования команд, процессов, продуктов в организации. Возьмем для примера ChatOps. Эта практика подразумевает, что в командном чате собирается не только переписка, но и информация о запущенных билдах, внесенных изменениях в код и требования, ошибки, возникшие в продуктиве. Т.е. разработчику уже не надо отслеживать кучу мест (почту, всплывающие сообщения BuildAgent-а, командный чат). Все собирается в одном месте. А ведь в чате может присутствовать бот, который по команде разработчика может: инициировать развертывания в тестовую или даже боевую среду, даст информацию о прогрессе итерации, выдаст перечень критических ошибок и т.д. Большинство современных мессенджеров имеют API и реализовать такого бота не составляет большой проблемы. Или инфраструктура как код. Регулярно возникает проблема, что у разработчика «лампочка горит», а в тестовой или даже в продуктовой среде нет. Возможность хранить информацию об инфраструктуре на высокоуровневом языке, возможность разворачивать абсолютно идентичные среды по запросу, возможность изменять и тестировать среды, возможность иметь версионность сред. Все это позволяет существенно экономить время разработчиков, тестировщиков, эксплуатационщиков. А уж как существенно это снижает проблемы при реконфигурации продуктовой среды и выкладке релизов. Коллеги, поделитесь в комментариях, что вы используете из приведенных практик, чтобы экономить время? Или может у вас есть что-то не включенное в схему Gartner, но реально очень полезное? Да, если есть желание рассказать об этом не только на Хабре, то можно зарегистрироваться в качестве докладчика на DevOpsDays и обсудить ваш подход еще и в личном общении с людьми, которым это все очень интересно. Конференция пройдет 11 Марта этого года, и официальная продажа билетов уже началась. Посмотреть стоимость билеты можно по здесь . И вот вам небольшой подарок от меня лично. Первые 5 человек, которые напишут мне в ЛС или в комментарии, получат промо-код на скидку для покупки билетов.
https://habrahabr.ru/post/318216/
habrahabr
5 действительно бесплатных нелинейных видеоредакторов для Windows
['видеоредактирование', 'нелинейный видеоредактор', 'бесплатный видеоредактор', 'lightworks', 'vsdc', 'davinci resolve', 'openshot', 'hitfilm']
Этот пост призван помочь тем, кому, как и мне, внезапно стало тесно с Movie Maker. Видеоредакторы почти не интересовали меня до прошлого месяца, пока с друзьями мы не задумали снять что-нибудь...
Этот пост призван помочь тем, кому, как и мне, внезапно стало тесно с Movie Maker. Видеоредакторы почти не интересовали меня до прошлого месяца, пока с друзьями мы не задумали снять что-нибудь оригинальное к Новому году. Креативность наша ограничилась тем, чтобы, говоря терминами прежде мне неизвестными, применить эффект “Разделение экрана” (Split Screen). То есть реализовать нечто такое: Мы быстро сообразили, что дефолтный MM нам для этой задачи не подходит совершенно, и окунулись в мир нелинейных инструментов. Их оказалось невыносимо много, судя по выдаче Гугла, и само собой, выбрать один единственный, опираясь лишь на описания, не представлялось возможным. Короче говоря, было решено не тратить время на прочтение отзывов, а скачивать и тестировать. На деле оказалось, что большинство бесплатных программ для видеоредактирования — это лишь функционально ограниченные версии софтины, которую можно купить. Ну а поскольку ради одного единственного ролика в год покупать программу не очень хочется, мы искали такую, чьи ограничения не сильно противоречат нашим потребностям. Итак, поехали. Lightworks Старожил среди программ видеоредактирования, про которого писали на Хабре ещё в 2010 году. Обещанные тогда исходники так никто, кажется, и не увидел, зато программа на сегодняшний день предлагает инсталляции для трех основных ОС. Системные требования: Intel i7, AMD или другой процессор с более высокой частотой, минимум 3 Гб оперативной памяти, 200Мб свободного места на жёстком диске, Видеокарта PCI Express (NVIDIA or ATI) с минимальным объёмом памяти 1 Гб, поддержка DirectX 9. Разработчики Lightworks заявляют, что их продукт неоднократно использовался в Голливуде, при съёмках таких фильмов как “Криминальное Чтиво” и “Волк с Уолл Стрит”. Считается, что “фишка” в Lightworks — это безупречно реализованный инструмент нарезки видео. О безупречности и интуитивности я судить не берусь — после Movie Maker меня все нелинейные редакторы поначалу вгоняли в краткосрочный ступор. По делу Заявленные фичи помимо базовых: поддержка редактирования с нескольких камер, 100 встроенных пресетов с видеоэффектами, вывод изображения на второй монитор. Открывает форматы: ProRes, Avid DNxHD, AVC-Intra, DVCPRO HD, RED R3D, DPX, AVCHD и HD 422 Форматы экспорта: “архив” Lightworks или же напрямую на YouTube/Vimeo в формате MPEG-4. Главное ограничение бесплатной версии: позволяет экспортировать видео только непосредственно на YouTube или Vimeo, не даёт сохранить проект на компьютере в читабельном формате. VSDC VSDC выдаётся гуглом среди первых результатов по запросу “бесплатный видеоредактор”, несмотря на то, что на Хабре про него никто не писал. Интерфейс здесь современностью не отличается и кому-то даже может отдалённо напомнить Офис. Впрочем, бесплатность и широкий набор инструментов, этот незначительный недостаток уравновешивают. Главными преимуществами VSDC разработчики называют полную совместимость со всеми известными форматами, как на импорте, так и на экспорте. Причём в настройках можно выбрать даже кодек H265/HEVC, который как известно, даёт максимальное качество изображения при высокой степени сжатия файла. Те кто планируют обрабатывать видео с разрешением 4K на этом моменте особенно порадуются, поскольку в других бесплатных инструментах такой возможности замечено не было. Системные требования: Intel, AMD или другие совместимые процессоры с частотой от 1.5 Гц, 256 Мб оперативной памяти, 50 Мб свободного места на жёстком диске. Слегка смутило всплывающее окно при запуске программы, на котором предлагался апгрейд для версии ПРО, но из написанного стало понятно, что основная фишка апгрейда — это аппаратное ускорение на экспорте, а все остальные фичи ничем от бесплатной версии не отличаются. Заявленные фичи помимо базовых: более 20 пресетов цветокоррекции в стиле Инстаграм-фильтров, множество аудио и видеоэффектов, включая наложение слоёв, наложение маски на объект, Chroma Key, визард для создания слайдшоу. Открывает форматы: AVI, QuickTime, HDVideo, WindowsMedia, DVD, VCD/SVCD, MPEG/MPG, DV, AMV, MTV, NUT, H.264/MPEG-4, DivX, XviD, MJPEG Форматы экспорта: AVI, DVD, VCD/SVCD, MPEG, MP4, M4V, MOV, 3GP/3G2, WMV, MKV, RM/RMVB, FLV, SWF, AMV, MTV Главное ограничение бесплатной версии: помимо аппаратного ускорения, ограничения либо отсутствуют, либо обозначены неявно. Если кто-то найдёт — жду в комментариях. Davinci Resolve От Давинчи у меня осталось двоякое впечатление. С одной стороны, по набору инструментов и интерфейсу, он заметно выбивается на фоне остальных бесплатных программ — ощущение действительно мощного профессионального видеоредактора. Причем, как и в случае с VSDC, нет никаких существенных для среднестатистического пользователя различий между бесплатной версией и коммерческой за $995 (!). С другой стороны, Davinci Resolve предъявляет высокие требования к видеокарте, так как применение изменений здесь реализовано в режиме реального времени. Это, безусловно, впечатляет меня как пользователя, но также периодически роняет весь процесс на недостаточно мощных компьютерах. Системные требования: 12 Гб оперативной памяти (рекомендовано 16 Гб), мощная видеокарта с технологией CUDA и рекомендованным объёмом памяти от 3 Гб, монитор с разрешением 1920х1080 и выше. Самый большой акцент в видеоредакторе Davinci Resolve делается на инструменты цветокоррекции. Если для вас идеального голливудского уровня изображение не является приоритетом, то возможно, вам, как и мне, не хватит терпения разобраться в настройках. Но судя по тьюториалам, с цветом Давинчи действительно способен творить чудеса. Заявленные фичи помимо базовых: профессиональная цветокоррекция, кадрирование, микширование звука, работа с текстом, поддержка OpenFX плагина для добавления эффектов переходов. Открывает форматы: Davinci открывает большинство популярных видеоформатов, однако предпочтительный рабочий для него — ProRes, поэтому перед началом рекомендуется конвертация. Форматы экспорта: AVI, QuickTime, MP4, MOV, APNG Главное ограничение бесплатной версии: Davici Resolve явно рассчитывает на аудиторию профессионалов видеоредактирования, поэтому в платную версию вынесли такие скорее всего неважные для обычного пользователя плюшки как совместный монтаж, шумоподавление и редактирование стереоскопического 3D. Hitfilm Express В Hitfilm Express делают упор на спецэффекты, и это становится понятно с первых секунд на сайте, который выполнен с использованием эффектов из Железного Человека (к моменту написания, правда, поменяли на Звездные Войны). Тут вам и «тряска», и «дождь», и «кровавые брызги». Второе конкурентное преимущество этого редактора — композитинг — инструменты для совмещения визуальных эффектов и 2D/3D анимации, которые, если верить форумам, ничуть не уступают Adobe After Effect. Системные требования: 1.2 Гб свободного места на жёстком диске, 4 Гб оперативной памяти (рекомендуемый объём — 8 Гб), графический процессор с 2 Гб памяти (минимум 512 Мб). У Hitfilm Express довольно простой и понятный интерфейс по сравнению со многими нелинейными редакторами, но в то же время обидно, что поддержку таких форматов, как например, AVCHD and MPEG-2 вынесли в раздел платных возможностей, которые можно получить за $10. Заявленные фичи помимо базовых: более 180 визуальных эффектов и пресетов, 3D композитинг, анимация и графический редактор, Chroma Key. Открывает форматы: Quicktime, AVI, MOV, MP4, MPEG-1, MXF, DV, HDV and WMV Форматы экспорта: QuickTime, MP4, AVI и прямая загрузка на YouTube direct Главное ограничение бесплатной версии: на экспорте максимальное разрешение 1080p и глубина цвета 8 бит, в то время как в платной версии максимальное разрешение — 8K UHD 32-битовая глубина. Кроме того, в бесплатной версии нет поддержки плагинов OpenFX. OpenShot Говоря о бесплатных видеоредакторах для Windows, невозможно обойти стороной бета-версию OpenShot — один из первых инструментов с открытым кодом и восьмилетней историей. Кстати, хабровчанам этот проект, возможно, будет интересен своей кампанией на Kickstarter, где в 2013 году на новую версию создатель OpenShot собрал более чем в 2 раза больше требуемой суммы. Изначально разработанный для Linux, этот инструмент претендовал на звание самого понятного профессионального видеоредактора. Системные требования: 8 Гб оперативной памяти (минимум 2 Гб), 64-битный 4-ядерный процессор, видеокарта с поддержкой OpenGL 3.2 и 2 Гб памяти. Интерфейс Openshot, пожалуй, действительно самый минималистичный из всех, что мне довелось увидеть, и то же самое можно сказать о наборе возможностей. При первом запуске программы каждый шаг сопровождается всплывающей подсказкой, хотя пункты меню мне показались настолько интуитивными, что запутаться в них невозможно. Признаюсь, до полноценного тестирования дело так и не дошло — после нескольких раз принудительного завершения работы Openshot, моего терпения перестало хватать. Заявленные фичи помимо базовых: видеоэффекты, в том числе Chroma Key, анимированные 3D заголовки, мультипликация и наложение водяных знаков. Открывает: все форматы FFmpeg, включая WebM, AVSHD, HEVC Экспорт: есть как возможность прямой загрузки на YouTube и Vimeo, так и возможность кастомизировать настройки экспорта, самостоятельно выбрав битрейт, формат и кодек. Само собой, это далеко не все бесплатные видеоредакторы, которые существуют сегодня на рынке. Однако, протестировав каждый из них, я могу поручиться по крайней мере за то, что вас не ждут сюрпризы в виде вотермарки, отсутствия звука после экспорта или невозможности сохранить проект, как это случается с некоторыми «псевдобесплатными программами». Добавляйте в комментариях свои варианты, собрать более полный список нелинейных инструментов для основательного тестирования было бы неплохо.
https://habrahabr.ru/post/318214/
habrahabr
Изменение рациона древних людей — одна из причин развития цивилизации
['сахара', 'древние люди', 'пища', 'рацион']
Фрагмент наскальных рисунков из Сахары Когда современному человеку рассказывают о древних людях, живших тысячи лет назад, многие представляют себе полуживотных, которые питаются при помощи...
Фрагмент наскальных рисунков из Сахары Когда современному человеку рассказывают о древних людях, живших тысячи лет назад, многие представляют себе полуживотных, которые питаются при помощи ногтей и зубов. Но, оказывается, уже около десяти тысяч лет назад мало кто из людей питался сырым мясом. Более того, некоторые представители популяции древних людей ели больше овощей и зерновых, чем мяса. Причем дело вовсе не в том, что люди плохо охотились или было мало животных, в особенности, если речь идет о регионах с мягким климатом. Современные исследования, проведенные антропологами в Ливийской пустыне , показывают, что уж в этом регионе было полно животных, птиц. Несколько тысяч лет назад здесь не было пустыни, вместо нее простиралась бескрайняя саванна с большим количеством озер и растительности. Здесь люди жили в очень благоприятных условиях. Ученые считают, что древние поселенцы заняли этот регион в промежутке от 8200 до 6400 лет до н.э. Заселение произошло вскоре после того, как люди научились обжигать свои гончарные изделия, сделав их более прочными и устойчивыми к внешним факторам. Это произошло около 10 000 лет назад (кстати, гончарное ремесло появилось еще на 4 тысячи лет раньше в Азии, здесь оно появилось независимо от других регионов). Остатки керамики показывают, что тысячи лет назад люди готовили овощи и другие продукты на огне, а не поедали их сырыми. Благодаря климату остатки продуктов, которые люди использовали в пищу тысячи лет назад, сохранились до наших дней Исследователи утверждают, что более половины всех найденных в древних горшках остатков еды (или следов еды) — это продукты растительного происхождения. В некоторых случаях они были смешаны с животным жиром или же другими остатками животных продуктов. По словам экспертов, работающих в Ливийской пустыне, большое количество растительных продуктов в рационе человека необычно для того времени, а сама находка — гончарные изделия — уникальна. В некоторых горшках, как выяснилось, находилось зерно, в других — фрукты, в-третьих — листья и стебли растений. Многие растения, остатки которых найдены учеными — водные, их собирали в озерах и реках. Также обнаружены и остатки видов растений, произрастающих на суше. Что касается горшков и других гончарных изделий, то они использовались как для приготовления еды, так и для хранения продуктов. Возможно, уже тогда готовили из зерна некое подобие хлеба, а также, вероятно, изготавливали сиропы разных видов. Все это ученые выяснили, проведя химический анализ черепков, бывших некогда стенами глиняных сосудов, в которых древние люди хранили или готовили еду. Хорошо сохранившиеся остатки продуктов тысячелетней давности, по понятным причинам, удается найти нечасто. Наскальные рисунки демонстрируют процесс сбора неких трав древними людьми Правда, приготовление еды в то время было сложной задачей. Сложной и долгой. Тем не менее, готовка позволяла использовать для употребления в пищу те продукты, которые невозможно есть в сыром виде. Так что меню древних людей, которые научились готовить, было разнообразным и, можно сказать, полезным. Для приготовления еды использовали как открытый огонь, так и нагретые на огне камни . Это достаточно широко распространенная по всему древнему миру практика. Поскольку человек научился есть овощи в больших количествах, то стало возможным держать в домашних условиях животных, которых стали разводить. Всех пойманных животных уже не было необходимости убивать и есть. Благодаря этому в рационе людей появились молочные продукты, мясо, без постоянного ведения охоты, шерсть, кожа и кости. В свою очередь, расширение рациона древних людей, появление в нем термически обработанных продуктов способствовало улучшению питания маленьких детей. Женщины получили возможность рожать больше детей, поскольку угроза голода отступила. Несмотря на то, что в этом регионе происходило постепенное повышение уровня развития цивилизации, выращивать растения здесь стали спустя тысячи лет после начала одомашнивания животных. Возможно, так происходило потому, что плодородные саванны давали достаточное для питания древних людей количество растений, так что для нужд популяции этого хватало. Древние повара радикально изменили как процесс приготовления пищи, так и рацион древних людей. Можно сказать, именно те люди, кто в то время готовил пищу для современников, смогли изменить развитие человеческой цивилизации в этом регионе. Эксперты считают, что подобные процессы происходили не только в Сахаре, но и в других регионах. Nature Plants , 2016. DOI: 10.1038/nplants.2016.194
https://geektimes.ru/post/283940/
habrahabr
Секреты удачного апдейта: интерфейс, backend, структура приложения
['apple tv', 'разработка приложений', 'разработка интерфейсов', 'backend', 'swift']
Приближаются долгожданные новогодние праздники – время путешествий. В связи с этим сегодня мы хотели бы рассказать о работе над нашим совместным проектом с компанией Travel And Play — Webcam World...
Приближаются долгожданные новогодние праздники – время путешествий. В связи с этим сегодня мы хотели бы рассказать о работе над нашим совместным проектом с компанией Travel And Play — Webcam World View . Приложение дает возможность подключаться к стримам с видеокамер, установленных в разных уголках планеты, и наблюдать за кипящей там жизнью в реальном времени. Здорово, правда? Нам тоже так казалось, пока нынешней осенью не была поставлена задача на новую, улучшенную версию продукта. Что именно улучшать — оставалось на наше усмотрение, поэтому функционал мы сразу решили оставить в покое: он был вполне достаточным и при этом не перегруженным. А вот UX составляющая и техническое исполнение подверглись существенному пересмотру. О том, как мы делали из изначально неплохого приложения конфетку, читайте ниже. Для начала мы проанализировали текущее положение дел. Как выяснилось, у приложения имелись серьезные недостатки: — Самое, пожалуй, большое неудобство заключалось в том, что весь контент содержался в самом приложении. Такой способ хранения исключал возможность редактирования и обновления данных без апдейта самого продукта на маркете. К тому же, это значительно увеличивало размер приложения. — Приложением было крайне неудобно пользоваться. Для наглядности: чтобы просмотреть какой-нибудь из стримов, нужно было перейти по 4 экранам и пять раз нажать на кнопку на пульте Apple TV. — Доступно такое виртуальное путешествие было только пользователям Apple TV, а это не самая большая часть общества. Осмыслив эти проблемы, мы стали искать пути их решения и в итоге поставили перед собой несколько целей: 1) Поменять интерфейс, сделать его более интуитивным; 2) Доработать серверную часть, чтобы она не только хранила весь наш контент, но и предоставляла статистику, что позволило бы нам как минимум выделять популярные и топовые камеры; 3) Ну и конечно же, адаптировать приложение для iPhone и iPad, то есть сделать виртуальные путешествия доступными для значительно большего количества людей. Цели поставлены — настало время действовать. Создание удобного интерфейса Кто лучше всех знает, как сделать удобное и красивое приложение для пользователей устройств от Apple? Конечно же, Apple. Решение, которое мы искали, лежало на поверхности, а точнее на главном экране любого Apple TV — речь идет об их фирменном приложении «Фильмы». Мы захотели максимально приблизить все к этому образцу, ведь у нашего продукта схожий контент, да и UX-решение производителя всем знакомо. Что пользователь видит первым, когда заходит в приложение «Фильмы»? Экран с подборками и топовыми фильмами. В Webcam World View мы хотели сделать примерно то же самое — все лучшие камеры на главном экране. Поэтому следующим шагом было создание аналога эппловской “карусели” на главном экране. Итак, нам нужно было получить автоматически движущуюся карусель, элементы которой имели бы эффект параллакса. За основу был взят класс UICollectionView. Первым делом был создан класс для ячейки нашей будущей карусели: class TopCollectionViewCell: UICollectionViewCell { // наполнение нашей ячейки — превью для камеры @IBOutlet weak var backImageView: UIImageView! override func awakeFromNib() { super.awakeFromNib() backImageView.contentMode = .scaleAspectFill backImageView.clipsToBounds = true backImageView.layer.cornerRadius = CGFloat(10.0) } override func prepareForReuse() { super.prepareForReuse() } В момент, когда фокус переходит на элемент карусели, сдвигаем ячейку вниз на высоту отступа, которую хотим в итоге получить (заданная величина ledgeHeight ): override func didUpdateFocus(in context: UIFocusUpdateContext, with coordinator: UIFocusAnimationCoordinator) { if (self.isFocused) { // анимируем движение ячейки вниз, когда элемент в фокусе UIView.animate(withDuration: 0.2, delay: 0.0, options: .curveEaseOut, animations: { self.transform = CGAffineTransform(translationX: CGFloat(0.0), y: ledgeHeight) }, completion: nil) // эффект параллакса self.backImageView.clipsToBounds = true self.backImageView.adjustsImageWhenAncestorFocused = true } else { // возвращаем элемент на исходную позицию UIView.animate(withDuration: 0.2, delay: 0.0, options: .curveEaseOut, animations: { self.transform = CGAffineTransform(translationX: CGFloat(0.0), y: CGFloat(0.0)) }, completion: nil) self.backImageView.clipsToBounds = true self.backImageView.adjustsImageWhenAncestorFocused = false } } Таким образом, элемент карусели имеет эффект параллакса, а при переходе в фокус принимает тот же стиль, что и элементы карусели Apple. Далее следовала другая задача — реализация движения карусели. Для начала мы определились с тем, чего хотим. Во-первых, карусель мы решили сделать зацикленной (при движении вперед с последнего элемента переходим на первый, и наоборот, при движении назад с первого элемента переходим на последний). Во-вторых, необходимо было реализовать автоматическое движение карусели через заданный промежуток времени в случае, если ее элементы окажутся не в фокусе. Чтобы обеспечить возможность зацикливания карусели мы добавили «буфер» из двух ячеек, которые соответствовали первому и последнему элементу. Переход по «внутренним» элементам был стандартным, как между элементами UICollectionView. Переход же с «внешних» элементов (первого и последнего) происходил со сдвигом контента: func jump(direction: Direction) { // direction — направление сдвига, вперед или назад let currentOffset = self.contentOffset.x var offset = CGFloat(count) * (collectionViewLayout as! Layout).totalItemWidth if case .backward = direction { offset *= -1 } self.setContentOffset(CGPoint(x: currentOffset + bffset, y: self.contentOffset.y), animated: false) } Для автоматического движения карусели был применен простой таймер и, опять же, сдвиг контента относительно начала на нужную величину: if let initialOffset = (self.collectionViewLayout as! Layout).offsetForItemAtIndex(index: item) { self.setContentOffset(CGPoint(x: initialOffset, y: self.contentOffset.y), animated: animated) } Так мы получили симпатичную карусель в стиле Apple с возможностью автоматического движения. Затем мы перешли к наполнению основного пространства главного экрана. Было решено разбить контент на подборки, они же «линейки», наподобие тех, что мы видим в приложении «Фильмы». Соответственно, встал вопрос: как их реализовать? Проблема заключалась в том, что нам нужна была возможность переходить как по подборкам (скроллинг в вертикальном направлении), так и по камерам в выбранной подборке (скроллинг в горизонтальном направлении) Для решения этой проблемы используем TableView, в каждой ячейке которой располагаем кастомную CollectionView. В качестве делегата и источника данных выступает главный контроллер: Чтобы иметь возможность различать коллекции разных ячеек таблицы, прибегнем свойству tag — записываем номер ячейки таблицы, в которой расположена коллекция Для установки делегата, источника данных и текущего номера коллекции в ячейке таблицы добавляем функцию setCollectionViewDataSourceDelegate: class LineTableViewCell: UITableViewCell { //заголовок подборки @IBOutlet weak var lineNameLabel: UILabel! //коллекция для подборки @IBOutlet weak var lineCollectionView: UICollectionView! override func awakeFromNib() { super.awakeFromNib() ... } } extension LineTableViewCell { func setCollectionViewDataSourceDelegate <D: protocol<UICollectionViewDataSource, UICollectionViewDelegate>> (dataSourceDelegate: D, forRow row: Int) { lineCollectionView.delegate = dataSourceDelegate lineCollectionView.dataSource = dataSourceDelegate lineCollectionView.tag = row lineCollectionView.reloadData() } } Теперь осталось вызвать ее в методе willDisplay таблицы: func tableView(_ tableView: UITableView, willDisplay cell: UITableViewCell, forRowAt indexPath: IndexPath) { guard let tableViewCell = cell as? LineTableViewCell else { return } tableViewCell.setCollectionViewDataSourceDelegate(dataSourceDelegate: self, forRow: indexPath.row) } Добавив стандартные делегатные методы UITableView и UICollectionView, мы получили то, что нужно — контент был разбит по подборкам. Тем же трюком с коллекциями в ячейках таблицы мы воспользовались и при работе над экраном просмотра подборок по категориям. Реализация элементов других экранов была стандартной и проблем не вызвала. Серверная часть Итак, интерфейс был успешно реализован. Теперь пришло время рассказать о работе над серверной частью нашего приложения. Тут идея была в следующем: сделать приложение максимально настраиваемым с помощью сервера. Вся информация о каждой камере была собрана на сервере. Для удобного модерирования контента мы написали Admin Panel. С помощью данной системы модератор может настраивать и в любой момент менять информацию о камерах, делать камеры платными или бесплатными, менять их местами и выключать, если они не работают. Любой маркетинговый ход может быть произведён без участия разработчика. Ещё одной особенностью нашей Admin Panel стала возможность настраивать внешний вид интерфейса с сервера. В приложении есть два типа отображения данных: 1. Карусель с самыми популярными камерами. 2. Линейки с камерами — группы камер, которые выстроены в горизонтальную линию и объединены одной идеей. При добавлении с сервера нескольких камер у модератор может объединять их в линейки вручную или же автоматически, по определённым тегам, которые добавлены для каждой камеры. Если возникает необходимость изменить отображаемый контент или местоположение линеек, нам достаточно перетащить тот или иной элемент в нужное место. Для создания данного блока была использован плагин jScrollPanel. jQuery + CSS — и никакой магии. Кроме того, в самих линейках любую камеру можно перемещать по горизонтали, что позволяет задавать порядок следования с учетом данных, которые модератор получает из приложения (количество просмотров, переходы по экранам и т.д.). Все внесенные изменения в тот же момент отобразятся в приложении. Admin Panel позволяет определять популярные камеры на основании собранной статистики, автоматически создает, обновляет их и перемещает внутри соответствующих линеек. Однако не все стримы постоянно доступны: перестают работать сервера, проводятся технические работы, иногда камеры отключаются на определённое время, а иногда — прекращают работу навсегда. Чтобы не показывать пользователю неработающие стримы и при этом каждый день не проверять все камеры на работоспособность вручную, мы научили систему раз в сутки делать обход по всем стримам в автоматическом режиме. Если камера недоступна, ее работа в приложении приостанавливается, и в ту же секунду информация об этом отправляется модератору. Timelapse Напоследок хотелось бы поделиться еще одним решением, найденным при работе над последним апдейтом. У каждого уважающего себя приложения есть своя страничка в социальных сетях . Но выставлять там только картинки скучно, да и специфика нашего приложения намекает на то, что аудиторию нужно привлекать видеоконтентом. Видео для предпросмотра не подошли по нескольким причинам. Так родилась идея сделать экшн видео для каждого из стримов — Timelapse. Вот как выглядит наш итоговый рецепт, создающий весьма симпатичные штуки: — Берём картинку с камеры и в течение 24 часов ежечасно записываем по пять секунд видео. — Потом ускоряем проигрывание в два раза, склеиваем все записи в одну и получаем интересную экшн-нарезку — так, например, в наших таймлапс-видео можно наблюдать чарующий закат или даже целый день из жизни тигра. Планы на будущее Подведем итог. Нам удалось создать систему, с которой удобно работать даже модератору, ничего не понимающему в программировании. Теперь члены нашей команды могут вести проект, не вникая в тонкости разработки и не страдая от необходимости каждый раз обновлять приложение на маркете. В результате мы получили добротный законченный продукт для Apple TV, в котором разрешили все поставленные задачи. Основным достижением для нашей команды стало успешное внедрение серверной части и возможности администрирования, бонусным — создание максимально понятного для пользователя интерфейса по канонам UI Apple TV. Из этого: Мы сделали это: Конечно, не всё работает без сбоев и не все планы по серверу на данный момент реализованы. Код в принципе не может быть идеальным, поэтому мы стараемся не стоять на месте, постоянно работая над улучшениями. Сейчас у нас в планах реализация на сервере настройки не только контента, но и полной визуальной составляющей. Сколько будет отображаться камер в линейке на экране, будет ли это камера или Timelapse, будет ли подпись у каждой из камер или только у некоторых? Все вопросы к серверу. Также мы подумываем улучшить внешний вид Admin Panel. Нельзя сказать, что сейчас ей неудобно пользоваться или что-то режет глаз, но всегда хочется стремиться к возможному совершенству. Будем рады почитать ваши отзывы. На этом всё, спасибо за внимание!
https://habrahabr.ru/company/everydaytools/blog/318212/
habrahabr
Нейросеть определяет тунеядцев по метаданным сотовой сети с вероятностью 70,4%
['дата-майнинг', 'сотовая связь', 'профессия', 'офисный работник', 'квалифицированный персонал']
Индикаторы использования сотовой связи офисными сотрудниками, безработными, пенсионерами, учителями и студентами. Например, нейросеть определила для офисных сотрудников такой специфический...
Индикаторы использования сотовой связи офисными сотрудниками, безработными, пенсионерами, учителями и студентами. Например, нейросеть определила для офисных сотрудников такой специфический индикатор, как большая длительность исходящих звонков Благодаря социальным сетям и метаданным сотовой связи специалисты получили удобный и достаточно точный инструмент для изучения общества. Некоторую информацию люди публикуют в соцсетях сознательно, а часть важных данных выдают непроизвольно. Скажем, анализ анонимных метаданных сотовой связи показывает трафик на дорогах, скорость движения автомобилей, образование пробок, пассажиропотоки общественного транспорта. Это довольно логичные варианты дата-майнинга. А вот группа учёных из Telenor Group Research, MIT Media Lab, Flowminder Foundation и Стокгольмской школы экономики нашла весьма нестандартный вариант . Исследователи доказали, что по логам сотовой связи можно предсказывать… занятость. Довольно точно определяются безработные и представители ещё 17 родов занятий. По информации учёных, это первое в мире исследование такого рода, когда безработных или профессию человека вычисляют на индивидуальном уровне с помощью глубинного обучения по логам сотовой сети. Раньше исследователи пытались предсказать только общий уровень безработицы по мобильным данным, но не профессии конкретных людей. Исследователи подчёркивают, насколько важно иметь точную статистику безработных в обществе. Это важный экономический индикатор для изучения рынка труда, который помогает строить экономические прогнозы и управлять экономикой. Хотя избыток свободных трудовых ресурсов приятен для работодателей, но государство обычно ставит целью снизить безработицу ниже определённого уровня. Узнать точную информацию о безработных тяжело. Для этого требуется периодически проводить масштабные социологические опросы. В некоторых странах фактический уровень безработицы сильно превышает показатель официально зарегистрированных в органах служб занятости. Такие опросы отнимают немало времени и ресурсов. Например, в США действительно постоянно проводят такие опросы в домохозяйствах и публикуют статистику. В менее развитых странах из-за дороговизны опросов их проводят нерегулярно и с недостаточным охватом. Теперь исследователи нашли альтернативный вариант, который кардинально решает проблему. Сотовые телефоны сейчас есть даже у бомжей, поэтому анализ метаданных обеспечивает практически полный охват трудоспособного населения во многих странах (в целом мобильники есть у более 50% населения Земли). О таком охвате социологи могут только мечтать. Инженеры показали, что метаданные сотовой сети обеспечивают достаточный пространственный охват и точность во времени, чтобы проводить эффективный дата-майнинг. Беспрецедентный охват и точность метаданных сотовой сети в прошлые годы учёные использовали для вычисления вспомогательных индикаторов уровня бедности, неграмотности, оценки численности населения, миграции и распространения вирусных эпидемий. На индивидуальном уровне метаданные сотовой сети помогают предсказать социально-экономический статус человека , уровень дохода , его демографические характеристики и тип личности . Теперь дошло дело и до статуса занятости. Исследователи применили модель глубинного обучения на массивном наборе данных, полученных в одной бедной южноазиатской стране. Для обучения программы использовали результаты опроса 200 000 человек в домохозяйствах, проведённого местным оператором сотовой связи. Люди сообщали о своём статусе занятости и профессии, выбирая из 18 видов занятий. Кроме того, для глубинного обучения взяли мобильные логи за срок шесть месяцев 76 000 из этих 200 000 опрошенных человек. Информацию тщательно анонимизировали, программа не имела доступа к номерам телефонов, именам абонентов, содержимому разговоров и текстовых сообщений. Естественно, имея такой доступ в стиле СОРМ, можно профилировать людей практически со стопроцентной точностью. В данном случае ставилась задача провести научное исследование не нарушая права человека. Из мобильных логов исследователи выделили переменные трёх типов: финансовые (сумма пополнения счёта, расходы на связь, частота пополнения, соотношение между максимальной и минимальной суммой пополнения счёта и др.), перемещения по местности (домашний район/сота, энтропия мест посещения, радиус инерции сечения, количество посещённых мест и др.) и социальные функции (количество разговоров с контактом, энтропия контактов, продолжительность разговора, количество SMS, объём интернет-трафика, количество MMS, количество и продолжительность видеозвонков, частота использования дополнительных услуг оператора и др.). Модель со всеми переменными протестировали на нескольких алгоритмах, в том числе GBM (gradient boosted machines), RF (random forest), SVM (support vector machines) и kNN (K-nearest neighbors). По итогу была составлена многослойная нейросеть. Точнее, 18 моделей для каждого вида профессии (включая безработных). Обучение и тестирование осуществлялись с распределением данных 75% и 25%. Результаты показали, что нейросеть лучше всего определяет офисных сотрудников (клерков). По использованию мобильной связи они выдают себя с точностью 73,5%. Сложнее всего определить по метаданным сотовой сети квалифицированных сотрудников (61,9%). Средний показатель по всем профессиональным группам составил 67,5%. Как и офисные сотрудники, безработные определяются тоже очень хорошо с вероятностью 70,4%. Наверняка эта научная работа найдёт применение в практических программах для дата-майнинга. Кстати говоря, если кто-то получит информацию об изменении уровня занятости за 1−2 недели до появления официальной статистики в США, то может неплохо заработать на бирже. Так что у сотрудников операторов сотовой связи появляется вариант для небольшой «халтурки», если они не боятся сесть в тюрьму за использование инсайдерской информации. В странах, где ввели или собираются ввести налог на тунеядцев, такая нейросеть поможет пополнять бюджет. Будет выявлять незарегистрированных безработных, которые укрываются от налоговой инспекции. По предполагаемой профессии человека можно ещё таргетировать рекламу. Научная статья опубликована 12 декабря 2016 года на сайте препринтов arXiv (arXiv:1612.03870) и пока не получила экспертную оценку.
https://geektimes.ru/post/283938/
habrahabr
От Интранета к Цифровому Рабочему Месту
['digital workplace', 'intranet', 'личный кабинет', 'цифровая трансформация', 'интранет']
* перевод статьи Carwin Heierman, оригинал находится по ссылке Эта статья поможет вам: • Спланировать проект по совершенствованию вашего Интранета • Определить новые задачи для...
* перевод статьи Carwin Heierman, оригинал находится по ссылке Эта статья поможет вам: • Спланировать проект по совершенствованию вашего Интранета • Определить новые задачи для Интранета • Посмотреть на Интранет как этап к Цифровому Рабочему Месту • Понять связь между командной работой, Интранетом и стратегией Цифрового Рабочего Места • Выяснить, как экосистема приложений может стать ключом к повышению продуктивности Сегодня Интранет является ключевым активом для компании и ее партнеров, клиентов, поставщиков. Здесь используются гибкие настраиваемые приложения и бизнес-процессы. Это центр паутины, включающей обмен знанием, вертикальные коммуникации, приложения и документооборот. Современной стратегией компании уже становится не само развитие интранета, а построение цифрового рабочего места, позволяющего из одной точки вести взаимодействие с различными системами, сотрудниками и компаниями. От старого к новому и от традиций к инновациям Интранет во многих компаниях играет не совсем те функции, которые закладывались в него изначально, в настоящее время встает необходимость переосмысления задач, которые должны решаться интранетом для достижения бизнес-выгоды, например: Некоторые компании используют Интранет в качестве системы управления документами. Для ее трансформации вам будет необходимо согласие всего руководства компании. У некоторых компаний настолько бедный и неудобный интерфейс их интранета, что его использование остаётся на крайне низком уровне. Будьте готовы разработать проект по изменению дизайна, функций и освоению системы пользователем с нуля. У некоторых компаний совершенно отсутствует какая-либо «культура взаимодействия». Чаще всего они пользуются электронной перепиской и традиционными приложениями. В таком случае необходимо продумать систему управления изменениями и вовлечения пользователей. Ваш Интранет в глобальной перспективе Рисунок выше иллюстрирует четыре уровня: Традиционный интранет, Социальный слой, Совместная работа, Интегрированные Бизнес-Приложения, Бизнес-Ценность Традиционный интранет: Голос компании и новостной канал. Это классический способ доведения информации до сотрудников. Социальный слой: Социальные элементы, которые работники уже используют вне офиса: метки, лайки, профили, новостные ленты, обсуждения и т.д.  Совместная работа: Управление отделами или проектами через сообщества. У каждого сообщества есть свои уровни безопасности, равно как и у каждого пользователя – свои права доступа. Там, где это необходимо, можно открыть доступ внешним пользователям. У каждого проекта или департамента есть свое сообщество. Приложения: Чаще всего именно этот элемент оказывает наибольшее влияние на продуктивность. Небольшие «умные» и крайне гибкие приложения для поддержки бизнеса должны использоваться в контексте сообществ. Примерами приложений могут быть: управление документами, план мероприятий, проект, хелпдеск, блог, форум, ЧаВо и т.д. Ключевые функциональные возможности и процессы для обновления любого Интранета Интранет – это пользовательский опыт! В наши дни сложно игнорировать необходимость в превосходном интерфейсе. Объединяя широкие функциональные возможности, мобильную стратегию и удобный интерфейс, шансы успешного освоения системы существенно увеличиваются. Инструменты и процессы, которые выглядят «не достаточно хорошо» или слишком сложны для работы, просто опускаются. Стоит отметить, что отличный интерфейс – это важный элемент успеха проекта. Он приводит к вопросу о выборе качественного и надежного поставщика, поскольку вам понадобятся: Инновации  Облачные/коробочные возможности (а также будущий беспрепятственный переход к облаку) Возможности для совместной работы (простые, без приложения сверхусилий по обучению пользователей) Социальные функциональные возможности (обеспечивающие более качественного и быстрого взаимодействия между сотрудниками) Совместимость с мобильными устройствами (система должны работать на ЛЮБОМ устройстве с ЛЮБЫМ браузером) Отличный пользовательский интерфейс (он должен быть интуитивно понятным и не требовать бесконечных доработок) И это подводит нас к следующей теме… Но у меня есть SharePoint, так что у меня всего хватает… SharePoint – достаточно распространённое решение для многих компаний. На бумаге оно, конечно, удовлетворяет всем требованиям с точки зрения IT. Но в реальным требованиях бизнеса оно часто не отвечает (см. пункты ранее). К сожалению, SharePoint часто не уходит дальше обычного файлового хранилища (второй из перечисленных ранее уровней). Есть также огромная разница между SharePoint в коробочной и облачной версиях. Причем переход из коробочной в облачную версию чаще всего связан со многими трудностями. Если у вас уже есть одна бизнес-логика в корпоративном SharePoint, она, вполне вероятно, не подойдёт к SharePoint Online. Те, у кого есть Office 365, часто работают в большей степени со старой доброй электронной почтой. Знакомое высказывание «никого не уволят за покупку товаров Microsoft» обеспечивает некоторый уровень комфорта при покупке т.н. лидирующих на рынке продуктов. Следует помнить, что многие проекты по созданию SharePoint порталов на практике не соответствуют изначально поставленным бизнес-требованиям. Примером тому может послужить отчёт The Global Community of Information Professionals ( AIIM ) под названием «The SharePoint Puzzle». Этот отчёт свидетельствует о том, что лишь в 28% компаний SharePoint используют все сотрудники, что демонстрирует настоящий провал в освоении системы пользователями. Однако SharePoint достаточно популярен среди консультантов и крупных интеграторов. Это вполне понятно, так как по рекомендации самого Microsoft, на каждый рубль лицензионных отчислений на внедрение портала SharePoint потребуется восемь. Время выхода на рынок с SharePoint также является проблемой из-за длительных циклов доработки (посмотрите оценку затрат Gartner представленную ниже). Однако вне зависимости от того, какой инструмент вы используете, у него должна быть удобный интерфейс и нужные функции, чтобы бизнес смог его усвоить и использовать в полной мере. Кроме того, отдел IT и отдел внутренних коммуникаций иногда хотят достичь разных целей, но им нужно одно решение. Как упоминалось ранее, ваш сегодняшний Интранет должен пройти трансформацию к Цифровому Рабочему Месту. Скорость этого процесса зависит от многих факторов, из которых наиболее важным является культура компании. Убедитесь в том, что грядущие изменения возможны и что они экономически эффективны. Некоторые стоимостные примеры от Gartner Рекоммендации Gartner «Рассмотрите (хотя бы на начальном этапе) простые и благоприятные варианты реализации, которые полагаются больше на облачные решения, нежели чем на индивидуальную доработку, чтобы сохранить первоначальные единовременные расходы между $50 и $100 на одного пользователя; тщательно исследуйте любые отклонения от этого». Будьте готовы к изменениям, которые рано или поздно потребуются: От коробочного решения к облаку, по крайней мере, частично; Движение от культуры Интранета к Цифровому Рабочему Месту; Многообразие бизнес-процессов, предлагаемых в магазине приложений; Перемещение фокуса от социализации компании к социализации приложений и бизнес-процессов. На рисунке ниже можно увидеть направления этой трансформации Ваш Интранет должен иметь широкий набор функциональных возможностей Доступ к порталу по умолчанию (например, через технологию Single Sign-On) Внешний вид и удобство использования Релевантный Поиск Таргетированный контент Персонализированный контент Профиль сотрудника Поиск сотрудников Совместные рабочие области, сообщества или группы Опросы (для «оживления» и вовлечения пользователей) Отчёты по использованию Комплект по разработке ПО для построения собственных приложений Виджеты (для персонализации портала) Центр уведомлений Новостная лента Twitter (либо внутренний информационный поток, например, SAP или другая система) Горячие клавиши (помогают пользователям в ежедневной работе) Множество способов отображения информации Безопасное создание сообществ Управление знаниями Работа с документами Широкие настройки безопасности Полноценный Магазин приложений Привлекательный и прагматичный Интранет Поставьте цель сделать Интранет отправной точки для повседневной работы персонала, как для офисных так и мобильных работников. Каждый должен быть способен изменять интерфейс платформы с помощью простых виджетов. Поработайте над созданием инновационного и привлекательного внешнего вида. Постарайтесь избавиться от классической границы между корпоративной информацией и более гибкими, социальными коммуникациями. Убедитесь, что в вашей компании есть система управления контентом, которая будет контролировать корпоративные данные. Управление контентом и «унаследованными» системами Вам обязательно потребуется безупречная система документооборота, которая может быть использована на индивидуальной или – что более разумно – на коллективной основе. Подключите другие платформы к своему Интранету. Вы можете сами выбрать, как управлять его использованием (например, открыть доступ только к чтению документа). Удостоверьтесь, что вы можете предложить бизнесу новые технологии, без риска потери привычных данных. Вовлечение пользователей и коммуникации Вовлечение пользователей – фундаментальная составляющая успеха нового Интранета и социальных коммуникаций. В большинстве своём эта составляющая имеет дело с удовлетворением пользовательских потребностей, которые выражаются в конкретных примерах использования, приложениях и в простоте применения ПО. Попробуйте внедрить методологии, которые помогут вашей компании лучше освоить новый Интранет и социальные методы работы. Интеграция Обеспечьте интеграцию внутри Интранета, равно как и внутри зон взаимодействия (например, в сообществах и группах). Считается, что основным кандидатом для интеграции является SAP. Направьте поток информации из SAP в разрабатываемый Интранет. Проинформируйте бизнес-пользователей. Позвольте пользователям получить прямой доступ к таким унаследованным системам, как SAP или OpenText. Интеграция в большей степени состоит в доведении информационного потока до конечного пользователя. Она также позволяет объединить существующие приложения в магазин приложений Интранета. Важно понимать, что надлежащая интеграция является одним из элементов успеха всего предприятия. Куда двигаться? Интранет Социальный бизнес Приложения Направьте поток корпоративной информации к нужным людям и подразделениям в нужный момент времени. Управляйте контентом компании с помощью движка Hoozin Intranet CMS. Предоставьте сотрудникам гибкие инструменты и мобильный доступ. Стимулируйте людей распространять больше информации, снизьте изолированность, создайте горизонтальный поток информации, признавайте заслуги работников и дайте им использовать приложения. Покупайте готовые или разрабатывайте собственные индивидуальные приложения, которые соответствуют требованиям различных бизнес-единиц. Начните реконструкцию старых приложений в рамках нового Интранета. Советы: Никогда не закрывайте глаза на скрытые издержки. На самом деле они есть и более того – крайне высоки. Не нужно постоянно «допиливать» интерфейс Интранет силами интеграторов. Попробуйте найти готовые облачные приложения. Ищите небольших поставщиков – они скорее привнесут инновации. Будьте честны перед собой. Принимайте такие решения, которые не повлекут за собой лишние издержки. Carwin Heierman
https://habrahabr.ru/company/supereon/blog/318218/
habrahabr
SetGoroutineName
['go']
В Go может быть запущенно больше миллиона goroutine, и этот механизм вызывает восторг до того момента, пока не появляется какая-либо проблема. Например, утечка памяти или dead-lock. Первое, что...
В Go может быть запущенно больше миллиона goroutine, и этот механизм вызывает восторг до того момента, пока не появляется какая-либо проблема. Например, утечка памяти или dead-lock. Первое, что хочется сделать это разобраться, посмотреть на то, что же происходит. Это можно сделать так. package main import ( "bytes" "fmt" "runtime/pprof" ) func main() { profiler := pprof.Lookup("goroutine") var buf bytes.Buffer profiler.WriteTo(&buf, 1) fmt.Println(buf.String()) } goroutine profile: total 1 1 @ 0xb1620 0xb1340 0xac9c0 0x200c0 0x59f80 0x98d61 # 0xb161f runtime/pprof.writeRuntimeProfile+0xdf /usr/local/go/src/runtime/pprof/pprof.go:614 # 0xb133f runtime/pprof.writeGoroutine+0x9f /usr/local/go/src/runtime/pprof/pprof.go:576 # 0xac9bf runtime/pprof.(*Profile).WriteTo+0xff /usr/local/go/src/runtime/pprof/pprof.go:298 # 0x200bf main.main+0xbf /tmp/sandbox627252447/main.go:12 # 0x59f7f runtime.main+0x39f /usr/local/go/src/runtime/proc.go:183 https://play.golang.org/p/ysl_avotLS Или так: package main import ( "fmt" "runtime" ) func main() { b1 := make([]byte, 1<<20) runtime.Stack(b1, true) s1 := string(b1) fmt.Println(s1) } goroutine 1 [running]: main.main() /tmp/sandbox952340390/main.go:10 +0x80 https://play.golang.org/p/FCbzn2_DlQ Мы видим, что в данных примерах запущенна одна гоурутина и ее стек трейс, но если у нас 20-30 одинаковых goroutine, то возникает вопрос кого они обслуживают? Если это сайт, то может быть пользователь, который ушел, а goroutine не прекратила своё существование, и как следствие не освобождает память? Появляется желание давать гоурутинам названия и в название вписать свякую полезную инфу, как например Id пользователя, которого она обслуживаниет. Но в Go непросто так нет функции SetGoroutineName или GetGoroutineId . Такие функции — зло по мнению создателей языка Go. Трудно не согласиться с такими людми как Rob и Ken. Но зло это не потому, что вообще эти функции зло, а потому, что эти функции программисты начнут использовать неправильно. Не для отладки приложений в момент утечки памяти, а просто как goroutine local storage. То есть, в логике программы плохо использовать такие штуки, но если накосячили, то все же ошибку надо как-то найти. PyraDebug Значит нужно давать имена горутинам, но что-бы логика приложения от этого не зависела. Так и родилась pyradebug go get -u github.com/CossackPyra/pyradebug package main import ( "fmt" "log" "net/http" "time" "github.com/CossackPyra/pyradebug" ) var pyraDebug *pyradebug.PyraDebug func main() { pyraDebug = pyradebug.InitPyraDebug() pyraDebug.Enable = true for i := 0; i < 10; i++ { go func(i int) { pyraDebug.SetGoroutineName(fmt.Sprintf("sleep func %d", i)) for { time.Sleep(time.Second) } }(i) } http.HandleFunc("/goroutine", handle_goroutine) log.Fatal(http.ListenAndServe(":8765", nil)) } func handle_goroutine(w http.ResponseWriter, r *http.Request) { agi := pyraDebug.ListGoroutines(1<<20, true) w.Header().Set("Content-Type", "text/plain") for i, gi := range agi { fmt.Fprintf(w, "%d\t%s\t%s\t%s\n", i, gi.Id, gi.Name, gi.Status) } } # http://127.0.0.1:8765/goroutine 0 goroutine 31 running 1 goroutine 1 IO wait 2 goroutine 17 syscall, locked to thread 3 goroutine 20 sleep func 0 sleep 4 goroutine 21 sleep func 1 sleep 5 goroutine 22 sleep func 2 sleep 6 goroutine 23 sleep func 3 sleep 7 goroutine 24 sleep func 4 sleep 8 goroutine 25 sleep func 5 sleep 9 goroutine 26 sleep func 6 sleep 10 goroutine 27 sleep func 7 sleep 11 goroutine 28 sleep func 8 sleep 12 goroutine 29 sleep func 9 sleep Важной особенностью библиотеки является pyraDebug.Enable = true , то есть после отладки вы просто ее отключаете и она перестает что-либо делать и значит полагаться на SetGoroutineName в логике нельзя. Изначально я хотел указывать еще имя гоурутины, что породила её, но на практике мне достаточно только имя, исходный код 127 строки. Его легко форкнуть, разобраться и доработать. Библитека зависит от текстового формата, который выдает runtime.Stack и может перестать работать в будущем, что так-же хорошо, чтобы разработчики не полагались бездумно на эту библитеку и использовали ее только для отладки. PS. Всегда интересно узнать, что сделал велосепед https://github.com/CossackPyra/pyradebug
https://habrahabr.ru/post/318220/
habrahabr
.NET-обёртки нативных библиотек на C++/CLI
['c++/cli', 'c#', '.net', 'interop']
Предисловие переводчика Данная статья представляет собой перевод главы 10 из книги Макруса Хиге (Marcus Heege) «Expert C++/CLI: .NET for Visual C++ Programmers». В этой главе разобрано создание...
Предисловие переводчика Данная статья представляет собой перевод главы 10 из книги Макруса Хиге (Marcus Heege) «Expert C++/CLI: .NET for Visual C++ Programmers». В этой главе разобрано создание классов-обёрток для нативных классов C++, начиная от тривиальных случаев и до поддержки иерархий и вирутальных методов нативных классов. Идея этого перевода появилась после статьи «Unmanaged C++ library в .NET. Полная интеграция» . Перевод занял больше времени, чем ожидалось, но, возможно, подход, показанный здесь, также будет полезен сообществу. Содержание Создание обёрток для нативных библиотек Прежде, чем начать Отдельная DLL или интеграция в проект нативной библиотеки? Какая часть нативной библиотеки должна быть доступна через обёртку? Взаимодействие языков Создание обёрток для классов Отображение нативных типов на типы, соответствующие CLS Отображение исключений C++ на управляемые исключения Отображение управляемых массивов на нативные типы Отображение других непримитивных типов Поддержка наследования и виртуальных методов Общие рекомендации Упростите обёртки с самого начала Учитывайте философию .NET Заключение Создание обёрток для нативных библиотек Есть множество ситуаций, требующих написания обёртки над нативной библиотекой. Вы можете создавать обёртку для библиотеки, чей код вы можете изменять. Вы можете оборачивать часть Win32 API, обёртка для которой отсутствует в FCL. Возможно, вы создаёте обёртку для сторонней библиотеки. Библиотека может быть как статической, так и динамической (DLL). Более того, это может быть как C, так и C++ библиотека. Эта глава содержит практические рекомендации, общие советы и решения для нескольких конкретных проблем. Прежде, чем начать Перед тем, как писать код, следует рассмотреть различные подходы к написанию обёртки и их достоинства и недостатки с точки зрения как создания, так и использования вашей библиотеки. Отдельная DLL или интеграция в проект нативной библиотеки? Проекты Visual C++ могут содержать файлы, компилируемые в управляемый код [подробнее можно прочитать в главе 7 книги]. Интеграция обёрток в нативную библиотеку может показаться хорошей затеей, потому что тогда у вас будет на одну библиотеку меньше. Кроме того, если вы интегрируется обёртки в DLL, то клиентском приложению не придётся загружать лишнюю динамическую библиотеку. Чем меньше загружается DLL, тем меньше время загрузки, требуется меньше виртуальной памяти, меньше вероятность, что библиотека будет перемещена в памяти из-за невозможности её загрузить по изначальному базовому адресу. Тем не менее, включение обёрток в оборачиваемую библиотеку как правило не несёт пользы. Чтобы лучше понять почему, следует отдельно рассмотреть сборку статической библиотеки и DLL. Как бы странно это не звучало, но управляемые типы можно включить в статическую библиотеку. Однако это легко может повлечь за собой проблемы идентичности типов. Сборка, в которой определён тип, является частью его идентификатора. Таким образом, CLR может различить два типа из разных сборок, даже если имена типов совпадают. Если два разных проекта использую один и тот же управляемый тип из статической библиотеки, то этот тип будет скомпонован в обе сборки. Так как сборка является частью идентификатора типа, то получится два типа с разными идентификаторами, хотя они и были определены в одной статической библиотеке. Интеграция управляемых типов в нативную DLL также не рекомендуется, так как загрузка библиотеки потребует CLR 2.0 во времени загрузки. Даже если приложение, использующее библиотеку, обращается только к нативному коду, для загрузки библиотеки потребуется, чтобы на компьютере была установлена CLR 2.0, и чтобы приложение не загружало более раннюю версию CLR. Какая часть нативной библиотеки должна быть доступна через обёртку? Как это часто бывает, очень полезно чётко определить задачи разработчика, прежде чем начинать писать код. Знаю, это звучит как цитата из второсортной книженции о разработке программ из начала 90х, но для обёрток нативных библиотек постановка задачи особенно важна. Когда вы приступаете к созданию обёртки для нативной библиотеки, задача кажется очевидной — у вас уже есть существующая библиотека и управляемое API должно принести её функциональность в мир управляемого кода. Для большинства проектов такого общего описания совершенно недостаточно. Без более чёткого понимания проблемы вы, вероятно, напишете по обёртке для каждого нативного класса C++ библиотеки. Если библиотека содержит больше одной единственной центральной абстракции, то зачастую не стоит создавать обёртки один-к-одному с нативным кодом. Это заставит вас решать проблемы, не связанные с вашей конкретной задачей, а также породит много неиспользованного кода. Чтобы лучше описать задачу, подумайте над проблемой в целом. Чтобы сформулировать задачу более чётко, вам надо ответить на два вопроса: Какое подмножество нативного API нужно управляемому коду? Как управляемый код будет использовать различные части нативного API? Как правило, ответив на эти вопросы, вы сможете упростить себе задачу урезанием ненужных частей и добавлением абстракций-обёрток, основанных на сценариях использования. Например, возьмём следующее нативное API: namespace NativeLib { class CryptoAlgorithm { public: virtual void Encrypt(/* ... пока что аргументы можно опустить ... */) = 0; virtual void Decrypt(/* ... пока что аргументы можно опустить ... */) = 0; }; class SampleCipher : public CryptoAlgorithm { /* ... пока что реализацию можно опустить ... */ }; class AnotherCipherAlgorithm : public CryptoAlgorithm { /* ... пока что реализацию можно опустить ... */ }; } Это API даёт программисту следующие возможности: создавать и использовать экземпляр SampleCipher; создавать и использовать экземпляр AnotherCipherAlgorithm; наследовать классы от CryptoAlgorithm, SampleCipher или AnotherCipherAlgorithm и переопределять Encrypt или Decrypt. Реализация всех этих возможностей в управляемой обёртке гораздо сложнее, чем может показаться. Особенно трудно реализовать поддержку наследования. Как будет показано позже, поддержка виртуальных методов требует дополнительных классов-прокси, что приводит к накладным расходам во время выполнения и требует времени на написание кода. Однако весьма вероятно, что обёртка нужна только для одного или двух алгоритмов. Если обёртка для этого API не будет поддерживать наследование, то её создание упрощается. С таким упрощением вам не придётся создавать обёртку для абстрактного класса CryptoAlgorithm. С виртуальными методами Encrypt и Decrypt можно будет работать так же, как и с любыми другими. Чтобы дать понять, что вы не хотите поддерживать наследование, достаточно объявить обёртки для SampleCipher и AnotherCipherAlgorithm как sealed классы. Взаимодействие языков Одной из основных целей при создании .NET было обеспечение взаимодействия разных языков. Если вы создаёте обёртку для нативной библиотеки, то возможность взаимодействия с разными языками приобретает особенную важность, поскольку разработчики, использующие библиотеку, скорее всего, будут использовать C# или другие языки .NET. Common Language Infrastructure (CLI) — это основа спецификации .NET [подробнее можно прочитать в главе 1 книги]. Важной частью этой спецификации является Common Type System (CTS). Хотя все языки .NET основываются на общей системе типов, не все языки поддерживают все возможности этой системы. Чтобы чётко определить, смогут ли языки взаимодействовать между собой, CLI содержит Common Language Specification (CLS). CLS — это контракт между разработчиками, использующими языки .NET, и разработчиками библиотек, которые можно использовать из разных языков. CLS задаёт минимальный набор возможностей, который обязан поддерживать каждый язык .NET. Чтобы библиотеку можно было использовать из любого языка .NET, соответствующего CLS, возможности языка, используемые в публичном интерфейсе библиотеки, должны быть ограничены возможностями CLS. Под публичным интерфейсом библиотеки понимаются все типы с видимостью public, определённые в сборке, и все члены таких типов с видимостью public, public protected или protected. Можно использовать атрибут CLSCompliantAttribute, чтобы обозначить тип или его член как соответствующий CLS. По умолчанию, не помеченные этим атрибутом типы считаются не соответствующими CLS. Если вы примените этот атрибут на уровне сборки, то по умолчанию все типы будут считаться соответствующими CLS. Следующий пример показывает, как применять этот атрибут к сборкам и типам: [assembly: CLSCompliant(true)]; // типы с видимостью public соответствуют CLS, если не указано иное namespace ManagedWrapper { public ref class SampleCipher sealed { // ... }; [CLSCompliant(false)] // этот класс явно помечен как не соответствующий CLS public ref class AnotherCipherAlgorithm sealed { // ... }; } Согласно правилу 11 CLS все типы, присутствующие в сигнатурах членов класса (методов, свойств, полей и событий), видимых снаружи сборки, должны соответствовать CLS. Чтобы правильно применять атрибут [CLSCompliant], вы должны знать, соответствуют ли типы параметров метода CLS. Чтобы определить соответствие CLS, надо проверить атрибуты сборки, в которой объявлен тип, а также атрибуты самого типа. В Framework Class Library (FCL) также используется атрибут CLSCompliant. mscorlib и большинство других библиотек FCL применяют атрибут [CLSCompliant(true)] на уровне сборки и помечают типы, не соответствующие CLS, атрибутом [CLSCompliant(false)]. Учтите, что следующие примитивные типы в mscorlib помечены как несоответствующие CLS: System::SByte, System::UInt16, System::UInt32 и System::UInt64. Эти типы (или эквивалентные им имена типов char, unsigned short, unsigned int, unsigned long и unsigned long long в C++) нельзя использовать в сигнатурах членов типов, которые считаются соответствующими CLS. Если тип считается соответствующим CLS, то все его члены также считаются таковыми, если явно не указано обратного. Пример: using namespace System; [assembly: CLSCompliant(true)]; // типы с видимостью public соответствуют CLS, если не указано иное namespace ManagedWrapper { public ref class SampleCipher sealed // SampleCipher соответствует CLS из-за атрибута сборки { public: void M1(int); // M2 помечен как несоответствующий CLS, потому что тип одного из его аргументов не соответствует CLS [CLSCompliant(false)] void M2(unsigned int); }; } К сожалению, компилятор C++/CLI не показывает предупреждений, когда тип, помеченный как соответствующий CLS, нарушает правила CLS. Чтобы понять, помечать тип как соответствующий CLS или нет, надо знать следующие важные правила CLS: Имена типов и их членов должны быть различимы в языках с регистро-независимыми идентификаторами (правило 4). Глобальные статические (static) поля и методы не совместимы с CLS (правило 36). Пользовательские атрибуты должны содержать поля только следующих типов: System::Type, System::String, System::Char, System::Boolean, System::Int[16|32|64], System::Single и System::Double (правило 34). Объекты исключений должны иметь тип System::Exception или унаследованный от него тип (правило 40). Все аксессоры свойств должны быть либо виртуальными, либо не виртуальными одновременно, то есть не допускается смешение виртуальных и не виртуальных аксессоров (правило 26). Упакованные значения не соответствуют CLS (правило 3). Например, следующий метод не соответствует CLS: void f(int^ boxedInt);. [см. примечание ниже] Неуправляемые указатели не соответствуют CLS (правило 17). Под это правило также подпадают и ссылки в C++. Доступ к нативным классам, структурам и объединениям также осуществляется по указателю [подробнее можно прочитать в главе 8 книги]. Из этого следует, что данные нативные типы также не соответствуют CLS. Примечание переводчика - что такое int^ В отличие от C#, в C++/CLI допускается явное указание типа упакованного значения. Например: System::Int32 value = 1; System::Object ^boxedObject = value; // упакованное значение value; соответствует object boxedObject = value; в C# System::Int32 ^boxedInt = value; // также упакованное значение value, но в текущей версии C# аналогичный код написать невозможно Создание обёрток для классов C++ Несмотря на некоторое сходство системы типов в C++ и CTS в .NET, создание управляемых типов-обёрток для классов C++ часто преподносит неприятные сюрпризы. Очевидно, что если используются возможности C++, у которых нет аналогов в управляемом коде, то создание обёртки может быть затруднительным. Например, если библиотека активно использует множественное наследования. Но даже если для всех использованных возможностей C++ существуют схожие конструкции в управляемом коде, отражение нативного API в API обёртки может быть не очевидным. Давайте рассмотрим возможные проблемы. Объявить управляемый класс с полем типа NativeLib::SampleCipher нельзя [подробнее можно прочитать в главе 8 книги]. Так как поля управляемых классов могут быть только указателями на нативные типы, следует использовать поле типа NativeLib::SampleCipher*. Экземпляр нативного класса должен быть создан в конструкторе обёртки и уничтожен в деструкторе. namespace ManagedWrapper { public ref class SampleCipher sealed { NativeLib::SampleCipher* pWrappedObject; public: SampleCipher(/* пока что аргументы можно опустить */) { pWrappedObject = new NativeLib::SampleCipher(/* пока что аргументы можно опустить */); } ~SampleCipher() { delete pWrappedObject; } /* ... */ }; } Кроме деструктора, также стоит реализовать финализатор [подробнее можно прочитать в главе 11 книги]. Отображение нативных типов на типы, соответствующие CLS После того, как вы создали класс-обёртку, надо добавить ему методы, свойства и события, позволяющие клиентскому код в .NET обращаться к членам обёрнутого объекта. Для того, чтобы обёртку можно было использовать из любого языка .NET, все типы в сигнатурах членов класса-обёртки должны соответствовать CLS. Вместо беззнаковых целых чисел в сигнатурах нативного API как правило можно использовать знаковые числа такого же размера. Выбор эквивалентов для нативных указателей и ссылок далеко не всегда столь же прост. Иногда, можно использовать System::IntPtr вместо нативного указателя. В этом случае управляемый код может получить нативный указатель и передать его в качестве входного параметра для дальнейшего вызова. Это возможно, потому что на бинарном уровне System::IntPtr устроен так же, как нативный указатель. В других случаях, один или несколько параметров необходимо конвертировать вручную. Это может занять может занять много времени, но избежать этого нельзя. Рассмотрим различные варианты обёрток. Если в нативную функцию передаётся ссылка C++ или указатель с семантикой передачи по ссылке, то в обёртке функции рекомендуется использовать отслеживаемую ссылку [см. примечание ниже]. Допустим, нативная функция имеет следующий вид: void f(int& i); Обёртка этой функции может выглядеть так: void fWrapper(int% i) { int j = i; f(j); i = j; } Примечание переводчика - что такое отслеживающая ссылка Отслеживающая ссылка или tracking reference в C++/CLI аналогична ref и out параметрам в C#. Для вызова нативной функции требуется передать нативную ссылку на int. Для этого аргумента необходимо осуществить маршаллинг вручную, так как преобразования типов из отслеживающей ссылки в нативную ссылку не существует. Поскольку существует стандартное преобразование типов из int в int&, используется локальная переменная типа int, которая служит в качестве буфера для аргумента, передаваемого по ссылке. Перед вызовом нативной функции буфер инициализируется значением, переданным в качестве параметра i. После возврата из нативной функции в обёртку значение параметра i обновляется в соответствии с изменениями буфера j. Как видно из этого примера, помимо затрат на переход между управляемым и нативным кодом, обёртки зачастую вынуждены тратить процессорное время на маршаллинг типов. Как будет показано позже, для более сложных типов эти затраты могут быть значительно выше. Следует отметить, что некоторые другие языки .NET, включая C#, различают аргументы, передаваемые по ссылке, и аргументы, используемые только для возврата значения. Значение аргумента, передаваемого по ссылке, должно быть инициализировано перед вызовом. Вызываемый метод может изменить его значение, но он не обязан этого делать. Если аргумент используется только для возврата, то он передаётся неинициализированным и метод обязан изменить или проинициализировать его значение. По умолчанию считается, что отслеживающая ссылка означает передачу по ссылке. Если вы хотите, чтобы аргумент использовался только для возврата значения, следует применить атрибут OutAttribute из пространства имён System::Runtime::InteropServices, как показано в следующем примере: void fWrapper([Out] int% i); Типы аргументов нативных функций часто содержат модификатор const, как в примере ниже: void f(int& i1, const int& i2); Модификатор const транслируется в необязательный модификатор сигнатуры метода [подробнее можно прочитать в главе 8 книги]. Метод fWrapper всё равно можно вызвать из управляемого кода, даже если вызывающая сторона не воспринимает модификатор const: void fWrapper(int% i1, const int% i2); Для передачи указателя на массив в качестве параметра нативной функции недостаточно просто использовать отслеживающую ссылку. Чтобы разобрать этот случай, предположим, что у нативного класса SampleCipher есть конструктор, который принимает ключ шифрования: namespace NativeLib { class SampleCipher : public CryptoAlgorithm { public: SampleCipher(const unsigned char* pKey, int nKeySizeInBytes); /* ... на данный момент реализация не важна ... */ }; } В данном случае недостаточно просто отобразить const unsigned char* в const unsigned char%, потому что ключ шифрования, передаваемый в конструктор нативного типа, содержит более одного байта. Лучшим использовать следующий подход: namespace ManagedWrapper { public ref class SampleCipher { NativeLib::SampleCipher* pWrappedObject; public: SampleCipher(array<Byte>^ key); /* ... */ }; } В этом конструкторе оба аргумента нативного конструктора (pKey и nKeySizeInBytes) отображаются на единственный аргумент типа управляемый массив. Так можно сделать, потому что размер управляемого массива можно определить во время выполнения. Как реализовывать этот конструктор, зависит от реализации нативного класса SampleCipher. Если конструктор создаёт внутреннюю копию ключа, переданного в качестве аргумента pKey, то можно передать закрепляющий указатель на ключ: SampleCipher::SampleCipher(array<Byte>^ key) { if (!key) throw gcnew ArgumentNullException("key"); pin_ptr<unsigned char> pp = &key[0]; pWrappedObject = new NativeLib::SampleCipher(pp, key->Length); } Однако закрепляющий указатель нельзя использовать, если нативный класс SampleCipher реализован следующим образом: namespace NativeLib { class SampleCipher : public CryptoAlgorithm { const unsigned char* pKey; const int nKeySizeInBytes; public: SampleCipher(const unsigned char* pKey, int nKeySizeInBytes) : pKey(pKey), nKeySizeInBytes(nKeySizeInBytes) {} /* ... на данный момент остальные части класса не важны ... */ }; } Этот конструктор требует, чтобы клиент не освобождал память, содержащую ключ, и указатель на ключ оставался корректным пока экземпляр класса SampleCipher не будет уничтожен. Конструктор обёртки не выполняет ни одно из этих требований. Так как обёртка не содержит дескриптора управляемого массива, сборщик мусора может собрать массив раньше, чем экземпляр нативного класса будет уничтожен. Даже если сохранить дескриптор объекта, чтобы память не освобождалась, массив может быть перемещён во время сборки мусора. В этом случае нативный указатель больше не будет указывать на управляемый массив. Чтобы память, содержащая ключ, не освобождалась и не перемещалась при сборке мусора, ключ надо скопировать в нативную кучу. Для этого надо внести изменения как в конструктор, так и в деструктор управляемой обёртки. Следующий код показывает возможную реализацию конструктора и деструктора: public ref class SampleCipher { unsigned char* pKey; NativeLib::SampleCipher* pWrappedObject; public: SampleCipher(array<Byte>^ key) : pKey(0), pWrappedObject(0) { if (!key) throw gcnew ArgumentNullException("key"); pKey = new unsigned char[key->Length]; if (!pKey) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); try { Marshal::Copy(key, 0, IntPtr(pKey), key->Length); pWrappedObject = new NativeLib::SampleCipher(pKey, key->Length); if (!pWrappedObject) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); } catch (Object^) { delete[] pKey; throw; } } ~SampleCipher() { try { delete pWrappedObject; } finally { // удалить pKey, даже если деструктор pWrappedObject вызвал исключение delete[] pKey; } } /* остальная часть класса будет разобрана далее */ }; Примечание переводчика - что такое дескриптор Дескриптор — handle — это ссылка на объект в управляемой куче. В терминах C# это просто ссылка на объект. Если не брать в расчёт некоторые эзотерические проблемы [обсуждаются в главе 11 книги], приведённый здесь код обеспечивает корректное выделение и освобождение ресурсов даже при возникновении исключений. Если при создании экземпляра ManagedWrapper::SampleCipher возникнет ошибка, все выделенные ресурсы будут освобождены. Деструктор реализован таким образом, чтобы освободить нативный массив, содержащий ключ, даже если деструктор оборачиваемого объекта выбросит исключение. Этот код также показывает характерные накладные расходы управляемых обёрток. Помимо накладных расходов на вызов оборачиваемых нативных функций из управляемого кода, зачастую добавляются накладные расходы на отображение между нативными и управляемыми типами. Отображение исключений C++ на управляемые исключения Помимо управления ресурсами, устойчивого к возникновению исключений, управляемая обёртка также должна позаботиться об отображении исключений C++, выбрасываемых нативной библиотекой, в управляемые исключения. Для примера предположим, что алгоритм SampleCipher поддерживает только 128 и 256-битные ключи. Конструктор NativeLib::SampleCipher мог бы выбрасывать исключение NativeLib::CipherException, если в него передан ключ неправильного размера. Исключения C++ отображаются в исключения типа System::Runtime::InteropServices::SEHException, что не очень удобно для потребителя библиотеки [обсуждается в главе 9 книги]. Следовательно, необходимо перехватывать нативные исключения и перебрасывать управляемые исключения, содержащие эквивалентные данные. Для того, чтобы отобразить исключения конструктора, можно использовать блок try на уровне функции, как показано в следующем примере. Это позволит перехватить исключения, выброшенные как при инициализации членов класса, так и в теле конструктора. SampleCipher::SampleCipher(array<Byte>^ key) try : pKey(0), pWrappedObject(0) { ..// реализация не отличается от указанной ранее } catch(NativeLib::CipherException& ex) { throw gcnew CipherException(gcnew String(ex.what())); } Здесь используется блок try на уровне функции, хотя инициализация членов класса в этом примере и не должна приводить к выбросу исключений. Таким образом исключения будут перехвачены, даже если вы добавите новые члены класса или добавите наследование SampleCipher от другого класса. Отображение управляемых массивов на нативные типы Теперь, разобравшись с реализацией конструктора, разберём методы Encrypt и Decrypt. Ранее указание сигнатур этих методов было отложено, теперь приведём их полностью: class CryptoAlgorithm { public: virtual void Encrypt( const unsigned char* pData, int nDataLength, unsigned char* pBuffer, int nBufferLength, int& nNumEncryptedBytes) = 0; virtual void Decrypt( const unsigned char* pData, int nDataLength, unsigned char* pBuffer, int nBufferLength, int& nNumEncryptedBytes) = 0; }; Данные, которые должны быть зашифрованы или расшифрованы, передаются при помощи параметров pData и nDataLength. Перед вызовом Encrypt или Decrypt следует выделить буфер памяти. Значение параметра pBuffer должно быть указателем на этот буфер, а его размер должен быть передан в качестве значения параметра nBufferLength. Размер данных на выходе возвращается при помощи параметра nNumEncryptedBytes. Для отображения Encrypt и Decrypt можно добавить следующий метод в ManagedWrapper::SampleCipher: namespace ManagedWrapper { public ref class SampleCipher sealed { // ... void Encrypt( array<Byte>^ data, array<Byte>^ buffer, int% nNumOutBytes) { if (!data) throw gcnew ArgumentException("data"); if (!buffer) throw gcnew ArgumentException("buffer"); pin_ptr<unsigned char> ppData = &data[0]; pin_ptr<unsigned char> ppBuffer = &buffer[0]; int temp = nNumOutBytes; pWrappedObject->Encrypt(ppData, data->Length, ppBuffer, buffer->Length, temp); nNumOutBytes = temp; } } В этой реализации предполагается, что NativeLib::SampleCipher::Encrypt — это неблокирующая операция и что она завершает выполнение за разумный промежуток времени. Если вы не можете делать таких предположений, вам следует избегать закрепления управляемых объектов на время выполнения нативного метода Encrypt. Для этого можно скопировать управляемый массив в нативную память перед передачей массива в Encrypt и затем скопировав зашифрованные данные из нативной памяти в управляемый массив buffer. С одной стороны, это влечёт за собой дополнительные расходы на маршаллинг типов, с другой — предотвращает долговременное закрепление . Отображение других непримитивных типов Ранее все типы параметров отображаемых функций были либо примитивными типами, либо указателями или ссылками на примитивные типы. Если вам надо отображать функции, принимающие в качестве параметров классы C++ либо указатели или ссылки на классы C++, то зачастую требуются дополнительные действия. В зависимости от конкретной ситуации, решения могут быть разными. Чтобы показать различные варианты решений на конкретном примере, рассмотрим другой нативный класс, для которого требуется обёртка: class EncryptingSender { CryptoAlgorithm& cryptoAlg; public: EncryptingSender(CryptoAlgorithm& cryptoAlg) : cryptoAlg(cryptoAlg) {} void SendData(const unsigned char* pData, int nDataLength) { unsigned char* pEncryptedData = new unsigned char[nDataLength]; int nEncryptedDataLength = 0; // вызов виртуального метода cryptoAlg.Encrypt(pData, nDataLength, pEncryptedData, nDataLength, nEncryptedDataLength); SendEncryptedData(pEncryptedData, nEncryptedDataLength); } private: void SendEncryptedData(const unsigned char* pEncryptedData, int nDataLength) { /* отправка данных не касается проблем, обсуждаемых здесь */ } }; Как можно догадаться о имени этого класса, его назначение — отправлять зашифрованные данные. В рамках дискуссии неважно куда отправляются данные и какой протокол при этом используется. Для шифрования можно использовать классы, наследованные от CryptoAlgorithm (например, SampleCipher). Алгоритм шифрования можно указать при помощи параметра конструктора типа CryptoAlgorithm&. Экземпляр класса CryptoAlgorithm, переданный в конструктор, используется в методе SendData при вызове виртуального метода Encrypt. Следующий пример показывает, как можно использовать EncryptingSender в нативном коде: using namespace NativeLib; unsigned char key[] = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15}; SampleCipher sc(key, 16); EncryptingSender sender(sc); unsigned char pData[] = { '1', '2', '3' }; sender.SendData(pData, 3); Чтобы создать обёртку над NativeLib::EncryptingSender, вы можете определить управляемый класс ManagedWrapper::EncryptingSender. Как и обёртка класса SampleCipher, он должен хранить указатель на обёрнутый объект в поле. Чтобы создать экземпляра оборачиваемого класса EncryptingSender требуется экземпляр класса NativeLib::CryptoAlgorithm. Допустим, единственный алгоритм шифрования, который вы хотите поддерживать, это SampleCipher. Тогда можно определить конструктор, принимающий значение типа array ^ в качестве ключа шифрования. Также, как и конструктор класса ManagedWrapper::SampleCipher, конструктор EncryptingSender может использовать этот массив для создания экземпляра нативного класса NativeLib::SampleCipher. Затем, ссылку на этот объект можно передать в конструктор NativeLib::EncryptingSender: public ref class EncryptingSender { NativeLib::SampleCipher* pSampleCipher; NativeLib::EncryptingSender* pEncryptingSender; public: EncryptingSender(array<Byte>^ key) try : pSampleCipher(0), pEncryptingSender(0) { if (!key) throw gcnew ArgumentNullException("key"); pin_ptr<unsigned char> ppKey = &key[0]; pSampleCipher = new NativeLib::SampleCipher(ppKey, key->Length); if (!pSampleCipher) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); try { pEncryptingSender = new NativeLib::EncryptingSender(*pSampleCipher); if (!pEncryptingSender) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); } catch (Object^) { delete pSampleCipher; throw; } } catch(NativeLib::CipherException& ex) { throw gcnew CipherException(gcnew String(ex.what())); } // .. для простоты понимания надёжное освобождение ресурсов и другие методы опущены }; При таком подходе вам не придётся отображать параметр типа CryptoAlgorithm& на управляемый тип. Однако иногда этот подход слишком ограничен. Например, вы хотите дать возможность передать существующий экземпляр SampleCipher, а не создавать новый. Для этого у конструктора ManagedWrapper::EncryptingSender должен быть параметр типа SampleCipher^. Чтобы создать экземпляр класса NativeLib::EncryptingSender внутри конструктора, надо получить объект класса NativeLib::SampleCipher, который обёрнут в ManagedWrapper::SampleCipher. Для получения обёрнутого объекта требуется добавить новый метод: public ref class SampleCipher sealed { unsigned char* pKey; NativeLib::SampleCipher* pWrappedObject; internal: [CLSCompliant(false)] NativeLib::SampleCipher& GetWrappedObject() { return *pWrappedObject; } ... в остальном SampleCipher идентичен предыдущим примерам ... }; Следующий код показывать возможную реализацию такого конструктора: public ref class EncryptingSender { NativeLib::EncryptingSender* pEncryptingSender; public: EncryptingSender(SampleCipher^ cipher) { if (!cipher) throw gcnew ArgumentException("cipher"); pEncryptingSender = new NativeLib::EncryptingSender(cipher->GetWrappedObject()); if (!pEncryptingSender) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); } // ... в остальном код EncryptingSender идентичен предыдущим примерам ... }; Пока что эта реализация позволяет передавать только экземпляры класса ManagedWrapper::SampleCipher. Чтобы использовать EncryptingSender с любой реализацией обёртки над CryptoAlgorithm, придётся изменить дизайн таким образом, чтобы реализация GetWrappedObject различными обёртками была полиморфной. Этого можно добиться при помощи управляемого интерфейса: public interface class INativeCryptoAlgorithm { [CLSCompliant(false)] NativeLib::CryptoAlgorithm& GetWrappedObject(); }; Для реализации этого интерфейса надо изменить обёртку SampleCipher следующим образом: public ref class SampleCipher sealed : INativeCryptoAlgorithm { // ... internal: [CLSCompliant(false)] virtual NativeLib::CryptoAlgorithm& GetWrappedObject() = INativeCryptoAlgorithm::GetWrappedObject { return *pWrappedObject; } }; Этот метод реализован как internal, потому что код, использующий библиотеку-обёртку, не должен напрямую вызывать методы обёрнутого объекта. Если вы хотите предоставить клиенту доступ непосредственно к обёрнутому объекту, вам следует передавать указатель на него при помощи System::IntPtr, потому что тип System::IntPtr соответствует CLS. Теперь конструктор класса ManagedWrapper::EncryptingSender принимает параметр типа INativeCryptoAlgorithm^. Чтобы получить объект класса NativeLib::CryptoAlgorithm, необходимый для создания оборачиваемого экземпляра EncryptingSender, можно вызвать метод GetWrappedObject у параметра типа INativeCryptoAlgorithm^: EncryptingSender::EncryptingSender(INativeCryptoAlgorithm^ cipher) { if (!cipher) throw gcnew ArgumentException("cipher"); pEncryptingSender = new NativeLib::EncryptingSender(cipher->GetWrappedObject()); if (!pEncryptingSender) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); } Поддержка наследования и виртуальных методов Если вы сделаете обёртки для других алгоритмов шифрования и добавите в них поддержку INativeCryptoAlgorithm, то их тоже можно будет передать в конструктор ManagedWrapper::EncryptingSender. Однако реализовать свой алгоритм шифрования в управляемом коде и передать его в EncryptingSender пока что нельзя. Для этого потребуется сделать доработки, потому что в управляемом классе нельзя просто переопределить виртуальный метод нативного класса. Для этого придётся снова изменить реализацию управляемых классов-обёрток. На этот раз потребуется абстрактный управляемый класс, который обернёт NativeLib::CryptoAlgorithm. Помимо метода GetWrappedObject, этот класс-обёртка должен предоставлять два абстрактных метода: public ref class CryptoAlgorithm abstract { public protected: virtual void Encrypt( array<Byte>^ data, array<Byte>^ buffer, int% nNumOutBytes) abstract; virtual void Decrypt( array<Byte>^ data, array<Byte>^ buffer, int% nNumOutBytes) abstract; // оставшаяся часть этого класса будет рассмотрена позднее }; Чтобы реализовать свой криптографический алгоритм, надо создать управляемый класс-наследник ManagedWrapper::CryptoAlgorithm и переопределить виртуальные методы Encrypt и Decrypt. Однако этих абстрактных методов недостаточно, чтобы переопределить виртуальные методы NativeLib::CryptoAlgorithm Encrypt и Decrypt. Виртуальные методы нативного класса, в нашем случае, NativeLib::CryptoAlgorithm, можно переопределить только в нативном классе-наследнике. Следовательно, надо создать нативный класс, который наследуется от NativeLib::CryptoAlgorithm и переопределяет требуемые виртуальные методы: class CryptoAlgorithmProxy : public NativeLib::CryptoAlgorithm { public: virtual void Encrypt( const unsigned char* pData, int nNumInBytes, unsigned char* pBuffer, int nBufferLen, int& nNumOutBytes); virtual void Decrypt( const unsigned char* pData, int nNumInBytes, unsigned char* pBuffer, int nBufferLen, int& nNumOutBytes); // оставшаяся часть этого класса будет рассмотрена позднее }; Этот класс назван CryptoAlgorithmProxy, потому что он служит посредником для управляемого класса, реализующего Encrypt и Decrypt. Его реализация виртуальных методов должна вызывать эквивалентные виртуальные методы класса ManagedWrapper::CryptoAlgorithm. Для этого CryptoAlgorithmProxy нужен дескриптор экземпляра класса ManagedWrapper::CryptoAlgorithm. Он может быть передан в качестве параметра конструктора. Чтобы сохранить дескриптор, нужен шаблон gcroot. (Так как CryptoAlgorithmProxy — это нативный класс, он не может содержать полей типа дескриптор.) class CryptoAlgorithmProxy : public NativeLib::CryptoAlgorithm { gcroot<CryptoAlgorithm^> target; public: CryptoAlgorithmProxy(CryptoAlgorithm^ target) : target(target) {} // Encrypt и Decrypt будут рассмотрены позднее }; Вместо того, чтобы служить обёрткой нативного абстрактного класса CryptoAlgorithm, управляемый класс служит обёрткой для конкретного наследника CryptoAlgorithmProxy. Следующий код показывает, как это сделать: public ref class CryptoAlgorithm abstract : INativeCryptoAlgorithm { CryptoAlgorithmProxy* pWrappedObject; public: CryptoAlgorithm() { pWrappedObject = new CryptoAlgorithmProxy(this); if (!pWrappedObject) throw gcnew OutOfMemoryException("Allocation on C++ free store failed"); } ~CryptoAlgorithm() { delete pWrappedObject; } internal: [CLSCompliant(false)] virtual NativeLib::CryptoAlgorithm& GetWrappedObject() = INativeCryptoAlgorithm::GetWrappedObject { return *pWrappedObject; } public protected: virtual void Encrypt( array<Byte>^ data, array<Byte>^ buffer, int% nNumEncryptedBytes) abstract; virtual void Decrypt( array<Byte>^ data, array<Byte>^ buffer, int% nNumEncryptedBytes) abstract; }; Как говорилось ранее, класс CryptoAlgorithmProxy должен реализовать виртуальные методы таким образом, чтобы управление передавалось эквивалентным методам ManagedWrapper::CryptoAlgorithm. Следующий код показывает, как CryptoAlgorithmProxy::Encrypt вызывает ManagedWrapper::CryptoAlgorithm::Encrypt: void CryptoAlgorithmProxy::Encrypt( const unsigned char* pData, int nDataLength, unsigned char* pBuffer, int nBufferLength, int& nNumOutBytes) { array<unsigned char>^ data = gcnew array<unsigned char>(nDataLength); Marshal::Copy(IntPtr(const_cast<unsigned char*>(pData)), data, 0, nDataLength); array<unsigned char>^ buffer = gcnew array<unsigned char>(nBufferLength); target->Encrypt(data, buffer, nNumOutBytes); Marshal::Copy(buffer, 0, IntPtr(pBuffer), nBufferLength); } Общие рекомендации Кроме конкретных шагов, указанных ранее, следует учитывать также общие рекомендации по созданию управляемых обёрток. Упростите обёртки с самого начала Как видно из предыдущих разделов, создание обёрток для иерархий классов может быть очень трудозатратным. Иногда нужно создавать обёртки классов C++ таким образом, чтобы управляемые классы могли переопределять их виртуальные методы, но зачастую такая реализация не несёт практического смысла. Определение необходимой функциональности — вот ключ к упрощению задачи. Не нужно заново изобретать колесо. Прежде чем создавать обёртку для некоторой библиотеки, убедитесь, что FCL не содержит готового класса с требуемыми методами. FCL может предложить больше, чем кажется на первый взгляд. Например, BCL уже содержит довольно много алгоритмов шифрования. Они находятся в пространстве имён System::Security::Cryptography. Если нужным вам алгоритм шифрования уже есть в FCL, вам не нужно заново создавать для него обёртку. Если FCL не содержит реализации алгоритма, для которого вы хотите создать обёртку, но приложение не завязано на алгоритм, реализованный в нативном API, то обычно предпочтительней использовать один из стандартных алгоритмов из FCL. Учитывайте философию .NET Ваши типы должны не только соблюдать правила CLS, но и, по возможности, вписываться в философию .NET. [Различные варианты определения типов и их членов рассмотрены в главе 5 книги.] Например: отображайте классы C++ и виртуальные методы на компоненты и события .NET, когда такое отображение подходит по смыслу; используйте свойства вместо методов Get и Set; используйте коллекции FCL для выражения связей один-ко-многим; используйте управляемые перечисления enum для отображения взаимосвязанных #define. Помимо возможностей системы типов, также учитывайте возможности FCL. Учитывая, что FCL реализует алгоритмы, связанные с безопасностью, рассмотрите возможность взаимозаменяемости ваших алгоритмов и алгоритмов FCL. Для этого вам придётся принять дизайн, принятый в FCL, и наследовать ваши классы от абстрактного базового класса SymmetricAlgorithm и реализовывать интерфейс ICryptoTransform из пространства имён System::Security::Cryptography. Адаптация к дизайну FCL как правило упрощает библиотеку обёрток с точки зрения потребителя библиотеки. Трудоёмкость этого подхода зависит от дизайна нативного API и дизайна типов FCL, поддержку которых вы хотите реализовать. Приемлемы ли эти дополнительные трудозатраты определяется отдельно в каждом конкретном случае. В этом примере можно предположить, что алгоритм безопасности используется только в одном конкретном случае и, следовательно, не стоит того, чтобы интегрировать его с FCL. Если библиотека, для которой вы создаёте отображение, управляет табличными данными, следует рассмотреть классы System::Data::DataTable и System::Data::DataSet из части FCL, именуемой ADO.NET. Хотя рассмотрение этих типов и выходит за рамки данного текста, они заслуживают упоминания благодаря своей применимости в создании обёрток. Заворачивание табличных данных в DataTable или DataSet может упростить жизнь потребителям библиотеки, потому что эти контейнеры данных широко используются в программировании для .NET. Экземпляры обоих типов можно сериализовать в XML или в бинарный формат, их можно передавать через .NET Remoting и даже веб-сервисы, они часто используются в качестве источников данных в приложениях на Windows Forms, Windows Presentation Foundation (WPF) и в приложениях ADO.NET. Оба типа поддерживают отслеживание изменений через так называемые diffgram, представления, подобные представлениям в базах данных, и фильтры. Заключение Для создания хороших обёрток над нативными библиотеками нужно обладать определёнными качествами и возможностями. Прежде всего, требуются хорошие способности в разработке архитектуры. Отображение нативной библиотеки один-к-одному редко является хорошим решением. Отбросив возможности, которые не нужны потребителям библиотеки, можно колоссально упростить задачу. Создание фасада для оставшихся возможностей библиотеки требует знания CLS, возможностей FCL и часто используемых в .NET подходов. Как было показано, существует много вариантов создания обёрток для классов C++. В зависимости от возможностей, которые ваша обёртка должна предоставлять клиенту в управляемом коде, реализация может быть сложной или относительно простой. Если вам надо просто создать экземпляр и вызвать нативный класс из .NET, тогда ваша основная задача — это отобразить методы нативного класса на методы управляемого класса, соблюдая CLS. Если вам надо также учитывать иерархии нативных типов, то обёртка может стать значительно сложнее. Создание обёртки над нативной библиотекой также предполагает обёртывание нативных ресурсов (например, неуправляемой памяти, необходимой для создания оборачиваемых объектов). Надёжное освобождение ресурсов — это тема для отдельной статьи [рассматривается в главе 11 книги]. Примечание переводчика - краткий обзор главы 11 В главе 11 рассматривается реализация паттерна IDisposable, финализация, асинхронные исключения (ThreadAbortException, StackOverflowException и т.д.) и использование SafeHandle. Хотя эта тема и представляет интерес при работе с неуправляемыми ресурсами, она также рассматривается во многих других источниках, например, у Рихтера.
https://habrahabr.ru/post/318224/
habrahabr
Разоблачаем мировой заговор или как измерить световой поток светодиодов на коленке
['светодиоды', 'измерения', 'освещение', 'люксметр']
Все вы, наверное, слышали про мировой заговор. Масоны, инопланетяне и евреи Производители электрических лампочек вступили в него сто лет назад, чтобы лампочки не служили вечно, а перегорали каждый...
Все вы, наверное, слышали про мировой заговор . Масоны, инопланетяне и евреи Производители электрических лампочек вступили в него сто лет назад, чтобы лампочки не служили вечно, а перегорали каждый месяц и жрали уйму электричества. И только сейчас путы заговора разорваны и лампочковые магнаты раздавлены великой империей Китая, завалившей весь мир вечными и экономичными светодиодными лампами. Но не расслабляйтесь – мировой заговор не сдается. Теперь он явился в виде Великой Светодиодной Ложи Лажи Лжи. Короче, все врут (с). Шутки шутками, а в той или иной степени врут, наверное, все производители LED-светотехники. Кто-то нагло и откровенно, кто-то так, слегка подвирает – но так или иначе, кажется, нет ни одной фирмы, которая не завышала бы параметров своих изделий. Разными способами – кто-то просто пишет красивые цифры от фонаря, порой запредельные с точки зрения здравого смысла. А кто-то – просто пишет характеристики вполне правдивые, но полученные в условиях, далеких от реальных условий эксплуатации. Например, световой поток, измеренный при температуре 25°С в импульсном режиме. Так или иначе, а 15-20% «припуска на вранье» давать придется. Освещенность измерить просто, световой поток – сложно и дорого. Необходимо собрать весь свет, испущенный лампой и в равной степени учесть лучи по всем направлениям. То есть, нужен фотоприемник в виде полой сферы с одинаковой светочувствительностью каждого участка ее поверхности. Изготовление такой фотометрической сферы и ее последующая калибровка – задача весьма непростая. Другой подход – по точкам промерить диаграмму направленности источника света и проинтегрировать по всей сфере. Но и это непросто: надо иметь солидных размеров темное помещение с темными стенами. И гониометрическая головка с двумя осями нужна, желательно с автоматическим приводом, чтобы не задолбаться вручную выставлять углы для каждой из нескольких сотен точек. Впрочем, есть пара частных случаев, которые часто встречаются на практике и для которых можно ограничиться одним измерением. Об одном из них я и хочу поведать хабрасообществу. Этот частный случай – плоский косинусный излучатель. Косинусным называется такой излучатель, яркость которого не зависит от угла между нормалью к его поверхности и направлением на наблюдателя. Диаграмма направленности такого излучателя определяется исключительно геометрией – а именно видимой площадью поверхности. И для плоского косинусного излучателя существует простое соотношение между световым потоком и силой света в направлении нормали к плоскости: . То есть достаточно измерить люксметром освещенность в метре от источника света и умножить ее на 3,14 – и мы уже имеем величину светового потока (либо, если расстояние не равно метру, его придется учесть по закону обратных квадратов). Разумеется, источник света должен быть много меньше расстояния до люксметра – иначе закон обратных квадратов работать не будет и результат измерения будет завышен. Какие же источники света можно с достаточной для практики точностью считать плоскими косинусными излучателями? Это практически любые белые осветительные светодиоды без линзы и плоские сборки на их основе. Всевозможные китайские 5730, 2835, 5050, 3030 и прочие, что встречаются обычно в светодиодных лампах с алиэкспресса, а также продаются там же отдельно в катушках за копейки – это оно. А также матрицы. И китайские квадратные на 10 ватт, и Cree CXA и CXB. А вот для любых светодиодов с линзой, а также для светодиодов без люминофора (например, RGB) такой метод не годится — их диаграмма направленности существенно отличается от косинусной. Плоские светильники, встраиваемые в потолок и закрытые молочным стеклом, также неплохо соответствуют этой модели. Итак, давайте уже что-нибудь измерим. В качестве подопытных кроликов у нас сегодня: 1. Сборка китайская на 90 ватт из 156 светодиодов 5730 (в каждом по два кристалла 13х30 mil) со встроенным драйвером на CYT3000B. По заверениям китайцев, должна давать 9200 лм. Потребляемая мощность по приборам — 85 Вт, на ней и остаемся . 2. Матрица CXA2530, новая версия, 3000 кельвин, Ra>80. Световой поток при 800 мА и 85°С согласно даташиту — не менее 3440 лм, а при 25°С (такой температуры не бывает, если только не захолодить сам светодиод до температуры ниже нуля — тепловое сопротивление не даст) — не менее 4150 лм. Заводим на токе 800 мА, потребляемая мощность составила 28,64 Вт . 3. HPR20D-19K20 — древняя, как мамонт (покупалась году в 2010, если не раньше) матрица на 20 ватт фирмы HueyJann, похожая на нынешние 10-ваттные матрицы, отличается от них большим количеством кристаллов под люминофором — их 16 штук вместо девяти (4 штуки последовательно в каждой из четырех параллельно включенных цепочек). Заявлено 1830 лм при токе 1,7 А, реально на глаз не ярче, чем CXA2011 с подводимой мощностью 11 Вт. Запускаем на паспортном токе 1,7 А, напряжение составило 12,2 В, мощность 20,74 Вт . Освещенность измеряем люксметром UT382 (Uni-T), на "глазок" которого надеваем бленду из черной бумаги, чтобы не ловил отраженный от стен свет в неподготовленном помещении. Расстояние во всех случаях — метр. Результаты в таблице. Выходит, что световой поток китайской сборки соответствует заявленному (в пределах погрешности люксметра), у Cree'шной матрицы тоже все в пределах даташита (учитывая, что температура ее неизвестна), а вот у HueyJann'овской матрицы обещанных люменов нет и близко. Но что-то затерзали меня смутные сомнения: 9000 с хвостиком люмен при 85 ваттах, учитывая КПД драйвера 80% и при том, что светодиоды работают далеко не в облегченном режиме, по полватта на корпус, а пиковый ток вдвое больше среднего (никакого фильтрующего конденсатора у этих плат нет) — это очень даже круто. Вдобавок как-то не видно от этой сборки значительно большей освещенности в комнате по сравнению с люстрой, в которой пять лампочек по 950 лм (энергосберегайки). Подозрение падает на люксметр — не все из них адекватно измеряют светодиодные источники. Те из них, что сделаны на базе фотодиода BPW21R, имеют очень приблизительное соответствие спектральной чувствительности стандартной кривой видности, и относительная чувствительность к излучению 450 нм (это длина волны, соответствующая синему пику, имеющемуся в спектре почти всех белых светодиодов) превышает относительную чувствительность глаза в этой области в несколько раз. В данном приборе фотоприемник другой, что и являлось одним из критериев при выборе прибора, но все же сходим в охрану труда и возьмем другой люксметр. Это оказался ТКА-Люкс. В его методике поверки содержится проверка спектральной характеристики, то есть она должна соответствовать кривой видности с нормируемой погрешностью. Повторяем измерения с ним. Вот результаты: Ну что тут сказать? Врут не только производители светодиодных ламп, но и мой люксметр. Причем врет, как и ожидалось, по-разному для разных светодиодов. Для матрицы CXA2530 разница с профессиональным аппаратом минимальная, скорее в пределах погрешности обоих приборов. Но у этой матрицы провал в спектре почти незаметен, если смотреть через компакт-диск (реально он, конечно, есть). А вот остальные подопытные "провалились" прилично. И теперь прекрасно видно, что до заявленных люменов они не дотягивают более чем заметно: китайская 90-ваттная сборка — на 25%, а матрица HPR20D-19K20 — почти вдвое. Отсюда можно сделать следующие выводы : Да, описанным образом можно оценить световой поток, испускаемый светодиодами, матрицами и сборками (в пределах описанного частного случая). С измерением освещенности от светодиодов люксметром надо быть осторожным и убедиться, что он имеет корректную кривую спектральной чувствительности. Ибо врут все (с). Если измерения показывают, что китайским изделием достигнуты заявленные характеристики, значит, вполне вероятно, что прибор проградуирован в китайских люксах:). Если вам захочется таким же образом оценить световой поток светодиодной лампочки с полусферическим рассеивателем, нужно снять рассеиватель. Под ним скорее всего будут вполне подходящие светодиоды. Но сам рассеиватель вносит потери 15-20 и более процентов светового потока. Да, и последнее. Описанная методика ни в коей мере не является ни метрологически строгой, ни точной. Она оценочная и не более того. Именно поэтому я не привел здесь анализа погрешностей.
https://geektimes.ru/post/283910/
habrahabr
Взлом на борту самолёта
['авионика', 'безопасность', 'взлом']
На протяжении 5 лет, которые я работаю в IOActive, мне довелось побывать во многих интересных местах за тысячи километров от дома. Поэтому полёт для меня стал обычным явлением. Можно подумать,...
На протяжении 5 лет, которые я работаю в IOActive, мне довелось побывать во многих интересных местах за тысячи километров от дома. Поэтому полёт для меня стал обычным явлением. Можно подумать, что в этом нет ничего особенного, но не для меня, как человеку который боится летать. Не сказать, что мне удалось избавиться от этой фобии; после дюжины полётов ладони всё ещё потеют при взлёте, но я с этим смирился, даже, можно сказать, мне иногда нравится летать… и взламывать системы прямо с борта. В преодолении страха мне помогло изучение функциональности самолёта и привыкание к шуму, скачкам и турбулентности. В этой статье будет рассказано как работают бортовые системы, а в частности, о Бортовой Развлекательно-Информационной Системе (БРИС), разработанной Panasonic Avionics. Два года назад, пока я летел из Варшавы в Дубай, я решил немного поиграться с БРИС. И когда я кликнул в определённое место в одном из верхних углов экрана, увидел следующие данные отладчика: ---- Interactive: ek_seatappbase_1280x768_01.01.18.01.cram Content: ek_seatappcontent_1280x768.01.01.8.01.cram Engine: qtengine_01.14.0.01.squash LRU Type: 196 2 IP: 172.17.148.48 Media Player Auto Popup Enabled: false ----- После прилёта в Дубай и поиска ключевых слов в Google, я нашёл в открытом доступе сотни прошивок для различных авиалиний. Очевидно, что прошивки активно обновляются, поэтому удастся получить доступ к актуальной, которая установлена на борту. На сегодняшний день, файлы всё ещё там, но доступ к списку каталогов закрыт. Ниже приведён список авиалиний для которых мне удалось найти прошивки: Emirates AirFrance Aerolineas Argentinas United Virgin Singapore FinnAir Iberia Etihad Qatar KLM American Airlines Scandinavian Базовая архитектура БРИС следующая: Блок Управления Системой (БУС) Это сертифицированный бортовой сервер. Пассажиры, как правило, могут следить в режиме реального времени за текущими параметрами полёта, такими как скорость ветра, широта, долгота, высота и температура за бортом. БУС получает всю эту информацию через шину авионики (обычно это ARINC 429) и затем Информационные Терминалы Кресла (ИТК) могут получить к ней доступ через Ethernet. Информационный Терминал Кресла (ИТК) Это сменный линейный блок и с помощью него пассажиры имеют доступ к пассивному и активному функционалу БРИС, таким как просмотр фильмов, покупка товаров, чтение статей или доступ в интернет. Проще говоря это вмонтированное устройство с сенсорным экраном. Более новые модели используют Android, в то время как устаревшие, в основном, Linux. Снятие ИТК — это Rave AIX, а не модель от Panasonic Avionics ( источник ) Персональное Управляющее Устройство (ПУУ) Это опциональное устройство. С помощью ПУУ можно управлять ИТК и, как будет показано ниже, он также может работать как терминал для кредитных карт. Панель для бортпроводников Стюардессы и другие члены экипажа с помощью данной панели могут управлять такими функциями авиасудна, как свет, приводы (включая кровати), объявления пассажирам, бортовые покупки или же система вызова персонала. Система Управления Кабины [Cabin Management System] обычно интегрирована с БРИС. Panasonic Avionics это делает с помощью Глобальных Коммуникационных Служб [Global Communications Services], обеспечивая общий функционал для простых операций из кабины экипажа (см. тут ). Приложение для экипажа CrewApp доступно из панели для бортпроводников. БРИС от Panasonic БРИС от Panasonic: устаревшие 3000/3000i и новые XSeries eFX, eX2 и eX3 (на Android). Аппаратная составляющая может варьироваться, но по архитектуре они схожи и у них есть общие характеристики. Больше информации по БРИС от Panasonic можно найти на их сайте . Эти системы можно кастомизировать, что позволяет авиалиниям устанавливать БРИС в соответствии с политикой авиакомпании, в то время как кодовая база почти вся одинаковая. Проанализировав прошивки, мне не совсем удалось узнать способ загрузки данных на земле. Обычно контент обновляется через Wi-Fi ad-hoc-сети, либо через высокоскоростное мобильное подключение как только самолёт приземляется. БРИС от Panasonic же в основном обновляется через " Флоппинет ". Связь со спутниками или мобильные сети в полёте доступны, но в большинстве случаев, БРИС работает автономно, с предзагруженным контентом. Обычно БРИС даже не проверяет кредитные карты в режиме реального времени. БРИС от Panasonic Avionics придерживается клиент-серверной архитектуры с тремя главными компонентами: CrewApp SeatApp Backend   Я нашёл несколько версий CrewApp и SeatApp по вышеуказанной странице. Когда я гуглил ключевые слова, мне так же удалось найти бэкенд в открытом доступе на разный сайтах .aero. Не смотря на то, что в них есть фирменные и уникальные данные от авиалиний, кодовая база в них от бэкенда Panasonic. Невозможно охватить все варианты БРИС в одной статье, так как авиалинии расширяют и адаптируют фреймворк, поэтому дальше речь пойдёт о конкретных функциях. Перезагрузка SeatApp на Linux Файлы прошивок (в этом случае программа, которая запускается на устройстве не поддерживаемым пользователем), которые я проанализировал не содержали систему целиком, а только части которые должны быть обновлены. Это печально, т.к. мы бы смогли узнать больше информации о работе этих устройств, но всё же некоторые интересные моменты можно прояснить и с помощью доступных файлов. Скрипты Panasonic Avionics разработало свой декларативный скриптовый язык программирования для взаимодействия с пользовательским интерфейсом и функциями главного приложения. Он поддерживает десятки команд и обладает хорошим функционалом. Пример кода core/startup.txt Реверс-инжиниринг основного бинарного файла (airsurf) позволит узнать как работает парсер таких скриптов. Для демонстрации давайте посмотрим на #define . Скрипт обрабатывается построчно и когда парсер видит конструкцию #define , пытается разобрать его в sub_80C2690 . В этой функции могут быть определены 5 типов: flash, text, draw, timer, и value. Первая строка скрипта содержит #define со значением [value], посмотрим как она обрабатывается. В первую очередь строка парсится и извлекается наименование define. Затем парсер проверяет число ли (ниже голубой блок) то значение, что находится после (ниже зелёный блок). Если значение не число, то оно сравнивается с различными переменными и если совпадение найдено, то заменяется его значением. Если же значение число, то пара наименование/значение добавляется в глобальный массив define (голубой блок снизу) Для команды cmd , бинарник вызывает нужную функцию из таблицы cmd и передаёт аргументы. Тут можно найти некоторые интересные функции, например, ту которая читает информацию о кредитной карте после задействования её в терминале. Данные, полученные с кардридера (/dev/ccr), парсятся, распечатываются и сверяются. Можно найти и обычные файлы, такие как shell скрипты, файлы конфигураций (содержащие вшитые учётные данные), базы данных, ресурсы и библиотеки. В одном из твитов где была снята перезагрузка БРИС от Panasonic я увидел следующую информацию. Файлы приложения SeatAppBase те же, что мы и рассматриваем. loadlru.h В новых версиях БРИС X, Panasonic перешёл на Android и соответственно старые скрипты .txt заменены на подход с использованием QT QML: В бекенде используется PHP. С первого взгляда бросаются на глаза уязвимости. Изображение сверху относится к функционалу чата между креслами, где пассажиры могут посылать сообщения друг другу. Вам не будет сложно догадаться, что же тут не так, и это не единственная проблема. Следующие видео демонстрируют использование уязвимостей, но без нанесения ущерба. Обход проверки кредитной карты Доступ к файлам (например /dev/random) SQL инъекция Потенциальные угрозы Так как же далеко может зайти злоумышленник используя такие уязвимости в БРИС? На этот вопрос нет однозначного ответа, но мы попробуем рассмотреть некоторые общие случаи не специфичные для определенного производителя системы, а сделаем мы это рассмотрев больше аспектов в работе системы. По стандарту DO-178B, который определяет спецификации операционных систем реального времени в авиации, БРИС должен находиться между уровнями D и E. БРИС от Panasonic Avionics сертифицирован на уровне E. Это означает, что даже если вся система даст сбой, это либо вообще ничего не изменит либо создаст некоторые неудобства пассажирам. Также хотелось бы отметить, что информационная сеть авиасудна разделена на 4 части, по типу данных которые в них обрабатываются: развлечение пассажиров, устройства пассажиров, информационные службы авиалинии и управление самолётом. Управление самолётом должно принадлежать одноимённой части сети, который должен быть физически отделён от части пассажирской, но это не всегда так. В некоторых суднах используются оптические информационные диоды, в то время как другие отдают предпочтение модулям сетевого шлюза. Это означает, что потенциальную угрозу нельзя исключать, пока связь между двумя частями существует. БСИД может оказаться вектором атаки. В некоторых случаях такой вид атаки будет невозможен, благодаря изоляции систем, но в других потенциальная угроза остаётся ввиду физической связи систем. IOActive успешно скомпрометировало шлюзы других транспортных средств. Грань между пассажирской и управляющей системами сильно определяется благодаря конкретным устройствам, программному обеспечению и настройками авиасудна. В 2014 году мы опубликовали серию уязвимостей в устройствах спутниковой связи (SATCOM), включая бортовые терминалы. Больше всего беспокоит то, что эти устройства используются в различных областях системы, что позволяет злоумышленнику использовать оборудование для получения доступа к авионике через скомпрометированную БРИС. Со стороны IT, взлом БРИС означает, что злоумышленник может управлять информацией, которую получают пассажиры на борту. Например, можно изменить данные о полёте такие как высота или скорость и показывать фиктивный маршрут самолёта на карте. Злоумышленник может скомпрометировать и приложение CrewApp для персонала и контролировать свет или приводы в классах выше. Если эти угрозы совместить, то можно поставить пассажиров в замешательство. Получение персональной информации, включая данные о кредитной карте, тоже имеют место быть, если бэкенд, который иногда предоставляет специфичную информацию о частоте перелётов или VIP членства, настроен не должным образом. С другой стороны, Wi-Fi сеть может быть настроена надёжно, без каких либо угроз для безопасности. Этим хотелось бы сказать, что на наш взгляд, такие системы не смогут выдержать серьёзную атаку от опытного злоумышленника. Авиакомпании должны быть бдительными, когда дело касается их БРИС, обеспечивая тщательно разделённые системы и проверять каждый аспект безопасности поэтапно. Ответственность за безопасность не лежит на плечах только лишь разработчика БРИС, производителя судна или оператора. Каждый играет свою важную роль в безопасности окружения. Ответственность за раскрытие Мы сообщили о найденных уязвимостях Panasonic Avionics в марте 2015. Мы надеемся, что времени было достаточно для закрытия найденных уязвимостей, по крайней мере самых очевидных. Тем не менее, мы думаем трудно сказать что все эти проблемы решились в области, где участвуют разные авиалинии и сотни версий продукта.
https://habrahabr.ru/post/318228/
habrahabr
Информационная гигиена в стране с несвободным интернетом
['законы', 'сеть']
Недавно в разных странах происходили различные задержания на основе репостов\постов\комментариях в соц-сетях, это происходит из-за не понимания текущей действительности, законов о регулировании...
Недавно в разных странах происходили различные задержания на основе репостов\постов\комментариях в соц-сетях, это происходит из-за не понимания текущей действительности, законов о регулировании и методах работы правоохранительных органов в сети. Мне кажется, что стоит вывести основные правила о том как себя вести (что можно делать, а что нет) , что бы было всё хорошо . Основной посыл данного поста — как случайно не нарушить. За что сажают в интернете простых людей? Сажают за: взаимодействие с информацией запрещенной законом за генерирования информации запрещенной законом Если вы думаете, что вы знаете все законы что бы что-то случайно не нарушить — этот пост не для вас, если же вы допускаете, что вы можете чего-то не знать о законах в своей стране — добро пожаловать. После неё, я надеюсь, вы поймёте что лучше не делать что бы случайно что-то не нарушить. Абстрагируемся от различных «хакеров», вирусописателей и других людей которые не входят в категорию обычного пользователя. Обычный пользователь использует сеть следующим образом: Соц-сети Новостные издания Магазины Браузинг по сайтам не попадающих в первые две категории Мессенджеры Облачные сервисы Онлайн игры А теперь давайте разберем угрозы и методы их устранения для каждой группы. Соц-сети Каждый из нас (ок ладно, могут быть исключения, но мы же всё еще говорим о советском обычном человеке) пользуется соц-сетями, кто-то инстаграмом, кто-то vk, а кто-то, прощу прощения, одноклассниками и моим миром, можно бесконечно долго перечислять соц-сети но все они делятся на три большие группы. (как собственно и любой другой сайт в сети) . Отечественные (юридически находятся в стране вашего прибывания или, еще хуже, физически) Зарубежные Полу-зарубежные (Сайт находится в стране дружественной с вашей или имеет законное представительство (да или любой другой актив) который можно отжать национализировать) В социальных сетях можно нарушить закон при любой публикации контента либо при любом взаимодействии с ним : Пост, репост, лайк, вступление в группу — всё где происходит интерактивное взаимодействие — потенциальная ваша угроза. Сразу примите за аксиому еще и следующее — кнопка «Удалить» — не работает , забудьте про неё, она просто скрывает контент от вас. Информация же будет хранится ровно столько, сколько захочет сама соц-сеть или её спонсор . Наивысшая угроза исходит от типа ресурса 1 — Отечественные, далее у нас идет полу-зарубежный и как самый безопасный вариант — зарубежный. Почему отечественные = опасные ресурсы ?! Всё очень просто, любым органам в любой стране мира что бы получить информацию кто скрывается за аватаркой нужно сходить к ресурсу и запросить такую информацию. (тут могут быть совершенно глупые и не нужные шаги которые почему-то бывают в других странах — суды и ордеры, но мы про это не будем) Как только была получена информация Ваше имя в соц-сети + ваш IP + если повезет номер к которому привязана страница — поздравляю вы виновны, вас идентифицировали. Если же мы работаем с полу-зарубежным ресурсом — там возможен вариант суда и сам ресурс еще будет думать надо ли ему выполнять это предписание. С зарубежными ресурсами всё еще проще. Если вы не нарушаете законы их страны — ничего не будет. т.е не стоит топить за (организация запрещенная вашим надзором) в facebook если в штатах она тоже считается не желательной . Новостные издания Тут сфера где вы можете оступится намного меньше (если вы не редактор) например вы можете опубликовать ссылку на материал в другую сеть (соц-сеть) но тогда вы будете играть по её правилам которые уже описаны. В общем случае проблемное место только одно — комментарии (что кстати попадает под правило: всё где происходит интерактивное взаимодействие — потенциальная ваша угроза ) , тут могут возникнуть проблемы из-за двух вещей: Если сайт попадает в классификацию отечественный, или полу — идентифицировать вам достаточно просто — и значит начать делопроизводство и преследование. Но зарубежный ресурс тоже не даст вам гарантии анонимности если вы: Авторизировались на сайте через соц-сеть попадающую в зону риска Ваша фотография и имя — реальны Магазины Казалось бы, тут то что можно нарушить — да всё просто, заказали вы камеру которая не похожа на камеру а похожа на любой другой предмет — добро пожаловать, это специальное техническое средство. Как обойти? — Да очень просто не покупать, тк обычно нарушают люди совершенно случайно и просто держите это правило в голове. Браузинг по сайтам не попадающих в первые две категории Тут на самом деле всё просто, сначала мы определяем в какой категории относится ресурс (по местоположению), а потом применяем правило (с поправкой на категорию) : всё где происходит интерактивное взаимодействие — потенциальная ваша угроза Мессенджеры Тут то что можно нарушить?! Да очень просто, в одной стране были приговоры за отправку SMS сообщения с плохим содержанием, точно такое же дело за мессенджеры вопрос времени. Что бы чувствовать себя в безопасности нужно: 1) Проверить к какой категории относится мессенджер 2) Проверить уровень шифрования в мессенджере 3) Блокировался ли мессенджер в какой-либо стране Если с первым пунктом всё понятно, то насчет второго и третьего могут быть вопросы: мессенджер должен обладать стойким шифрованием — вам не нужно понимать как это устроено (хотя хорошо бы) на таблице от EFF всё понятно показано, где больше зелёного тот и лучше. А насчет третьего пункта — тут вступает немного философии и опыта наблюдения — если мессенджер был заблокирован (хоть на время) в какой-либо стране — значит власти не могут его прочитать. Еще короче, Skype, Facebook messenger, VK messenger, ICQ — плохой выбор. iMessage, Telegram, WhatsApp, Signal — хороший выбор. Tox — отличный выбор, но аудитория крайне мала и много ограничений. Облачные сервисы У вас включено резервное копирование? — поздравляем вы пользуетесь облаком. Законы гигиены при использовании облака очень просты. Не загружайте туда те файлы которые вы считаете могут вызвать у вас проблемы при нахождении их у вас на ПК. И тут кстати лучше не руководствоваться правилом места нахождения ресурса. Если вы хотите хранить чувствительную информацию в облаке — шифруйте её, по другому никак. Онлайн игры Тут-то что!? Выругались на пользователя голосом или в чате — можете быть ответчиком за оскорбления. Как избежать? — не ругайтесь не используйте серверы вашей страны и игра, в которую вы играете, должна быть зарубежной, в таком случае максимум, что у вас случится — вам заблокируют аккаунт. Перехват трафика государством Учтите, что если вы используете зарубежный сайт, но ваше государство умеет перехватывать трафик (а сейчас почти все умеют) вы обязаны, нет, ОБЯЗАНЫ проверять наличие HTTPS соединения у сайта. Причем если вы даже не собираетесь что-то писать на сайте учтите — история посещения данной конкретной страницы может быть записана, что может привести к непредсказуемым последствиям. Подведем итог 1) Проверяйте иностранный ресурс или отечественный 2) Любое действие на «плохом» ресурсе может быть использовано против вас 3) Всё где происходит интерактивное взаимодействие — потенциальная ваша угроза 4) Сайты без HTTPS обходите стороной особенно если вы хотите там что-то написать Я гик, вы меня напугали, что делать тоо?! Паниковать уже поздно, проблемы описанные в посте следствие несовершенства архитектуры клиент-серверной технологии интернета. Полностью можно успокоится только используя системы с размытой ответственностью, где данные везде и нигде одновременно — P2P. Почитайте по ZeroNet, Bitcoin, Tox — вам станет спокойнее и появится надежда на будущее.
https://habrahabr.ru/post/318230/
habrahabr
Предновогодний релиз API и портала Scorocode
['scorocode', 'baas', 'telegram bots', 'golang', 'javascript', 'react', 'redux']
Здравствуй, Хабр. С наступающим тебя! Как и обещали, к концу года обновили API и портал Scorocode. Ключевые нововведения: (по многочисленным просьбам трудящихся) Открыли API по...
Здравствуй, Хабр. С наступающим тебя! Как и обещали, к концу года обновили API и портал Scorocode. Ключевые нововведения: (по многочисленным просьбам трудящихся) Открыли API по управлению приложением Реализовали фабрику ботов Telegram Обновили дизайн и функциональность портала Обновили документацию И у нас акция ! Подробности под катом. API по управлению приложением Расширили протокол API, включив в него почти все внутренние методы. Теперь, после создания приложения в личном кабинете, можно управлять через API коллекциями, полями, индексами, скриптами, триггерами. Это дает возможность нашим клиентам реализовать собственный backoffice для администрирования приложений. Все новые методы по сложившейся традиции реализованы в виде POST запросов с JSON контентом, ответ от API приходит тоже в JSON. Приложение Получение приложения со всей структурой коллекций и настройками Коллекции Получение списка коллекций Получение конкретной коллекции Создание коллекции Изменение коллекции Удаление коллекции Клонирование коллекции Поля коллекции Создание поля коллекции Удаление поля коллекции Индексы коллекции Создание индекса по полям коллекции, в т.ч. составного Удаление индекса коллекции Серверные скрипты Получение папок и скриптов приложения по пути Создание новой папки Удаление папки со всем содержимым Получение скрипта Создание нового скрипта Изменение скрипта Удаление скрипта Боты Telegram Да, да. И мы туда же. Теперь мы умеем хостить ботов Telegram. Обработка событий от бота пишется в серверном скрипте, который привязывается к боту. Так как в серверных скриптах у нас есть полная поддержка npm, то простор для реализации разнообразных ботов безграничен. Методы API работы с ботами: Создание бота Изменение бота Удаление бота Портал Портал стал двуязычным, добавился английский язык. Поводом стало то, что у нас появились иностранные пользователи, ну и планов по выходу на иностранные рынки — громадьё. Весь портал переписан на react+redux, что сделало его удобным и отзывчивым. Приятные мелочи: Работа с данными в таблицах стала удобнее и понятнее, особенно в части работы с полями типов Relation и Pointer В серверных скриптах теперь можно запускать скрипт и видеть консольный вывод от него Кстати, по п.2 много просьб было реализовать поле для ввода входного пула параметров скрипта для отладки. Мы решили не делать этого, чтобы не загромождать интерфейс. Вы всегда можете на время отладки «во первых строках» своего скрипта написать: pool.myData = "some test input data" Документация Перевели документацию на движок mkdocs . Добавились описания нового API. Подробнее о нововведениях в переработанной документации . Акция 1*(fullPrice/10) == 3*fullPrice А теперь самое приятное. Мы запускаем новогоднюю акцию до 31 декабря 2016 г. — переход на тариф Indie всего за 990 рублей за 3(!) месяца. Вот такая вот математика. Тариф даёт доступ к маркетплейсу, увеличенное время выполнения серверного кода и количество запросов к API, больше PUSH-уведомлений и расширенное облачное хранилище. Пополнить баланс можно в личном кабинете с любой карты. Оплатить тариф по акции можно в «Настройках» приложения на вкладке «Тарифный план». Дополнительная плюшка Готов функционал по распознаванию текстов из изображений с использованием движка ABBYY, но пока не включен в продакшн для широких масс, то есть досутпен только в корпоративных проектах. Так как функция платная, около 2 руб. за страницу А4, то хотелось бы выслушать мнение уважаемого сообщества о востребованности данной функции. Если скажете, что нужно — включим.
https://habrahabr.ru/company/scorocode/blog/317450/
habrahabr
Что такое архитектура предприятия, и почему Захман ошибся?
['архитектура предприятия', 'бизнес-процессы', 'бизнес-анализ', 'Захман', 'терминология it']
Вторая статья про мифологическое сознание тоже будет короткой. Сегодня я расскажу, к каким проблемам приводит мифологическое сознание при моделировании архитектуры предприятия. Известная модель...
Вторая статья про мифологическое сознание тоже будет короткой. Сегодня я расскажу, к каким проблемам приводит мифологическое сознание при моделировании архитектуры предприятия. Известная модель Захмана пытается ответить на вопрос, что такое архитектура предприятия, и рассказывает о том, как она должна моделироваться. Основой этой модели являются вопросы, на которые предлагается ответить: кто, когда, где, почему и как совершает что-то над чем-то. Кажется, что это логичный фреймворк для описания архитектуры предприятия, и многие думают, что так оно и есть. Однако, даже беглый взгляд на этот фреймворк оставляет чувство неудовлетворенности, потому что не понятно, как ответить на вопрос: кто и почему выточил деталь? Кто: Иван Иванович, или токарь, роль которого исполнял Иван Иванович? Почему: потому что токарь получил задание, или потому что Иван Иванович заключил контракт, в соответствии с которым он обязуется выполнять роль токаря в обмен на еду? Почему: потому что Иван Иванович хочет покушать, или затем, что деталь нужна в сборочном цехе? Более глубокое изучение этого фреймворка заставляет задуматься над его применимостью к описанию технологических процессов. Например, пусть кукуруза растет в поле. Применяя модель Захмана, я должен ответить на вопросы. Кто? Кукуруза. Что делает? Растет. Почему? Потому что так устроен мир. Зачем? Да кто же его знает, зачем растет кукуруза?! Читатель, натренированный в описании архитектур предприятий, быстро меня поправит. Он скажет, что я неправильно ставлю вопросы. Надо спрашивать: кто выращивает, почему он выращивает, что выращивает. Но тогда получается, что я могу описать деятельность субъекта, который выращивает кукурузу, но не могу описать сам рост. Смирившись с тем, что я не могу описать процесс роста, у меня все равно остаются неразрешенные вопросы: кто и почему выращивает кукурузу (см. выше)? Получается, что, задавая вроде бы логичные вопросы, я в лучшем случае получаю несколько ответов, а в худшем, не получаю их вообще. Если взять предельный случай, когда у нас есть полностью роботизированное предприятие, на котором вообще нет людей, то ответом на вопрос «кто?» будет — «никто». В результате мы вообще ничего не можем сказать об этом предприятии! Правда, есть один выход из этой ситуации, немного лукавый, – надо лишь воспользоваться мифическим сознанием и одушевить роботов. Тогда, одушевив неодушевленное, мы сможем ответить на вопрос: кто? Робот. Почему? Потому что так устроен этот робот, или потому что программист его так запрограммировал. На второй вопрос мы снова получаем странные ответы. Почему же так получилось, и какие вопросы на самом деле стоит задавать? Я попытаюсь кратко изложить свое мнение на этот счет, рассказав о тех логических ошибках, которые я нашел в модели Захмана. Если посмотреть на вопросы, которые задаются в модели Захмана, можно убедиться, что они в точности соответствуют теории деятельности. Деятельность – это психическая функция субъекта (группы субъектов). Поэтому, отвечая на вопросы Захмана, мы строим модель психической функции субъекта (субъектов). Наука, изучающая психические функции субъектов, называется психология. Получается, что Захман отвечает на вопросы, которыми задаются психологи: зачем субъект делает то или иное действие? Или как мотивировать субъекта на выполнение тех или иных действий? Эти вопросы, безусловно, интересные и важные, но являются ли ответы на них описанием архитектуры предприятия? Чтобы ответить на этот вопрос, надо понять, что же такое предприятие? Как же на самом деле происходит проектирование предприятия и какие артефакты при этом возникают? Прежде чем проектировать предприятие, строится модель требований к нему. Модель требований формируется на основе требований, которые предъявлены к этому предприятию со стороны всех его участников, контрагентов и стейкхолдеров. Аналог в ИТ — требования к программному продукту. Далее на основе этих требований строится модель процессов предприятия с необходимой степенью детализации. Аналогом в ИТ будет перечень функций программного продукта. Далее строится модель функциональных объектов, или, говоря специализированным языком, технических мест, которые должны участвовать в перечисленных ранее процессах. Аналогом в ИТ будет описание процедур, и объяснение какие процедуры в каких функциях участвуют. Далее подбираются те единицы оборудования, которые могут выполнять роли перечисленных технических мест. Аналог в ИТ — это программный код. Предприятие – это функциональный объект, который создан удовлетворяющим определенным требованиям. В этом смысле предприятие ничем не отличается от такого объекта, как часы, или производственная линия. Часто вместо термина функциональный объект можно услышать термин техническое место. Техническое место отличается от единицы оборудования тем, что единица оборудования выполняет роль технического места. Например, трансформатор выполняет роль преобразователя напряжения, при этом в разное время разные трансформаторы могут выполнять роль одного и того же преобразователя. Еще одним примером технического места является должность, отдел, подразделение, штат. Например, токарь участвует в функции изготовления деталей. Это — техническое место, роль которого в разное время могут выполнять разные единицы оборудования (физические лица). О сложностях моделирования технических мест и единиц оборудования я кратко написал в статье Моделирование активов предприятия: современные стандарты и практика . При моделировании технических мест, мы описываем процессы и участников этих процессов. Замечу, что именно участников, а не исполнителей, — трансформатор не может преобразовывать напряжение, потому что он не является одушевленным существом. Об этом я писал в прошлой статье Моделирование активности и мифологическое сознание . Если все же сказать, что трансформатор «преобразует» напряжение, то это – метонимия, которая раскрывается так: трансформатор, исполняет роль преобразователя напряжения, который (преобразователь) участвует в процессе преобразования напряжения. О метонимии можно прочитать в книге «Метафоры, которыми мы живем», авторы: Джордж Лакофф, Марк Джонсон. Другой распространенной метонимией будет высказывание: «компьютер решает задачи». Те же, кто действительно считают, что трансформатор, или компьютер что-то делает на самом деле, одушевляют неодушевленное, пользуясь мифическим сознанием. Заметим, что до сего момента мы ни слова не сказали о целях, об исполнителях и причинно-следственных связях. Мы лишь говорили о требованиях, о функциях и участниках этих функций – технических местах. Цели остались на этапе формирования требований к предприятию и далее они не пошли. Мы можем знать эти цели, а можем не знать, — для модели предприятия это не имеет никакого значения. Модель предприятия отвечает на вопрос: как мы удовлетворяем требования, а не то, откуда взялись эти требования. Исполнителей тоже нет, потому что нам не надо пользоваться теорией деятельности, чтобы описать участников активности. Мы не строим причинно-следственные связи. Если же надо построить модель причинно-следственных связей, то это еще одна дополнительная модель. Это знания, которыми пользуются технологи при проектировании предприятия, и я не видел, чтобы кто-то строил такие модели. Это — отраслевые знания, и учат им в институтах по много лет. Смоделировать, почему летит самолет – нереально трудно, и никто этого не делает. Просто моделируют полет самолета. Итак, модель Захмана не включает в себя требования к предприятию, включает в себя модель процессов, но довольно специфическим способом — с указанием на исполнителей процесса, которых, как я уже сказал можно найти только в теории деятельности, и не разделяет модель технических мест и модель единиц оборудования. Как я сказал ранее, модель Захмана скорее про деятельность. При этом было бы неплохо, если бы модель Захмана использовалась по назначению, — как способ описания деятельности. Это давало бы возможность анализировать мотивы и заинтересованность людей в их работе, но беда в том, что эта модель используется неверно. Например, на вопрос «почему токарь точит деталь?» можно получить ответ: «она нужна в сборочном цехе». Но необходимость ее в сборочном цехе не отвечает на вопрос, почему токарь точит деталь. Ответ был не на поставленный вопрос, а на какой-то другой. Например, для такого ответа правильным был бы вопрос: в каком процессе, или в какой операции должна участвовать выточенная деталь? Или на каком рабочем месте она нужна? Вы видите, что это совсем не вопрос «почему?». Кроме того, меня сильно смущает наделение Захманом компьютера или информационной системы способностью что-то делать. Скорее всего, он не одушевляет их, но использует метонимию в моделировании, что на мой взгляд, недопустимо. Правильными вопросами будут: Какие существуют требования к предприятию? Какие процессы протекают на предприятии? Какие технические места в каких процессах участвуют? Какие единицы оборудования выполняют роли каких технических мест и когда? Собственно, все. С наступающим, и до новых встреч!
https://habrahabr.ru/post/318232/
habrahabr
DotNext 2016 Moscow: Спокойствие после бури
['.net', '.net core', 'конференция', 'dotnext', 'sasha goldshtein']
В июне, когда конференция DotNext проходила в Петербурге, .NET-мир переживал сложный момент: Microsoft внезапно меняла многое в .NET Core уже на стадии release candidate. Теперь, когда прошла...
В июне, когда конференция DotNext проходила в Петербурге, .NET-мир переживал сложный момент: Microsoft внезапно меняла многое в .NET Core уже на стадии release candidate. Теперь, когда прошла московская версия конференции, можно сравнить их и понять: как прошедшие полгода сказались на ситуации? А какие доклады московской были посвящены не последним потрясениям, а «вечным проблемам»? На Хабре уже появился отзыв глазами зрителя, а теперь мы публикуем свой текст. В топ-5 докладов предыдущего DotNext попало выступление Дино Эспозито как раз о пришествии (ASP).NET Core. Там он громко и саркастично рассуждал о том, как в погоне за революционными изменениями в Microsoft позабыли о «that crazy little thing called legacy code». Теперь же в открывающем кейноуте Дино снова говорил о той же теме, но его тон был спокойнее, а на слайдах было больше диаграмм: с релиза 1.0 уже прошло несколько месяцев, и пришло время серьёзнее разобраться, что будет значить миграция на Core. Впрочем, полностью избежать ёрничанья он не мог: «Конечно, я люблю system.web — я заработал на дом тем, что писал о нём! Так что это старый друг, но теперь он покидает нас». Дальше тему .NET Core (а также .NET Standard) подхватывал Алекс Тиссен (Xpirit). Он сделал оговорку «Core успевает измениться за то время, что на него смотришь» — но это не остановило его от подробного рассказа о многом, что можно увидеть сейчас, начиная с ухода от project.json и заканчивая тем, чего ждать от .NET Standard 2.0. Поначалу на конференции можно было запутаться в именах спикеров: в этот раз, помимо давно любимых зрителями DotNext Дино Эспозито и Саши Гольдштейна, присутствовала ещё и Дина Гольдштейн (Aternity). Она рассказывала об Event Tracing for Windows, начав с того, в чём сложности с традиционными профайлерами: «Они требуют перекомпиляции или перезапуска — попробуй-ка просто так перезапустить софт в аэропорту! А ещё там возникают сложности и с оверхедом, и с лицензированием». В целом доклад понравился зрителям, но сразу несколько указали в отзывах, что кое-чего им не хватило: хотелось увидеть не только скриншоты и код, но и живое демо. Дмитрий Сошников (Microsoft) уже мельком затрагивал тему Microsoft Cognitive Services в своём кейноуте на петербургском DotNext, а теперь посвятил весь свой доклад ей и Microsoft Bot Framework. Хотя сейчас компания известна не AI-технологиями, она делает на них большую ставку . Так что даже тем, у кого сейчас работа с этим не связана, полезно следить за тем, какие «когнитивные API» она предоставляет . Конечно, при желании следить за этой темой можно и по официальным новостям — но многие зрители в своих отзывах отметили яркую подачу Дмитрия, и вот этого в новостях не найдёшь. По недавнему интервью Андрея DreamWalker Акиньшина (JetBrains) легко заметить, насколько он воодушевлён проектом Rider, над которым работает. И на открытии конференции он тоже говорил об этом: «я утром просыпаюсь, сразу открываю Rider и начинаю что-то делать». Но его доклад был посвящён совсем другому: после того, как петербургское выступление о тонкостях арифметических операций было очень тепло принято, в Москве он развил тему. Имеют ли все эти тонкости практическое значение в жизни разработчика, или это нюансы, о которых интересно знать, но которые толком никогда не сказываются? Андрей начал доклад с нескольких примеров того, как они сказывались очень значительно. Вероятно, самый впечатляющий пример — история о том, как в 1991-м «маленькая и ни на что не влияющая» погрешность в софте зенитно-ракетного комплекса за 100 часов работы накопилась до ошибки в треть секунды, а в итоге погибли 28 солдат. У Марко Чеккони (Stack Overflow) было два доклада за день. И если с темой первого «Stack Overflow — It's all about performance!» всё понятно (о ней он нам также рассказывал до конференции ), то вот «Performance tuning Stack Overflow tags» могла удивить: а что, теги на сайте — это настолько значимая и самодостаточная тема с точки зрения перфоманса, что ей надо посвящать отдельный доклад? Но Чеккони быстро дал понять, что тут хватает своих подводных камней: «Например, в нашем поиске тег можно задать не только как windows, но и как windows*, чтобы вместе с ним нашлись все вроде windows-10. И у нас такая аудитория, что этой возможностью действительно часто пользуются!» Интересно, заранее и не догадаешься, что «техническая продвинутость» аудитории сайта может сказываться на работе с его перфомансом. Саша Гольдштейн (Sela Group) тоже выступил дважды — с «WinDbg Superpowers for .NET Developers» и «Squeezing the Hardware to Make Performance Juice». Как известно, «software is hard, but hardware is harder», поэтому умение Саши объяснять всё простыми словами во втором случае особенно пригодилось. У разработчиков может возникать ощущение «если я не ракеты запускаю, то зачем мне вообще забивать себе голову железными вопросами», и в докладе была очень наглядная иллюстрация того, зачем: вопрос со Stack Overflow «Why is it faster to process a sorted array than an unsorted array?» . Из-за того, как работает branch prediction (о котором автор вопроса не знал), разница во времени обработки у него составила шесть раз , и когда различия оказываются такими, явно полезно понимать, как всё работает. От этого примера Саша перешёл к более сложным темам вроде SIMD, сохранив при этом доступность изложения. Наконец, Джесси Либерти (Liberty Associates), также выступивший дважды, в заключительном кейноуте говорил о нововведениях C# 7. В основном речь была прямолинейно-информативной, но порой Либерти уходил в сторону («как вы произносите tuple — “тапл” или “тупл”?»), а порой позволял себе вольности («out variables — они… тут можно говорить “сосут”?»). Среди того, о чём он рассказывал, был pattern matching («у switch-выражений в качестве case может выступать паттерн!»), и тут любопытно сравнить мир C# с развивающейся параллельно Java. Там недавно тоже заговорили о возможном добавлении pattern matching — но пока что с оговоркой «это вилами по воде писано». А теперь, когда с конференции прошло достаточно времени, можно вычислить топ-5 докладов по присланным зрителями оценкам. И он получился таким: Sasha Goldstein (Sela Group) — WinDbg Superpowers for .NET Developers Андрей Акиньшин (JetBrains) — Продолжаем говорить про арифметику Sasha Goldstein (Sela Group) — Squeezing the Hardware to Make Performance Juice Роман Неволин (EPAM) — F# во славу Data Science Дмитрий Сошников (Microsoft) — Интеллектуальные чатботы и когнитивные сервисы Его любопытно сравнить с предыдущим петербургским топом . Во-первых, из четверых попавших в список спикеров трое были лидерами и на прошлом DotNext. А во-вторых, Саша Гольдштейн снова занял одновременно первое и третье места! Похоже, после всех перипетий с релизом Core теперь .NET-миру хочется стабильности.
https://habrahabr.ru/company/jugru/blog/318168/
habrahabr
Многопроцессный Firefox: тестирование продолжается
['Firefox', 'многопроцессность', 'многопроцессные окна', 'песочницы', 'Firefox 50']
Примерно четыре месяца назад Mozilla начала первые испытания многопроцессной архитектуры. В версии Firefox 48 её включили по умолчанию у небольшой части пользователей, а потом тестовую выборку...
Примерно четыре месяца назад Mozilla начала первые испытания многопроцессной архитектуры. В версии Firefox 48 её включили по умолчанию у небольшой части пользователей, а потом тестовую выборку увеличили в полтора раза. Как сообщает Mozilla в официальном блоге, в число испытателей попали почти все пользователи Firefox без установленных расширений. Результаты эксперимента оказались очень неплохие. Время отклика браузера уменьшилось на 400%, а улучшения в скорости при загрузке страниц составили 700%. Осталось не так уж много времени до окончания тестирования, когда многопроцессность станет стандартной встроенной функцией Firefox, так что «Огненный лис» догонит (или обгонит) по стабильности, безопасности и скорости работы Chrome, Edge, Safari и Internet Explorer, которые уже давно используют многопроцессную архитектуру. Многопроцессность означает, что Firefox способен распределять задачи между несколькими процессами. На практике в браузере это означает изоляцию движка рендеринга от пользовательского интерфейса браузера. Таким образом проблема с рендерингом веб-страницы не приводит к зависанию всего браузера, что увеличивает общую стабильность работы. Если для каждой вкладки запущен отдельный изолированный процесс рендеринга, то проблема с зависанием будет ограничена и вовсе одной лишь вкладкой. К тому же изоляция рендеринга в отдельной песочнице повышает безопасность работы: труднее использовать эксплойты для уязвимостей в движке рендеринга. Chrome и другие используют многопроцессность уже много лет. В Chrome она и вовсе присутствует с самой первой версии, которая вышла в 2008 году. Это был в каком-то смысле технологический прорыв. Интересно отметить, что для создания той самой первой версии Chrome компания Google пригласила в штат нескольких разработчиков Firefox , и те не подвели. А вот у самой Mozilla дело чуть заглохло. Разработка многопроцессной архитектуры под кодовым названием Electrolysis (e10s) началась в 2009 году, но между 2011 и 2013 годами она была остановлена «из-за смены приоритетов». Сразу после перехода на новую систему расширений в 2015 году работа над многопроцессной архитектурой возобновилась. На новой системе были реализованы программные интерфейсы WebExtensions, во многом совместимые с расширениями Chrome и Opera. В августе 2016 года Electrolysis наконец-то дорос до тестирования в продакшне. Тогда вышла версия Firefox 48, где многопроцессность активировали для ограниченного числа пользователей с браузерами без расширений. Чтобы включить многопроцессность, следует зайти в about:config и установить логический параметр browser.tabs.remote.autostart в значение true . Если многопроцессность не включилась, то следует создать новый логический параметр browser.tabs.remote.force-enable и присвоить ему значение true . Результат операций будет показан на вкладке about:support в разделе «Многопроцессные окна». Дальнейшее тестирование Начиная с версии Firefox 49 многопроцессность начали тестировать на браузерах с ограниченным набором проверенных дополнений. Результаты обнадёжили, поэтому с выходом Firefox 50 тестовую аудиторию ещё больше расширили, включив в неё браузеры с большим набором дополнений, для которых их авторы сделали специальную пометку о поддержке многопроцессности. Список поддерживаемых расширений обновляется на сайте Are we e10s yet? . С помощью отдельного дополнения Add-on Compatibility Reporter можно проверять, совместимы ли ваши дополнения с режимом многопроцессности Firefox. Теперь осталось несколько последних шагов. Нужно обеспечить нормальную работу браузера в сборках Firefox с расширениями, которые пока не поддерживают многопроцессность. По плану, в версии Firefox 51 планируют обеспечить работу с расширениями, которые не помечены явно как несовместимые с многопроцессностью. Дальше Mozilla будет дорабатывать саму архитектуру. Кроме отделения движка рендеринга в отдельный процесс, следует реализовать поддержку нескольких контент-процессов. В этом случае прибавка производительности будет максимально возможной, а риски стабильности браузера от зависаний отдельных вкладок сведутся к минимуму. Сначала второй контент-процесс реализовали на ветке Nightly. Сейчас разработчики проверяют на нём, сколько отдельных процессов способен выдерживать Electrolysis, и вылавливают баги. Вторая большая задача — реализовать песочницу безопасности с дочерними процессами, которые ограничены в правах. В версии Firefox 50 песочницу впервые реализовали в релизе под Windows. Это пока первая экспериментальная версия, не защищённая должны образом, предупреждают разработчики. В следующих версиях Firefox песочницу добавят в версии Mac и Linux. Пусть и с опозданием на несколько лет, но Firefox наконец-то внедряет многопроцессность. И эта отличная новость для всех пользователей этого замечательного браузера. Лучше поздно, чем никогда. Да и лучше сделать всё как надо, а не спешить. Первые тесты показали, что Electrolysis обеспечивает заметную прибавку в производительности, стабильности и безопасности.
https://geektimes.ru/post/283946/
habrahabr
Работа с кортежами С++ (std::tuple). Функции foreach, map и call
['tuple', 'variadic templates', 'foreach', 'map', 'call']
Здесь я расскажу о работе с кортежами C++ (tuple), приведу несколько полезных функций, которые в состоянии существенно облегчить жизнь при использовании кортежей, а также приведу примеры...
Здесь я расскажу о работе с кортежами C++ ( tuple ), приведу несколько полезных функций, которые в состоянии существенно облегчить жизнь при использовании кортежей, а также приведу примеры использования этих функций. Всё из личного опыта. Foreach Перебрать все элементы кортежа, вызвав для каждого одну и ту же функцию — наверное, первая задача, встающая перед разработчиком при использовании кортежей. Реализация весьма незамысловата: namespace tuple_utils { // вызвать 'callback' для каждого элемента кортежа /* struct callback { template<std::size_t, class T> void operator()( T&& element ) { // do something } }; tupleForeach( callback(), myTuple ); */ template<class TCallback, class ...TParams> void tupleForeach( TCallback& callback, const std::tuple<TParams...>& tuple ); namespace { template<std::size_t Index, class TCallback, class ...TParams> struct _foreach_ { static void tupleForeach_( TCallback& callback, const std::tuple<TParams...>& tuple ) { // такой пересчёт необходим для выполнения callback'a над элементами в порядке их следования const std::size_t idx = sizeof...( TParams ) - Index; callback.operator()<idx>( std::get<idx>( tuple ) ); _foreach_<Index - 1, TCallback, TParams...>::tupleForeach_( callback, tuple ); } }; template<class TCallback, class ...TParams> struct _foreach_<0, TCallback, TParams...> { static void tupleForeach_( TCallback& /*callback*/, const std::tuple<TParams...>& /*tuple*/ ) {} }; } // template<class TCallback, class ...TParams> void tupleForeach( TCallback& callback, const std::tuple<TParams...>& tuple ) { _foreach_<sizeof...( TParams ), TCallback, TParams...>::tupleForeach_( callback, tuple ); } } // tuple_utils Здесь используется вспомогательная структура _foreach_ , имеющая в качестве дополнительного template-параметра очередной индекс кортежа. Единственный её статический метод tupleForeach_ вызывает для элемента с этим индексом заданную через callback функцию, после чего вызывается рекурсивно. Частичная специализация данной структуры для индекса, равного нулю, вырождена и является завершением рекурсии. Пример 1. Банальный struct ForeachCallback { template<std::size_t Index, class T> void operator()( T&& element ) { std::cout << "( " << Index << " : " << element << " ) "; } }; void foo() { auto myTyple = std::make_tuple( 42, 3.14, "boo" ); tuple_utils::tupleForeach( ForeachCallback(), myTyple ); } Пример 2. Проверка getter'ов // определим тип getter'а как константный метод без параметров template<class TResult, class TOwner> using TGetter = TResult( TOwner::* )() const; // класс, хранящий getter'ы одного объекта template<class TGetterOwner, class ...TParams> class MyGetterContainer { // определим тип getter'а для объекта заданного класса template<class TResult> using TMyGetter = TGetter<TResult, TGetterOwner>; ..... private: ..... // проверить, нет ли среди getter'ов вырожденных (значения nullptr) void checkGetters(); // кортеж getter'ов разных типов (т.е. возвращающих значения разных типов) std::tuple<TMyGetter<TParams>...> m_getters; }; namespace { // callback, выполняющий проверку каждого getter'а template<class TGetterOwner> struct GetterCheckCallback { // непосредственно функция проверки, которая будет вызвана для каждого getter'а // здемь мы не используем 'Index' и действуем одинаково для всех элементов template<std::size_t Index, class T> void operator()( const TGetter<T, TGetterOwner>& element ) { assert( element != nullptr ); } }; } // template<class TGetterOwner, class ...TParams> void MyGetterContainer<TGetterOwner, TParams...>::checkGetters() { // вызываем callback для проверки всех getter'ов tuple_utils::tupleForeach( GetterCheckCallback<TGetterOwner>(), m_getters ); } Map Ещё одна приходящая в голову задача для удобства работы с кортежами — функция, строящая новый кортеж последовательно из результатов выполнения заданной функции над элементами данного кортежа. Весьма распространённая в функциональных языках задача. Её реализация, пожалуй, ещё проще: namespace tuple_utils { // сформировать новый кортеж (кортеж другого типа) из результатов вызова 'callback'а для каждого из элементов кортежа 'sourceTuple' /* struct callback { template<std::size_t, class R, class T> R operator()( T&& element ) { // do something } }; mapTuple( callback(), myTuple ); */ template<class TCallback, class TSourceTuple> auto mapTuple( TCallback& callback, const TSourceTuple& sourceTuple ); namespace { template<class TCallback, class TSourceTuple, std::size_t... Indices> auto mapTuple_( TCallback& callback, const TSourceTuple& sourceTuple, std::index_sequence<Indices...> ) { return std::make_tuple( callback.operator()<Indices>( std::get<Indices>( sourceTuple ) )... ); } } // template<class TCallback, class TSourceTuple> auto mapTuple( TCallback& callback, const TSourceTuple& sourceTuple ) { return mapTuple_( callback, sourceTuple, std::make_index_sequence<std::tuple_size<TSourceTuple>::value>() ); } } // tuple_utils Здесь используется вспомогательная функция mapTuple_ , принимающая дополнительный параметр, набор всех индексов кортежа, через index_sequence . Из результатов выполнения заданной через callback функции над элементами по каждому из индексов формируется результирующий кортеж. Пример 1. Банальный struct MapCallback { template<std::size_t Index, class T> std::string operator()( T&& element ) { std::stringstream ss; ss << "( " << Index << " : " << element << " )"; std::string result; result << ss; return result; } }; void foo() { auto sourceTyple = std::make_tuple( 42, 3.14, "boo" ); auto strTuple = tuple_utils::mapTuple( MapCallback(), sourceTyple ); } Пример 2. Формирование кортежа значений getter'ов // определим тип getter'а как константный метод без параметров template<class TResult, class TOwner> using TGetter = TResult( TOwner::* )() const; // класс, хранящий getter'ы одного объекта template<class TGetterOwner, class ...TParams> class MyGetterContainer { // определим тип getter'а для объекта заданного класса template<class TResult> using TMyGetter = TGetter<TResult, TGetterOwner>; ..... protected: ..... // получить значения всех getter'ов std::tuple<TParams...> getterValues() const; private: ..... // сам объект, у которого будут вызываться getter'ы TGetterOwner& m_getterOwner; // кортеж getter'ов разных типов (т.е. возвращающих значения разных типов) std::tuple<TMyGetter<TParams>...> m_getters; }; namespace { // callback, возвращающий значения getter'ов template<class TGetterOwner> struct GetterValuesCallback { public: // конструктор GetterValuer( const TGetterOwner& getterOwner ) : m_getterOwner( getterOwner ) { } // непосредственно функция, возвращающая значение getter'а; она будет вызвана для каждого getter'а // здемь мы не используем 'Index' и действуем одинаково для всех элементов template<std::size_t Index, class T> T operator()( const TGetter<T, TGetterOwner>& oneGetter ) { return ( m_getterOwner.*oneGetter )(); } private: const TGetterOwner& m_getterOwner; }; } // template<class TGetterOwner, class ...TParams> std::tuple<TParams...> MyGetterContainer<TGetterOwner, TParams...>::getterValues() const { // вызываем callback для формирования нового кортежа из возвращённых значений всех getter'ов return tuple_utils::mapTuple( GetterValuesCallback<TGetterOwner>( m_getterOwner ), m_getters ); } Call Что ещё хотелось бы «уметь делать» с кортежами — это использовать их содержимое как параметры вызова какой-либо функции (естественно, порядок и тип аргументов которой соответствует порядку и типу элементов кортежа). Реализация данной функции весьма схожа с реализацией функции map : namespace tuple_utils { // вызвать 'callback', принимающий в качестве параметров распакованный кортеж 'tuple' /* struct callback { template<class TResult, class ...TParams> TResult operator()( TParams... ) { // do something } }; callTuple( callback(), myTuple ); */ template<class TCallback, class ...TParams> auto callTuple( TCallback& callback, const std::tuple<TParams...>& tuple ); namespace { template<class TCallback, class TTuple, std::size_t... Indices> auto callTuple_( TCallback& callback, const TTuple& tuple, std::index_sequence<Indices...> ) { return callback( std::get<Indices>( tuple )... ); } } // template<class TCallback, class ...TParams> auto callTuple( TCallback& callback, const std::tuple<TParams...>& tuple ) { return callTuple_( callback, tuple, std::index_sequence_for<TParams...>() ); } } // tuple_utils Здесь, как и в случае с map , используется вспомогательная функция callTuple_ , принимающая дополнительный параметр, набор всех индексов кортежа, через index_sequence . Она вызывает заданную через callback функцию, передавая ей все элементы кортежа, соответствующие индексам. Результатом её выполнения является результат выполнения переданной функции. Пример 1. Банальный bool checkSomething( int a, float b, const std::string& txt ); struct CallCallback { template<class TResult, class ...TParams> TResult operator()( TParams... params ) { return checkSomething( params... ); } }; void foo() { std::tuple<int, float, std::string> paramsTyple = std::make_tuple( 42, 3.14, "boo" ); bool isParamsValid = tuple_utils::callTuple( CallCallback(), paramsTyple ); } Пример 2. Вызов setter'а с параметрами-значениями getter'ов // класс, хранящий getter'ы одного объекта template<class TGetterOwner, class ...TParams> class MyGetterContainer { ..... protected: ..... // получить значения всех getter'ов std::tuple<TParams...> getterValues() const; ..... }; // определим тип setter'а как неконстантный void-метод c параметрами template<class TOwner, class ...TParams> using TSetter = void( TOwner::* )( TParams... ); // класс, вызывающий setter одного объекта со значениями getter'ов другого template<class TSetterOwner, class TGetterOwner, class ...TParams> class MySetterCaller : public MyGetterContainer<TGetterOwner, TParams...> { // определим тип getter'а для объекта заданного класса с заданными параметрами using TMySetter = TSetter<TSetterOwner, TParams...>; ..... public: ..... // вызвать setter со значениями getter'ов void callSetter(); private: ..... // сам объект, у которого будет вызываться setter TSetterOwner& m_setterOwner; // непосредственно setter TMySetter m_setter; }; namespace { // callback, выполняющий вызов setter'а template<class TSetterOwner, class ...TParams> struct CallSetterCallback { public: // конструктор GetterPasser( TSetterOwner& setterOwner, TSetter<TSetterOwner, TParams...> setter ) : m_setterOwner( setterOwner ), m_setter( setter ) { } // непосредственно функция, выполняющая вызов setter'а void operator()( TParams... params ) { return ( m_setterOwner.*m_setter )( params... ); } private: TSetterOwner& m_setterOwner; TSetter<TSetterOwner, TParams...> m_setter; }; } // template<class TSetterOwner, class TGetterOwner, class ...TParams> void MySetterCaller<TSetterOwner, TGetterOwner, TParams...>::callSetter() { // получим кортеж значений от getter'ов std::tuple<TParams...> _getterValues = getterValues(); // вызываем callback для вызова setter'а от полученных значений tuple_utils::callTuple( CallSetterCallback( m_setterOwner, m_setter ), _getterValues ); } P.S. В С++17 будет доступен std::apply , который выполняет тот же функционал. Общие замечания Передача индекса в callback В реализациях выше в callback передавался индекс элемента, который должен быть обработан callback 'ом. Причём передавался он не в качестве аргумента, а в качестве параметра самого callback 'а. Сделано именно так для расширения области применения функций, т.к. такая передача позволяет вызывать внутри callback 'а шаблонные функции (использующие индекс в качестве параметра) и вообще использовать индекс как параметр для инстанцирования чего угодно, что было бы невозможно при передаче индекса как аргумента функции. Передача callback 'а Во всех реализациях выше передача callback 'а осуществляется по ссылке (а не по значению). Это сделано для того, чтобы временем жизни конкретного используемого callback 'а (а не его копии) управляла вызывающая сторона. Ещё один пример. Преобразование обработчиков-методов в обработчики-функторы // определим тип обработчика-метода как void-метод с одним параметром template<class TObject, class TValue> using TMethodHandler = void( TObject::* )( const TValue& ); // класс, хранящий обработчики-функторы template<class ...TValues> class MyHandlerContainer { public: // конструктор; принимает переменное число разнотипных обработчиков-функторов MyHandlerContainer( const std::function<void( const TValues& )>... handlers ); ..... // статический метод создания экземрляра класса из обработчиков-методов template<class TMethodOwner> static MyHandlerContainer<TValues...>* createFrom( TMethodOwner& methodOwner, TMethodHandler<TMethodOwner, TValues>... handlers ); ..... }; namespace { // callback для проверки валидности обработчиков-методов template<class TMethodOwner> struct CheckCallback { // конструктор CheckCallback() : IsValid( true ) { } // функция проверки каждого из обработчиков-методов template<std::size_t Index, class TValue> void operator()( const TMethodHandler<TMethodOwner, TValue>& oneMethodHandler ) { if( oneMethodHandler == nullptr ) IsValid = false; } bool IsValid; } // callback для создания набора обработчиков-функторов из набора обработчиков-методов template<class TMethodOwner> struct FunctorHandlerCallback { public: // конструктор FunctorHandlerCallback( TMethodOwner& methodOwner ) : m_methodOwner( methodOwner ) { } // функция создания обработчика-функтора из обработчика-метода template<std::size_t Index, class TValue> std::function<void( const TValue& )> operator()( const TMethodHandler<TMethodOwner, TValue>& oneHandlers ) { return [ this, oneHandlers ]( const TValue& tValue ) { ( m_methodOwner.*oneHandlers )( tValue ); }; } private: TMethodOwner& m_methodOwner; }; // callback для создания экземпляра класса 'MyHandlerContainer' из набора обработчиков-методов template<class ...TValues> struct CreateCallback { // функция создания экземпляра класса 'MyHandlerContainer' из набора обработчиков-методов auto operator()( std::function<void( const TValues& )>... handlers ) { return new MyHandlerContainer<TValues...>( handlers... ); } }; } // template<class ...TValues> template<class TMethodOwner> MyHandlerContainer<TValues...>* MyHandlerContainer<TValues...>::createFrom( TMethodOwner& methodOwner, TMethodHandler<TMethodOwner, TValues>... handlers ) { // кортеж обработчиков-методов auto methodsTuple = std::make_tuple( handlers... ); // проверим, все ли методы валидны CheckCallback checkCallback; tuple_utils::tupleForeach( checkCallback, methodsTuple ); // если все методы валидны if( checkCallback.IsValid ) { // (нужно, чтобы он не удалился при выходе из функции) FunctorHandlerCallback<TMethodOwner>* functorHandlerCallback = new FunctorHandlerCallback<TMethodOwner>( methodHolder ); // кортеж обработчиков-функторов auto handlersTuple = tuple_utils::mapTuple( *functorHandlerCallback, methodsTuple ); // создание из кортеж обработчиков-функторов экземпляра класса 'MyHandlerContainer' MyHandlerContainer<TValues...>* result = tuple_utils::callTuple( CreateCallback<TValues...>( multiProperty ), handlersTuple ); return result; } // если не все методы валидны assert( false ); return nullptr; } Реализация без index_sequence index_sequence появляется только в С++14. Если хочется использовать данные функции в С++11 (в котором и появился tuple), либо по каким-то иным причинам не хочется использовать index_sequence , либо просто интересно посмотреть на реализацию функций map и call без них, вот реализация: Map namespace tuple_utils { // сформировать новый tuple (tuple другого типа) из результатов вызова 'callback'а для каждого элемента tuple'а /* struct callback { template<std::size_t, class R, class T> R operator()( T&& element ) { // do something } }; mapTuple( callback(), myTuple ); */ template<class TCallback, class TSourceTuple> auto mapTuple( TCallback& callback, const TSourceTuple& sourceTuple ); namespace { template<std::size_t Index, class TCallback, class TSourceTuple, std::size_t... Indices> struct _map_ { auto static mapTuple_( TCallback& callback, const TSourceTuple& sourceTuple ) { const std::size_t idx = std::tuple_size<TSourceTuple>::value - Index; return _map_<Index - 1, TCallback, TSourceTuple, Indices..., idx>::mapTuple_( callback, sourceTuple ); } }; template<class TCallback, class TSourceTuple, std::size_t... Indices> struct _map_<0, TCallback, TSourceTuple, Indices...> { auto static mapTuple_( TCallback& callback, const TSourceTuple& sourceTuple ) { return std::make_tuple( callback.operator()<Indices>( std::get<Indices>( sourceTuple ) )... ); } }; } // template<class TCallback, class TSourceTuple> auto mapTuple( TCallback& callback, const TSourceTuple& sourceTuple ) { return _map_<std::tuple_size<TSourceTuple>::value, TCallback, TSourceTuple>::mapTuple_( callback, sourceTuple ); } } // tuple_utils Call namespace tuple_utils { // вызвать 'callback', принимающий в качестве параметров распакованный tuple /* struct callback { template<class TResult, class ...TParams> TResult operator()( TParams... params ) { // do something } }; callTuple( callback(), myTuple ); */ template<class TCallback, class TResult, class ...TParams> TResult callTuple( TCallback& callback, const std::tuple<TParams...>& tuple ); namespace { template<std::size_t Index, class TCallback, class TResult, class TTuple, class ...TParams> struct _call_ { static TResult callTuple_( TCallback& callback, const TTuple& tuple, TParams... params ) { const std::size_t idx = std::tuple_size<TTuple>::value - Index; return _call_<Index - 1, TCallback, TResult, TTuple, TParams..., typename std::tuple_element<idx, TTuple>::type>::callTuple_( callback, tuple, params..., std::get<idx>( tuple ) ); } }; template<class TCallback, class TResult, class TTuple, class ...TParams> struct _call_<0, TCallback, TResult, TTuple, TParams...> { static TResult callTuple_( TCallback& callback, const TTuple& tuple, TParams... params ) { return callback( params... ); } }; } // template<class TCallback, class TResult, class ...TParams> TResult callTuple( TCallback& callback, const std::tuple<TParams...>& tuple ) { return _call_<sizeof...( TParams ), TCallback, TResult, std::tuple<TParams...>>::callTuple_( callback, tuple ); } } // tuple_utils Подход к реализации данных функций одинаков: мы вручную «накапливаем» индексы (вместо index_sequence ) или параметры, а затем, в конце рекурсии, выполняем необходимые действия с уже полученным набором индексов/параметров. Хотя лично мне подход с индексами кажется более универсальным. Спасибо, что уделили время!
https://habrahabr.ru/post/318236/
habrahabr
Российские боевые наземные роботы
['роботы', 'оружие']
Мы с нетерпением ждём, когда роботы начнут активно входить в нашу жизнь. Например, беспилотные автомобили — это, по сути, самые настоящие роботы. А кто из нас не мечтал о домашнем механическом...
Мы с нетерпением ждём, когда роботы начнут активно входить в нашу жизнь. Например, беспилотные автомобили — это, по сути, самые настоящие роботы. А кто из нас не мечтал о домашнем механическом помощнике-слуге? Но многие упускают из виду, что все наиболее продвинутые технологии человечество сначала внедряет и обкатывает в одной и той же индустрии — индустрии войны. С роботами наверняка будет то же самое: самые совершенные образцы в первую очередь станут появляться в армиях разных стран, а потом уже проникать в гражданский сектор. Собственно, этот процесс уже давно идёт, просто о действительно передовых разработках военные не распространяются. Зато более простые боевые роботы уже превратились в обыденность. Более простые — это не автономные, а управляемые человеком. В первую очередь на ум приходят всевозможные беспилотники, в Ираке и Афганистане превратившиеся в символ западной демократии. Воздушные роботы сегодня наиболее развиты, но в будущих войнах большую роль будут играть и роботы наземные. Роботы-пионеры В нашей стране эксперименты с боевой наземной робототехникой велись с 1920-х годов. К началу войны на вооружении Красной Армии стояло несколько десятков телетанков — ТТ-26 и ТУ-26. Первые представляли собой лёгкие огнемётные танки Т-26 с аппаратурой дистанционного управления. Оператор находился в танке управления — ТУ-26 — и мог управлять телетанком на расстоянии 0,5—1,5 километра. Телетанки вполне успешно применялись во время советско-финской войны в 1940 году для прорыва укреплённых районов. Кстати, в войне с Финляндией ТТ-26 использовался и как самоходная мина: на него грузили несколько сотен килограммов взрывчатки, подгоняли к полевому укреплению и давали команду на подрыв. Однако самой известной — но тоже слишком дорогой и малоэффективной — самоходной миной стал немецкий « Голиаф »: крохотная танкетка, управлявшаяся по проводам; ящик с 65—100 кг динамита, оснащённый электродвигателем, аккумулятором и гусеницами. Развитие наземных роботов было приостановлено из-за несовершенства и ненадёжности аппаратуры управления, необходимости визуального контакта, неудобства управления на больших расстояниях, риска потери связи из-за пересечённого рельефа местности и неэффективности действий радиоуправляемого танка по сравнению с танком обычным. У страны было множество гораздо более важных задач. Сверхлёгкие малыши Спустя годы в СССР вернулись к идее создания радиоуправляемых роботов, но к каким-то значимым результатам это не привело. Как ни крути, а использовать людей было и эффективнее, и проще, и дешевле. Но с развитием технологий, изменением видения будущих войн и необходимостью вести противопартизанские боевые действия в многочисленных горячих точках боевые наземные роботы становились всё более востребованным видом вооружения. Лыжню начали прокладывать американцы со своими роботами сверхлёгкого класса. Сегодня они активно используются по всему Ближнему Востоку, играя роль разведчиков, сапёров и самоходных пулемётных точек. Такие роботы оснащаются видеокамерами, приборами ночного видения, лазерными дальномерами, манипуляторами для обезвреживания мин. В качестве вооружения чаще всего несут пехотные пулемёты, хотя на них ставят и противотанковые ракетные комплексы, и дробовики, и гранатомёты. А что же из сверхлёгкого класса есть у нас? Сапёрные роботы Инсектоидное название «Богомол-3» носит робот-сапёр, созданный в Миасском филиале Южно-Уральского госуниверситета. «Богомол» может дотянуться до мины на крыше микроавтобуса или под днищем машины с клиренсом всего в 10 см. Как и «Стрелец», робот-сапёр способен подниматься по лестницам. По заказу ФСБ в МГТУ им. Баумана был разработан и сапёрный робот «Варан» , который может использоваться и в качестве разведчика. Коротенькое видео, как устроен привод клешни-манипулятора: ссылка . Колёсный робот-сапёр «Вездеход-ТМ5» , помимо манипулятора, может нести на себе ещё и водомёт для разрушения взрывных устройств. Также он способен вести разведку, перевозить до 30 кг груза, открывать двери ключами, выбивать замки. «Кобра-1600» — ещё один отечественный робот-сапёр, способный преодолевать лестничные марши. Задачи у него всё те же: манипулирование объектами и видеонаблюдение. В Бауманке разработали платформу МРК — по сути, целое семейство сверхлёгких роботов разного назначения: боевых, сапёрных, спасательных и разведывательных. Среди них особо впечатляют МРК-46 и МРК-61 . МРК-46: МРК-61: Правда, их прадедушки «Мобот-Ч-ХВ» и «Мобот-Ч-ХВ2» выглядят ещё внушительнее. Они были созданы в 1986 году и предназначались для работы в условиях высокого радиоактивного фона: убирали радиоактивные обломки с крыши третьего блока Чернобыльской АЭС. «Летальные» роботы Переходим к сверхлёгким роботам, несущим вооружение. Пулемётный робот «Стрелок» предназначен в основном для городских боёв. Он способен взбираться по лестницам и помогать в зачистке зданий. Оснащён тремя камерами и пулемётом Калашникова. МРК-27-БТ. Это вам не баран чихнул — гусеничная платформа размером с большую газонокосилку несёт на себе два реактивных огнемёта « Шмель », два гранатомёта РШГ-2 , пулемёт « Печенег » и дымовые гранаты. Весь этот арсенал быстросъёмный, то есть находящиеся рядом бойцы могут позаимствовать у робота его оружие. «Платформа-М» Сверхлёгкие боевые роботы — вещь хорошая, но у них своя ниша. Более-менее серьёзный бой им уже не по зубам: отсутствие брони и неспособность нести более тяжёлое вооружение, хотя бы крупнокалиберный пулемёт, серьёзно ограничивают их возможности и живучесть на поле боя. Поэтому в России активно развиваются роботы лёгкого-среднего класса. В первую очередь это « Платформа-М » . Как и в случае с МРК, это не конкретный вид робота, а целое семейство машин, построенных на базе унифицированного гусеничного шасси. В зависимости от установленного оборудования «Платформа-М» может быть машиной огневой поддержки, разведчиком, патрульным и сапёром. Вес робота — до 800 кг, полезная нагрузка — до 300 кг, радиус действия — до 1,5 км. Вооружение: пулемёт Калашникова, гранатомёт, ПТУР. Бронирование защищает робота от стрелкового оружия и небольших осколков. «Платформа-М» оснащена двумя электромоторами по 6,5 кВт, максимальная скорость — 12 км/ч. Аккумуляторов хватает на 6—10 часов движения. «Волк-2» Робот относится к среднему классу. « Волк-2 » был разработан на Ижевском радиозаводе. Это робот массой 980 кг, приводимый в движение бензиновым двигателем. Максимальная скорость — 45 км/ч, радиус действия — до 5 км. Варианты вооружения: Пулемёт Калашникова Крупнокалиберный пулемёт « Корд » или « Утёс » Гранатомёт АГ-17А или АГ-30/29 «Волк-2» оснащён лазерным дальномером, гиростабилизатором оружейной платформы, тепловизором и баллистическим вычислителем. Робот может захватывать и вести цель, открывать по ней огонь и с места, и в движении. Есть информация, что «Волк-2» будет использоваться для охраны стратегических ракетных комплексов « Ярс » и « Тополь-М ». «Нерехта» Фонд перспективных исследований и завод им. Дегтярёва в Коврове разработали робототехническую платформу «Нерехта». Гусеничное шасси весом около 1 тонны может комплектоваться как вооружением, так и разведывательной аппаратурой. «Нерехта» способна даже играть роль транспортёра. Есть вариант машины оптико-электронного подавления: робот на расстоянии до 5 км способен обнаружить оптические средства (прицелы, лазерные целеуказатели, камеры) и, подобравшись на 2 км, ослеплять их лазерным импульсом мощностью 4 МВт. Машина разведки и артиллерийского наведения: Силовая установка гибридная — дизель + электродвигатели. Дизельный мотор также заряжает аккумуляторы, и при необходимости «Нерехта» может проехать до 20 км только на электротяге. Максимальная скорость — 32 км/ч. Варианты вооружения: пулемёт Калашникова, крупнокалиберный пулемёт «Корд». И уже вот-вот должен появиться робот «Нерехта-2» с элементами ИИ и новым видом боеприпасов для поражения скрытых целей. «Соратник» Одна из наиболее свежих наших разработок в сфере боевых роботов. «Соратник» разработан концерном «Калашников» и относится к среднему классу. Способен выполнять задачи по разведке, патрулированию, разграждению. «Соратник» умеет действовать в связке с беспилотником. Максимальная дальность обнаружения целей — 2,5 км. Общая масса машины со всеми наворотами может достигать 7 тонн. Максимальная скорость — 40 км/ч, радиус действия — до 10 км. Вооружение: пулемёт Калашникова, крупнокалиберный пулемёт, гранатомёт АГ-17А, до восьми ПТУР « Корнет-Э ». Этот робот засветился в свежей передаче про действия бойцов Сил специальных операций в Сирии (5:20): Семейство «Уран» Десятитонный «Уран-9» вооружён по принципу «кашу маслом не испортишь»: 30-миллиметровая автоматическая пушка 2A72 (устанавливается и на БМП-2) Пулемёт Калашникова ПТУР « Атака » (либо ПЗРК « Игла ») Реактивные огнемёты «Шмель» Робот оснащён всем необходимым для своевременного обнаружения и поражения противника: лазерным дальномером, тепловизором, системой предупреждения о лазерном облучении, системой постановки дымовой завесы. Радиус действия — до 8 км. «Уран-6» — это инженерно-сапёрный робот. Он может оснащаться бульдозерным отвалом, бойковым, фрезерным или катковым тралами для разминирования. Это особенно актуально для очистки территорий, где раньше велись боевые действия, после чего остаётся множество мин и неразорвавшихся боеприпасов. Способен выдержать взрыв до 60 кг тротила. Причём «Уран-6» не просто тупо катается в надежде вызвать детонацию: на нём установлена аппаратура, позволяющая определять типы взрывчатых устройств — мины, снаряды, бомбы. Масса — 6 тонн, радиус действия — до 1 км. «Уран-14» — самый большой и тяжёлый из «Уранов». Правда, его предназначение не боевое, эта машина создавалась для тушения пожаров. Но при необходимости он может использоваться и для расчистки завалов и баррикад в зонах боевых действий. «Уран-14» оснащён пожарным насосом, цистерной для воды и пенообразующего реагента. Мощность двигателя — 240 л. с., масса — 14 тонн, максимальная скорость — 12 км/ч. Наверняка это далеко не полный перечень российских разработок. Но на то она и армия — свои новинки военные стараются не афишировать. Все вышеописанные роботы управляются людьми, но можно не сомневаться, что развитие искусственного интеллекта приведёт к появлению полностью автономных машин, которым человек понадобится лишь для технического обслуживания. К слову, танк Т-14 «Армата», насколько известно , может в будущем управляться полностью дистанционно, а значит, станет боевым роботом сверхтяжёлого класса. И если его оснастят ИИ, то останется только сказать «ой».
https://geektimes.ru/company/mailru/blog/283942/
habrahabr
История СУБД Oracle — первой коммерчески успешной реляционной СУБД
['Oracle', 'история it', 'субд', 'базы данных', 'конкуренция', 'ларри эллисон', 'реляционные базы данных']
До середины 70-х годов информация в базах данных распределялась по старинному иерархическому, или «древовидному», принципу, который до сих пор используется в настольных операционных...
До середины 70-х годов информация в базах данных распределялась по старинному иерархическому, или «древовидному», принципу, который до сих пор используется в настольных операционных системах. Первые прототипы реляционных СУБД существовали уже в 70-е годы ХХ века. Однако мало кто верил в возможность добиться эффективной реализации таких систем. Тем не менее, к концу 1980-х годов реляционные системы заняли на мировом рынке СУБД доминирующее положение. В связи с этим многие компании стали позиционировать свои СУБД как «реляционные» в рекламных целях. Но далеко не всегда они имели для этого достаточно оснований. Поэтому автор реляционной модели данных Эдгар Кодд в 1985 году опубликовал свои знаменитые «12 правил Кодда» , которым должна удовлетворять каждая РСУБД. Одним из первых прототипов реляционных баз данных была система System R. Это проект компании IBM, который появился в 1976 году. Он вдохновил будущих основателей Oracle на создание собственной реляционной СУБД , но сам так и не получил коммерческого успеха. Главным среди создателей Oracle был Ларри Эллисон, который вместе с Бобом Майнером и Эдом Оутсом до Oracle работал над проектом для ЦРУ. В ряде источников говорится , что ему было присвоено кодовое наименование «Oracle». В 1977 году молодой программист Ларри Эллисон бросил учебу в Йельском университете, чтобы начать собственный бизнес. В распоряжении Ларри Эллисона тогда было всего $1200. Он уговорил вложиться двух указанных выше друзей, но стартовый капитал от этого вырос всего на $500. 16 июня 1977 года Эдом Оутсом, Бобом Майнером и Ларри Эллисоном в Калифорнии (США) была основана компания Software Development Laboratories, вскоре переименованная в Relational Software Inc. Молодые программисты начали разработку системы управления базами данных (СУБД), построенной на принципах реляционной алгебры. Oracle 2 Первая коммерческая версия СУБД Oracle получила название Oracle 2. Такой ход должен был дать заказчикам понять, что система надежна и даже прошла проверку временем. В конце 70-х главным конкурентным преимуществом СУБД Oracle была высокая скорость обработки огромных массивов информации, которую отметили все эксперты. В отличие от System R, для работы которой был необходим мощный суперкомпьютер — мейнфрейм, Oracle 2 справлялась с обработкой информации на более «миниатюрных» машинах. Эти и другие преимущества привели к тому, что в начале 80-х годов СУБД начала стремительно распространяться. У Эллисона с коллегами возникли сложности при реализации совместимости с СУБД IBM System R. Нежелание IBM раскрывать исходные коды стало ключевой проблемой. В результате совместимости между двумя системами так и не удалось достичь. Ларри Эллисон — основатель Oracle Oracle стала исторически первой и одной из наиболее развитых реализаций архитектуры клиент/сервер. Переносимость и масштабируемость всегда имели высокий приоритет у разработчиков Oracle. Это сыграло ключевую роль в достижении успеха компании на рынке СУБД. Oracle 2 работала на мини-компьютере PDP-11 фирмы Digital Equipment в операционной среде RSX-11. Большая часть Oracle была написана на ассемблере PDP-11, а отдельные компоненты — на новом для того времени языке C. Уже в те дни система была портируемой и работала в других операционных средах PDP-11: IAS, RSTS и UNIX. Тогда же было принято решение о переносе Oracle в новую ОС VMS. Благодаря этому СУБД Oracle заняла обширную нишу корпоративных информационных систем на быстро растущем рынке VAX. Еще одной важной особенностью системы стала полная реализация возможностей нового языка запросов SQL — подзапросы, операция соединения и так далее. Благодаря этому многократно выросла производительность труда SQL-программистов. Стандартный SQL (IBM) был расширен операцией CONNECT BY, позволяющим обрабатывать древовидные структуры, что становится уникальным для SQL-систем. Конечно, над СУБД нужно было еще долго работать. В Oracle 2, например, не поддерживались транзакции: если в процессе обновления базы данных происходил сбой, предыдущее состояние БД восстановить было практически невозможно. Поэтому пользователи были вынуждены часто делать резервные копии базы данных во избежание потерь информации. 29 октября 1982 года компания переименована в Oracle Systems. Oracle 3 и 4 В 1983 году на рынок вышла Oracle 3. Она была полностью переписана на С. Это во многом помогло решить проблему переносимости Oracle на широкий спектр платформ – их тогда было не менее 20. Кроме того, было реализовано атомарное выполнение транзакций: операция либо выполнялась полностью, либо не выполнялась вообще, соответственно, транзакция либо завершалась успешно по всем изменениям базы данных, либо откатывала все сделанные ею изменения. С выходом Oracle 4 система была портирована на большие компьютеры c ОС VM и MVS, а также на персональный компьютер с 640 килобайтами оперативной памяти. Также была реализована модель контроля доступа к базе данных, которая гарантировала, что результат запроса не противоречит состоянию базы данных на начало запроса. Благодаря этому было устранено известное противоречие между процессами чтения и записи. Oracle 5 В 1985 году Oracle выпустила на рынок версию 5.0, в которой была впервые введена архитектура клиент/сервер. Кроме того, компания выпустила SQL*Net – сетевой продукт, обеспечивающий прозрачное соединение между клиентом и базой данных или между двумя базами данных. В версии 5.1 были впервые реализованы распределенные запросы — это давало возможность обращаться к данным, физически размещенным в разных узлах. Несколько взаимодействующих серверов могли создать у пользователя многих физически разнесенных баз данных иллюзию единой логической базы данных. 12 марта 1986 года состоялось первичное публичное размещение акций Oracle Corporation. Высокие темпы роста позволили Oracle выйти на IPO с прибылью в $55 миллионов в 1986 году и всего за три года удесятерить прибыль до $584 миллиона. Oracle 6 Разработчики версии 6 стремились создать инструмент построения крупномасштабных информационных систем, ориентированных на обработку транзакций в режиме реального времени. Были введены генераторы последовательностей и блокировка на уровне записи. В это же время Oracle стал первым многопользовательским сетевым сервером баз данных для OS/2, Xenix, Banyan Vines и Macintosh. В версии 6 были заложены принципиально новые возможности, в полном объеме реализованные позже: SQL-запросы могли использоваться совместно с конструкциями процедурного языка PL/SQL и посылаться для исполнения на сервер как анонимные процедуры; язык PL/SQL стал использоваться в SQL*Forms в качестве средства программирования приложений; в описание схемы базы данных на синтаксическом уровне были введены (в соответствии с ANSI/ISO-стандартом) декларативные определения ограничений ссылочной целостности. Кризис В 1990 году компания столкнулась с серьезными проблемами, сообщив о значительных убытках. Эллисону пришлось уволить более 400 сотрудников для сокращения издержек. Он также распустил практически весь топ-менеджмент, в числе которого были близкие Ларри люди, в течение 10 лет вместе с ним приумножавшие славу и благосостояние Oracle. Ларри оставил в компании Боба Майнера, которого всегда считал одаренным программистом и просто хорошим добрым человеком. Столь жесткие методы Ларри объяснил так: Мы были самой быстрорастущей компанией в истории компьютерной индустрии, но внезапно зашли в тупик и стали биться головой о стену, – сказал он. – Мы достигли миллиардного дохода, но столкнулись с практически неразрешимыми проблемами управления. Дело в том, что люди, управлявшие миллиардной компанией, остались такими же, как в те времена, когда наша компания стоила $15 миллионов. Я испытывал невероятное чувство признательности всем, кто работал со мной, всем, с кем вместе мы создавали Oracle. Но у меня не было выбора. Я должен был уволить их, понимая, что если этого не сделать, то вскоре просто не будет никакого Oracle. Я чувствовал, прежде всего, ответственность перед всей компанией, перед всем персоналом, всеми акционерами и клиентами. Кроме того, из-за совершенных ошибок в регистрации продаж и учёта ещё не прошедших сделок в бухгалтерских документах у Oracle возникли сложности с регуляторами на местном рынке. В результате Oracle оказалась близка к банкротству, а такие конкуренты, как Informix и Sybase, начали медленно увеличивать свою долю на рынке. На тот момент конкуренция между крупными игроками рынка достигла своего апогея — 90-ые могли запомниться многим, как период рекламной войны Oracle и Informix. Так, последняя выкупила билборд рядом с офисом Oracle и разместила на нем надпись «Осторожно, динозавры переходят дорогу», намекая на устаревшие технологии Oracle. Однако Ларри все-таки нашел решение: он сформировал новый управленческий штат, который был «натаскан» на громадные объемы производства и жесткую конкуренцию. В результате через определенное время Oracle снова вернулась на прежние высоты. А в 1992 году релиз Oracle 7 окончательно изменил ситуацию в лучшую сторону. Oracle 7 Помимо общего повышения эффективности ввода/вывода, использования центрального процессора и работы с памятью, версия СУБД Oracle 7 обладала рядом инновационных архитектурных решений: разделяемый SQL-кэш на сервере: сервер распознает посылаемые клиентами SQL-запросы, которые ранее уже были проанализированы и скомпилированы и в данный момент находятся в кэш-памяти, за счет чего экономится время анализа, оптимизации и трансляции, а также память, требуемая для хранения SQL-запросов; разделяемый пул процессов сервера вместо отдельного процесса для каждого клиента, что позволяет сэкономить значительный объем памяти. В области администрирования баз данных также был введен ряд новшеств: зеркальный журнал транзакций, динамическое создание журналов данных, команда ANALYZE, позволяющая собирать статистику об использовании таблиц, индексов и других физических объектов, профили пользователей на использование системных ресурсов – ЦПУ, ввода/вывода и так далее. В версии 7 были полностью реализованы декларативные ограничения ссылочной целостности в соответствии со стандартами ANSI/ISO. В рамках этих ограничений (первичные и внешние ключи) пользователь мог специфицировать каскадное удаление связанных с некоторым первичным ключом записей. Процедуры PL/SQL могли описываться на уровне схемы базы данных (хранимые процедуры) и вызываться любым приложением, другими процедурами и триггерами. Другим важным нововведением стали триггеры базы данных. Триггер представляет собой пару (событие+действие), где событие — это удаление/занесение/обновление записей таблицы, а действие (тело триггера) — процедура PL/SQL, выполняемая при совершении события. Триггеры могут определяться на уровне операций (DELETE, INSERT, UPDATE) или на уровне отдельных строк (FOR-EACH-ROW-триггеры, которые, к тому же, могут работать со старыми и новыми значениями строк). С помощью триггеров можно реализовать сложные правила контроля целостности, прав доступа, вывода значений и прочее. Управление безопасностью и целостностью существенно упростилось благодаря введению ролей. Роль — это совокупность прав доступа к объектам базы данных (INSERT, UPDATE, SELECT и другие) и системных прав (CREATE TABLE, ALTER SYSTEM и так далее). Определив роль, администратор базы данных может с помощью одной команды дать пользователю привилегии для работы с некоторым приложением. В 1994 году компания выпустила версию Oracle 7.1, в том числе и для IBM PC. Ранее Oracle не рассматривала эту платформу как серверную, а ограничивалась лишь созданием для нее клиентских частей своей СУБД. В Oracle 7.1 появилась опция параллельных запросов (parallel query option), а также возможность определения количества серверных процессов, необходимых для выполнения SQL-запроса, на основе результатов работы оптимизатора запросов. В данной версии была достигнута полная интеграция PL/SQL и SQL, введен встроенный пакет DBMS_SQL и асинхронная симметричная репликация данных вместе с асинхронным вызовом удаленных процедур. В 1994 году в России появился первый официальный представитель Oracle — Андреас Харт. Тогда же клиентами Oracle в России стали такие мощные структуры, как ФСБ, Кабинет Министров, Мосприватизация, МПС, РАО ЕЭС и так далее. Oracle 8 и 9 В 1997 году вышла версия 8, в которой появились объектная модель, новые свойства и средства администрирования. Oracle 8.0 была более надежной по сравнению с предыдущей версией, обладала большей устойчивостью к высоким нагрузкам. Кроме того, в ней была реализована возможность партиционирования таблиц. В 1998 году компания анонсировала Oracle 8i Release 1 (8.1.5). Буква «i» означает, что версия обладает поддержкой Интернета. Начиная с Oracle 8.1.5 в последующих версиях появляется встроенная в СУБД виртуальная машина Java (JVM). Далее вышла версия Oracle 8i Release 2 (8.1.6), которая поддерживала XML, а также содержала определенные новшества, связанные с созданием хранилищ данных. В 2001 году появилась версия Oracle 9i Release 1 (9.0.1), в которой было сделано более 400 изменений по сравнению с предыдущей. Среди них – «интеллектуализация» автоматизированных систем и расширение возможностей для аналитики. В новой версии появились средства обработки XML-документов, технология Oracle RAC (Real Application Clusters) – как замена Oracle Parallel Server (OPS), механизм создания репликаций Oracle Streams, скроллируемый курсор для программ на Си и C++, встроенная в СУБД поддержка OLAP и Data Mining, переименование столбцов и ограничений целостности, поддержка Java 1.3.1 и Unicode 3.1. Лучшие финансовые годы Согласно данным Giga Information Group (The RDBMS Market: An Update, апрель 2001 года), общий объем рынка СУБД в 2000 году возрос по сравнению с 1999 годом на 20% и составил в денежном выражении $8,8 миллиарда. Основные факторы развития: поддержка электронной коммерции, поддержка хранилищ данных и консолидация серверов. Примерное разделение рынка СУБД для платформы Unix. Примерное разделение рынка СУБД для платформы Windows NT. В 2004 году появилась версия Oracle 10g Release 1 (10.1.0). Буква «g» в названии обозначает «Grid» («сеть») и символизирует поддержку Grid-вычислений. Этот год стал одним из самых успешных в истории компании – норма прибыли составила 38% (самый высокий показатель за все время существования корпорации), годовой оборот возрос до 7% ($10,2 миллиарда), доходы от продаж ПО поднялись на 12% ($8,1 миллиарда), чистая прибыль выросла на 16% ($2,7 миллиарда). Офис Oracle в России и СНГ вошел в тройку лучших представительств Oracle по темпам роста в регионе ЕМЕА (Европа, Ближний Восток и Африка), а также пятый год подряд — в пятерку лучших среди 145 представительств Oracle в мире. До наших дней В 2005-м была анонсирована Oracle 10g Release 2 (10.2.0.1). А в 2007-м – Oracle 11g Release 1 (11.1.0.6). Состояние рынка СУБД на 2007 год В 2009 году компания выпустила Oracle 11g Release 2 (11.2.0.1). В версию была введена новая для Oracle возможность «горячего» (без остановки сервера) внесения изменений в метаданные и бизнес-логику на PL/SQL – это стало возможным благодаря механизму одновременной поддержки нескольких версий схемы и логики под названием editions. 2013 год — вышла версия 12c (12.1.0.1), основное новшество — поддержка подключаемых баз данных (pluggable database), обеспечивающая свойства мультиарендности и живой миграции баз данных, суффикс «c» в названии обозначает cloud (облако). 24 апреля 2015 года стало известно о планах Oracle перевести почти все свои продукты в облако. Таким образом, американская компания решила изменить свою бизнес-модель, чтобы соответствовать изменениям на рынке. В сентябре 2016 года Ларри Эллисон объявил о создании в Oracle дата-центров для работы с IaaS второго поколения и заявил, что лидерство компании Amazon на облачном рынке подходит к концу. Цель компании – предложить клиентам Oracle пакет услуг, где будут совмещены IaaS, PaaS и SaaS («ПО как услуга»).
https://habrahabr.ru/post/318234/
habrahabr
«Распределение в запросе» или «избавляемся от перебора»
['оптимизация запросов', 'распределение в запросе', 'перебор']
Хороший перебор — это отсутствие перебора. Рассмотрим пример замены полного перебора запросом. В свое время, года 3 назад, возникла необходимость оптимизации конфигурации 1С и устранения ее...
Хороший перебор — это отсутствие перебора. Рассмотрим пример замены полного перебора запросом. В свое время, года 3 назад, возникла необходимость оптимизации конфигурации 1С и устранения ее узких мест в одной компании. Одним из таких узких мест оказался, казалось бы, безобидный, механизм распределения товаров в реализации по сериям. Суть в том, что строк распределялось достаточно много и было это очень медленно. Не миллионы за раз, конечно, но на это самое распределение для одного документа могло уходить до минуты. Запрос специально привожу на T-SQL, т.к. думаю, что Хабравцам это будет ближе. В общем от этого дела становилось всем очень грустно, т.к. параллельно бухгалтера препроводили документы, другие операторы тоже формировали документы отгрузки и когда отгружали «большого» клиента – жизнь на некоторое время замирала. К слову сказать, размер базы 1С за 2-3 года на тот момент составлял ~500 Гб, заказов от одного клиента за день могло прийти десяток-другой, а в некоторых из них строк могло быть более 1000, в общем «Реализация товаров и услуг» на 1000 строк — это не было ничем сверхъестественным. Реиндексация, обновление статистики, шринк и другие необходимые процедуры проводились регулярно, но сейчас речь не об этом. Вернемся к нашему объекту оптимизации. На тот момент механизм распределения был до банального прост: Запросом получали остатки по сериям (Номенклатура – Серия – Количество). Другим запросом получали таблицу товаров к отгрузке (Номенклатура – Заказ покупателя – Количество). Проходил обыкновенный перебор для каждой номенклатуры по принципу « Пока КоличествоКРаспределению > 0 Цикл ……… ». Т.к. я всегда придерживался позиции, что сам факт перебора на больших объемах данных – это уже само по себе узкое место, то возможность «улучшения» алгоритма перебора я даже рассматривать не планировал. Нужна была альтернатива. Также на тот момент я уже давно набил руку в оптимизации сложных запросов и укрепился в выводе, что нет ни одной задачи, которую нельзя было бы решить исключительно запросом и точно знал, что качественный запрос (пакет запросов) в 99% случаев окажется самым эффективным решением, чем какая-либо пост-обработка результатов запроса. Вопрос оставался только в нахождении этого решения). Выходил я на перекур с достаточно тривиальным условием задачи (распределить количество по измерениям одной таблицы на количество по измерениям из другой) и 2-мя тезисами: Мы имеем 2 таблицы, которые и так собираются запросом. SQL не знает никакого «Распределить». SQL знает только «больше», «меньше», «равно» (утрированно). Надо дать ему некий параметр для сравнения. Числовой параметр, по которому будет понятно какое количество еще можно распределить в условную строку. И в этот самый момент, когда я мысленно проговаривал второй тезис, слово « еще » и натолкнуло меня на решение. Далее, рисуя палочкой на снегу, я не успел докурить, как уже побежал пробовать свою гипотезу в консоли запросов. Рассмотрим ниже простой пример: У нас есть складские ячейки с количеством вмещаемого в них товара с одной стороны (A, B, C, D) и сам товар (X, Y, Z), который необходимо «как-то» разложить по этим ячейкам, но так, чтоб в ячейку не положили больше товара, чем может быть в ней места. A – 10 мест B – 1 место C – 5 мест D – 8 мест X – 13 шт Y – 1 шт Z – 4 шт Результатом должна стать таблица распределения: A-X-10 B-X-1 C-X-2 C-Y-1 C-Z-2 D-Z-2 Для этого нам надо определить порядок распределения, сделать это оказалось до банального просто: select t1.Cell, t1.Qty, ISNULL(sum(t2.Qty),0)+1 as OrderBottom, ISNULL(sum(t2.Qty),0)+t1.Qty as OrderTop into OrderedCells from Cells as t1 left join Cells as t2 on t1.Cell > t2.Cell Group by t1.Cell, t1.Qty Кстати, здесь же можно учесть и порядок распределения, если, например, в какие-то ячейки товар надо класть в первую очередь. Решается изменением условия в соединении. Тоже самое и с товарами: select t1.Goods, t1.Qty, ISNULL(sum(t2.Qty),0)+1 as OrderBottom, ISNULL(sum(t2.Qty),0)+t1.Qty as OrderTop into OrderedGoods from Goods as t1 left join Goods as t2 on t1.Goods > t2.Goods Group by t1.Goods, t1.Qty Для простоты понимания разложу все эти позиции поштучно в таблице и наложу одну на другую в порядке распределения: Нам просто нужно написать граничные условия. А теперь осталось просто соединить эти таблицы и получим наш результат: select OrderedCells.Cell, OrderedGoods.Goods, case when OrderedGoods.OrderTop < OrderedCells.OrderTop then OrderedGoods.OrderTop else OrderedCells.OrderTop end - case when OrderedGoods.OrderBottom > OrderedCells.OrderBottom then OrderedGoods.OrderBottom else OrderedCells.OrderBottom end + 1 as Qty from OrderedCells inner join OrderedGoods on OrderedCells.OrderBottom <= OrderedGoods.OrderTop and OrderedCells.OrderTop >= OrderedGoods.OrderBottom Сразу оговорюсь, что в запросе умышленно добавлено большее количество полей, чем надо. Можно было бы обойтись и одной границей распределения (нарастающим итогом) и не делать «+1», но как мне показалось – в таком виде это более наглядно для понимания. Оптимизацию запросов мы в этой теме не рассматриваем, поэтому и индексы здесь тоже не описаны. Ну а более сложные алгоритмы распределения (по нескольким измерениям, например) решаются только изменением условий соединения и проверки границ. Вот и все. В итоге вместо минут ожидания на тех же объемах данных этот запрос выполнялся считанные миллисекунды. Прошу простить за обилие лирики в этой статье. Хотелось дать не математическое решение узкой задачи, а поделиться концептуальным подходом к решению подобных задач, именно ходом своих мыслей.
https://habrahabr.ru/post/318240/
habrahabr
IBM Watson поможет NASA бороздить просторы Вселенной
['ibm', 'ibm watson', 'когнитивная система', 'суперкомпьютеры']
У НАСА очень много сложных проектов, реализация которых — жизненно важная задача. Причем внимание необходимо уделять не только основным задачам, но и промежуточным, чисто техническим. В число...
У НАСА очень много сложных проектов, реализация которых — жизненно важная задача. Причем внимание необходимо уделять не только основным задачам, но и промежуточным, чисто техническим. В число таких задач входит удержание орбиты космическими аппаратами, маневрирование в космическом пространстве, сближение аппаратов с различными объектами и друг с другом. Оператору в таких ситуациях нужно принимать решение очень быстро, в противном случае многолетняя миссия может быть сорвана из-за небольшой ошибки. Кроме того, у агентства накопился огромный объем информации о космическом пространстве и объектах, которые в нем находятся. Все эти данные теперь поможет обработать IBM Watson. «Есть очень много данных, которые представляют собой первичную, неструктурированную информацию, много текстовых данных, которые человек прочитать просто не в состоянии», — заявил Крис Коделла (Chris Codella), представитель подразделения IBM Watson. Как известно, наша когнитивная система может анализировать огромные объемы информации, выявляя связи между отдельными элементами. IBM Watson может найти буквально иголку в стоге сена, если она там есть, причем все это — за считанные секунды. Например, система анализирует связи между отдельными научными работами, она способна помочь поставить правильный диагноз пациенту или решить важную проблему в сфере кибербезопасности. IBM 100 помогал специалистам НАСА просчитывать данные при реализации программы «Аполлон» Системы IBM используются НАСА уже более полувека. Все началось с установки в центре НАСА имени Лэнгли мейнфрейма IBM, при помощи которого специалисты агентства просчитывали правильные траектории движения космических аппаратов. Сейчас, кстати, готовится фильм «Hidden Figures», где рассказывается о том, как женщина из Ленгли программировала эту систему. Речь идет о математике Кэтрин Джонсон, которая работала с мэйнфреймом еще до того, как Джон Гленн отправился в космос. А что сейчас? Подразделение Watson сейчас работает с НАСА над программой, цель которой — обеспечить астронавтов в процессе полета важной информацией, которая поможет принимать сложные решения. Данные будут передаваться с Земли. Сейчас НАСА пытается воссоздать условия инцидента, случившегося с одним из самолетов несколько лет назад, для того, чтобы проверить возможности Watson. Специалисты уже проверили, сможет ли когнитивная система обеспечить пилота данными, которые помогут избежать проблемы, которая случилась ранее. Сама ситуация не раскрывается полностью, но известно, что несколько лет назад пилоту удалось посадить самолет, хотя в процессе полета он и допускал ошибки, которые могли привести к серьезной аварии. В рамках теста Watson обеспечил пилота информацией о летательном аппарате, проблеме с оборудованием и погодными условиями в районе полета. Все это позволило пилоту лучше понять ситуацию и принять правильное решение. Предварительные испытания завершены успешно, в следующем году планируется начать реализацию последующего этапа. Первый мейнфрейм IBM располагался в большом помещении кампуса центра им. Лэнгли. Сейчас ситуация в корне отличается, поскольку IBM Watson представляет собой облачный сервис, работать с которым можно удаленно. Проблемы с этим нет, если работа с сервисом осуществляется на Земле. А вот в космосе или на другой планете ситуация уже иная — здесь в любом случае будет «лаг», то есть задержка между отсылкой данных и получением ответа. Впрочем, и здесь возможны различные сценарии использования Watson. Это, например, анализ системой состояния астронавтов с поиском возможных способов лечения человека в случае, если тот заболел. Здесь уже секундный или даже минутный лаг роли не играет. IBM также предлагает поручить Watson управлять космическим аппаратом — например, полетом и высадкой марсохода. В этом случае лаг играет большую роль, но особой проблемы здесь нет, поскольку сервер с IBM Watson в том либо ином варианте можно будет отправить в космос. Дело в том, что сейчас продолжается процесс миниатюризации техники, в том числе и серверного оборудования, так что в ближайшем будущем такой вариант не выглядит невозможным. В любом случае, Watson уже помогает агентству анализировать громадные массивы данных, просчитывать различные варианты операций и выбирать оптимальное решение из всех возможных.
https://habrahabr.ru/company/ibm/blog/318246/
habrahabr
В защите McAfee для банкоматов обнаружена опасная уязвимость
['антивирусы', 'mcafee', 'банкоматы', 'софт', 'уязвимости']
Специалист отдела анализа приложений Positive Technologies Максим Кожевников обнаружил опасную 0-day уязвимость в защитной системе для банкоматов Solidcore, являющуюся частью продукта McAfee...
Специалист отдела анализа приложений Positive Technologies Максим Кожевников обнаружил опасную 0-day уязвимость в защитной системе для банкоматов Solidcore, являющуюся частью продукта McAfee Application Control (MAC). Ошибка позволяет злоумышленнику осуществлять выполнение произвольного кода и повышать привилегии в системе. В чем проблема Уязвимость нулевого дня CVE-2016-8009 была найдена в ходе работ по анализу защищенности банкоматов одного из крупных банков. Система Solidcore используется во множестве банкоматов под Windows для выявления и блокирования вредоносных файлов с помощью белых списков, а также для контроля привилегий запущенных процессов. Изначально система Solidcore была продуктом компании Solidcore Systems, но в 2009 году ее купила компания MacAfee, которую в свою очередь купила корпорация Intel. В настоящее время Solidcore является частью продукта McAfee Application Control (MAC), хотя на рынке многие до сих пор используют старое название. Уязвимость, обнаруженная экспертом Positive Technologies, позволяет неавторизованному пользователю воспользоваться IOCTL-обработчиком одного из драйверов для повреждения памяти ядра OC Windows. Эксплуатация уязвимости может привести к выполнению произвольного кода с правами SYSTEM, повышению пользовательских привилегий от Guest до SYSTEM или аварийной остановке ОС. В процессе исследования данная уязвимость позволила управлять компонентами Solidсore по требованию и выполнять действия с правами SYSTEM — в частности, отключать взаимодействие Solidcore с сервером управления ePolicy Orchestrator, отключать блокировку консоли управления Solidcore, отключать защиту паролем, выполнять внедрение кода в любые системные процессы. Имея доступ к уязвимому драйверу, атакующий может воспользоваться им для добавления вредоносного ПО в белые списки Solidcore без необходимости полностью отключать защиту и связь с сервером управления, тем самым не вызывая подозрения и записей в логах. Зная о подобной уязвимости, хакеры могут успешно провести атаку на интересующий их банк с помощью специально подготовленных вредоносных программ. И подобные атаки уже имели место. В частности, в 2014 году был обнаружен троян для банкоматов Tyupkin, который отличается именно тем, что умеет отключать Solidcore , чтобы скрыть свою вредоносную активность. Благодаря этому трояну преступники смогли похитить сотни тысяч долларов из банкоматов Восточной Европы без привлечения внимания. Как снизить риск Компания Intel Security выпустила патч для обнаруженной ошибки. По мнению экспертов Positive Technologies, снизить риск использования драйвера злоумышленниками можно, если разработчики предусмотрят механизм авторизации пользователя для обращений к функциям диспетчеризации драйвера. Если это невозможно, диспетчеризация запросов на ввод-вывод должна выполняться в соответствии с требованиями SDL для WDM. Что касается защитных мер на стороне клиентов, то есть банков, главной мерой является регулярный аудит защищенности банкоматов, а также создание политик по безопасной настройке банкоматов и постоянный контроль соответствия этим политикам. Такой контроль позволит существенно повысить защищенность банкоматов от атак, эксплуатирующих простейшие уязвимости, такие как обход режима киоска и отсутствие пароля на BIOS. А для выявления таргетированных атак в реальном времени рекомендуется использовать системы мониторинга событий безопасности ( SIEM ), которые позволяют детектировать подозрительные действия или сочетания действий, такие как подключение к банкомату необычных устройств, внезапная перезагрузка, слишком частое нажатие клавиш или выполнение запрещенных команд.
https://habrahabr.ru/company/pt/blog/318250/
habrahabr
Как работает Drag в физике Unity
['Unity3D', 'физика', 'drag']
Осознавая что мои статьи похожи на восторг человека, впервые увидевшего какую-то (многим уже давно знакомую) вещь, все же решил написать очередную. Причина — заинтересовавший меня параметр drag у...
Осознавая что мои статьи похожи на восторг человека, впервые увидевшего какую-то (многим уже давно знакомую) вещь, все же решил написать очередную. Причина — заинтересовавший меня параметр drag у компонента Rigidbody . Объяснений и, тем более, формул — как он работает — руководства не дают. Поэтому разбираться придется самому. Если кому-то лень читать, можно перелистать вниз, где находится найденный алгоритм того, как в Unity работает замедление с использованием drag. При знакомстве с физикой в Unity первое, чему учат, это тому, что Rigidbody — воплощение физических свойств объекта. У него есть пара параметров, задающих его взаимодействие с окружающим миром. Собственно, наиболее значимый для динамических объектов: масса . С ней все интуитивно понятно: закон Ньютона и все такое… Приложили силу кратковременно — получили импульс и, соответственно, изменили скорость объекта. Прикладываем длительное время: получаем ускорение в зависимости от массы. Кроме этого, у Rigidbody есть интересный параметр — drag . Выражаясь словами разработчиков: параметр drag задает drag объекта. На их языке drag — это замедление, торможение. Других объяснений — не дается. Говоря о физике и торможении, в голову приходит что-то из баллистики (аэродинамики, гидродинамики и пр.). Возможно, drag — это некий коэффициент, пропорциональный квадрату скорости. Это было бы разумно. Но. Простой опыт показывает, что в Unity тела с большим значением drag не двигаются вообще. Гравитация на них не влияет, толкнуть их невозможно. Но при этом они стоят, то есть квадрат их скорости равен нулю. Значит тут все не так просто… или же, наоборот, не все так сложно. Физика в компьютерных играх должна просчитываться быстро, а значит возможны упрощения относительно реальной физической модели. Хотя реализовать игру, скажем, с релятивистскими эффектами было бы забавно… Первый вопрос, которым я задался: хотя бы, масса в Unity ведет себя как масса? Эксперимент показал, что — да. Проверка массы/гравитации Для начала, в простой сцене я запустил шарик с массой 1 с высоты 5 метров на плоскость. Триггер на плоскости останавливал таймер, так что я мог наблюдать время падения шарика. Расчетное время падения для него должно составлять: t = sqrt(2* h / g ), где h — высота, g — ускорение свободного падения. В нашем случае ( h =5м, g =9.81м/с^2) t ≈ 1.0096. Запуск показал значение 1.02, что близко к нужному. Встроенная гравитация — это хорошо. Хотелось бы проверить, не жульничает-ли она? Отключаем гравитацию для Rigidbody и взамен вручную создаем действующую силу: void FixedUpdate() { rb.AddForce(0, -9.81f, 0); } Результат оказался тот же самый ( t =1.02). Неплохо. Для действующей силы были затем использованы несколько разных значения. И всегда изменение действующей силы ( rb.AddForce(0, xxx , 0); ) вызывало изменение времени «падения», совпадающее с расчетным. Так что модель взаимодействия сил и массы оказалась вполне знакомой, ньютоновской. Далее для проверки и сравнения встроенного физического движка и имитируемого, я создал два шарика. Один двигался под действием гравитации, другой под действием скрипта. Причем в этот раз никаких сил не было. Изменения в скорости считались «вручную» в коде. Для начала стоило проверить простое падение без замедления ( drag =0). Код, двигающий второй шарик был довольно прост: void FixedUpdate() { Vector3 newVelocity = rb.velocity + gForceVector * rb.mass * Time.deltaTime; rb.velocity = newVelocity; } rb — это компонент Rigidbody сферы. gForceVector — вектор гравитации (0, 9.81, 0). Пока все совпадает. Теперь, левому шарику увеличиваем drag ( drag =2). Он стал падать медленнее: Интересный факт. Увеличение параметра drag до больших значений (бо́льших или равных примерно 50) приводило к тому, что шарик вообще не двигался. Изменение массы объекта никак не влияло на этот факт, что привело к мысли, что параметр drag — кинематический, то есть он зависит (и влияет) на положение, скорость, ускорение и т.д., не принимая в расчет силы или импульс. Что еще могло влиять на алгоритм, где фигурировал drag? Возможно, частота обновления физики. Хотя это означало бы не самый лучший ход со стороны разработчиков. Но чем черт не шутит. Поменяем время обновления физики до 0.005 секунд. Зависимость все же имеется. Однако, похоже, это вычислительные ошибки. Дальнейшие увеличения частоты обновления физики существенно время падения не меняют. Что, кстати, означает, что где-то в коде разработчиков должно быть что-то вроде " ...*Time.fixedDeltaTime ". Итак, что мы знаем про параметр drag ? Он — кинематический (считается после действия всех сил). Умножается (хотя возможно и не он сам) на Time.fixedDeltaTime и уменьшает скорость. Самое простое, что можно было бы придумать с такими условиями, выглядит примерно так: void FixedUpdate() { Vector3 newVelocity = rb.velocity + gForceVector * rb.mass * Time.deltaTime; newVelocity = newVelocity - newVelocity*myDrag*Time.deltaTime; rb.velocity = newVelocity; } Новое действие выглядит довольно примитивно: одно умножение и одно вычитание (с поправкой на то, что действия осуществляются с векторами). Однако, с чего-то нужно начать. Проверяем этот код, для удобства автоматически присваивая переменной myDrag (из скрипта второй сферы) значение параметра drag первой сферы. drag=1 drag=3 drag=15 drag=50 Собственно, здесь оба шарика так и не начали движение. Мне просто надоело ждать. Итак, результат получился для меня неожиданный. Примитивный алгоритм, который задумывался как начальная точка, от которой бы я дальше отталкивался — оказался конечной точкой. Похоже, именно так и считается замедление в Unity с использованием параметра drag . С другой стороны — проще, значит быстрее (в плане времени выполнения). Дальнейшие эксперименты расхождений между моим скриптом и встроенной физикой почти не показали. Почти. Оставалась одна мелочь. При значении drag =100 мой второй, движимый скриптом шарик, величественно поплыл вверх. drag=100 В общем-то, этого следовало ожидать, исходя из алгоритма. Однако, в Unity подобного не наблюдается. Следовательно, нам осталась одна простейшая модификация кода: void FixedUpdate() { Vector3 newVelocity = rb.velocity + gForceVector * rb.mass * Time.deltaTime; newVelocity = newVelocity * Mathf.Clamp01(1f - myDrag*Time.deltaTime); rb.velocity = newVelocity; } Теперь, «отрицательное» движение исключено и мы имеем полноценную имитацию действия сил и торможения движка Unity . Физический аналог непосредственно параметра drag подобрать проблематично. Можно лишь сказать, что он определяет нелинейное трение (или нелинейное сопротивление — кому как удобнее). При этом сам алгоритм прост и, вероятно, быстро выполняем. А потому, если от физической модели не требуется какой-то особой достоверности или большой предсказуемости — использование параметра drag не лишено смысла.
https://habrahabr.ru/post/318254/
habrahabr
Уровни изоляции транзакций с примерами на PostgreSQL
['postgresql', 'transactions', 'isolation levels', 'read committed', 'serializable']
Вступление В стандарте SQL описывается четыре уровня изоляции транзакций — Read uncommited (Чтение незафиксированных данных), Read committed (Чтение зафиксированных данных), Repeatable read...
Вступление В стандарте SQL описывается четыре уровня изоляции транзакций — Read uncommited (Чтение незафиксированных данных), Read committed (Чтение зафиксированных данных), Repeatable read (Повторяемое чтение) и Serializable (Сериализуемость). В данной статье будет рассмотрен жизненный цикл четырёх параллельно выполняющихся транзакций с уровнями изоляции Read committed и Serializable . Для уровня изоляции Read committed допустимы следующие особые условия чтения данных: Неповторяемое чтение — транзакция повторно читает те же данные, что и раньше, и обнаруживает, что они были изменены другой транзакцией (которая завершилась после первого чтения). Фантомное чтение — транзакция повторно выполняет запрос, возвращающий набор строк для некоторого условия, и обнаруживает, что набор строк, удовлетворяющих условию, изменился из-за транзакции, завершившейся за это время. Что же касается Serializable, то данный уровень изоляции самый строгий, и не имеет феноменов чтения данных. ACID или 4 свойства транзакций Прежде чем приступим к рассмотрению уровней изоляции транзакции в паре слов вспомним об основных требованиях к транзакционной системе. Atomicity (атомарность) — выражается в том, что транзакция должна быть выполнена в целом или не выполнена вовсе. Consistency (согласованность) — гарантирует, что по мере выполнения транзакций, данные переходят из одного согласованного состояния в другое, то есть транзакция не может разрушить взаимной согласованности данных. Isolation (изолированность) — локализация пользовательских процессов означает, что конкурирующие за доступ к БД транзакции физически обрабатываются последовательно, изолированно друг от друга, но для пользователей это выглядит, как будто они выполняются параллельно. Durability (долговечность) — устойчивость к ошибкам — если транзакция завершена успешно, то те изменения в данных, которые были ею произведены, не могут быть потеряны ни при каких обстоятельствах. Уровень изоляции Read Committed По умолчанию в PostgreSQL уровень изоляции Read Committed. Такой уровень изоляции всегда позволяет видеть изменения внесённые успешно завершёнными транзакциями в оставшихся параллельно открытых транзакциях. В транзакции, работающей на этом уровне, запрос SELECT (без предложения FOR UPDATE/SHARE) видит только те данные, которые были зафиксированы до начала запроса; он никогда не увидит незафиксированных данных или изменений, внесённых в процессе выполнения запроса параллельными транзакциями. По сути запрос SELECT видит снимок базы данных в момент начала выполнения запроса. Однако SELECT видит результаты изменений, внесённых ранее в этой же транзакции, даже если они ещё не зафиксированы. Также заметьте, что два последовательных оператора SELECT могут видеть разные данные даже в рамках одной транзакции, если какие-то другие транзакции зафиксируют изменения после выполнения первого SELECT. Суть уровня изоляции Read Committed показана на диаграмме 1. Примечание: В таблице уже находится запись с первой версией данных (v1). Прошу воспринимать команды SELECT v1; — как команду возвращающую данные версии v1, а UPDATE v1 to v2; — как команду обновления данных с первой версии до второй. Создадим к базе-данных 4 подключения и откроем в каждом из подключений по транзакции с уровнем изоляции Read Committed Шаг 1. В начальный момент времени до каких-либо изменений данных всем транзакциям доступна изначальная версия данных (v1); Шаг 2. В ходе работы Первой транзакции данные без каких либо блокировок успешно обновляются до «второй версии» (v2); Шаг 3. Изменения сделанные в Первой транзакции будут видны только ей самой (SELECT возвращает v2), и не будут доступны остальным транзакциям (SELECT запрос во Второй и Четвёртой транзакциях возвращает v1); Шаг 4. Закрытие Первой транзакции. Все изменения сделанные в ходе её работы успешно фиксируются; Шаг 5. После закрытия Первой транзакции (предыдущий шаг), изменения сделанные в ходе её выполнения над данными (обновление с v1 до v2) были распространены на остальные транзакции, SELECT запрос в оставшихся 3 открытых транзакциях возвращает v2 («Неповторяемое чтение», отличите уровня изоляции Read Committed от Serializable); Шаг 6. Запрос на обновление данных во Второй транзакции до «третьей версии» успешно выполняется, но запросы на обновление данных блокируют изменяемые строки на дальнейшее их изменение, до завершения Второй транзакции; Шаг 7. Из-за блокировки наложенной на данные в предыдущем шаге, Третья транзакция переходит в режим ожидания с запросом на удаление данных. Ожидание Третьей транзакции будет происходить до закрытия Второй транзакции; Шаг 8. Несмотря на то, что Третья транзакция ожидает закрытия Второй, как Вторая так и Четвёртая транзакции без каких либо проблем продолжают свою работу, возвращая данные согласно своим версиям. Вторая возвращает v3, Четвёртая возвращает v2; Шаг 9. Закрытие Второй транзакции приводит к разблокированию данных для изменения. Уровень изоляции Read Committed позволяет продолжить работу Третьей транзакции без вызова ошибки. Получив доступ на изменение новой версии данных (v3) Третья транзакция УСПЕШНО тут же их «удаляет» (отличие Read Committed от Serializable); Шаг 10. До закрытия Третьей транзакции, данные будут удалёнными только внутри Третьей транзакции. Четвёртой транзакции до закрытия Третьей данные доступны (SELECT запрос в Четвёртой транзакции возвращает v3); Шаг 11. Закрытие Третьей транзакции. Все изменения сделанные в ходе её работы успешно фиксируются; Шаг 12. Запрос на получение данных в Четвёртой транзакции ничего не возвращает («Фантомное чтение», SELECT запрос возвращает 0 записей). Примечание. На диаграмме не показано действие запроса INSERT. В рамках данного уровня изоляции, строки добавленные, например в шаге 3, в Первой транзакции, были бы ВИДНЫ остальным транзакциям после завершения Первой транзакции. Частичная изоляция транзакций, обеспечиваемая в режиме Read Committed, приемлема для множества приложений. Этот режим быстр и прост в использовании, однако он подходит не для всех случаев. Приложениям, выполняющим сложные запросы и изменения, могут потребоваться более строго согласованное представление данных, например Serializable. Уровень изоляции Serializable Изоляция уровня Serializable обеспечивает беспрепятственный доступ к базе данных транзакциям с SELECT запросами. Но для транзакций с запросами UPDATE и DELETE, уровень изоляции Serializable не допускает модификации одной и той же строки в рамках разных транзакций. При изоляции такого уровня все транзакции обрабатываются так, как будто они все запущены последовательно (одна за другой). Если две одновременные транзакции попытаются обновить одну и туже строку, то это будет не возможно. В таком случае PostgreSQL принудит транзакцию, вторую, да и все последующие, что пытались изменить строку к отмене (откату — ROLLBACK). Суть уровня изоляции Serializable показана на диаграмме 2. Создадим к базе-данных 4 подключения и откроем в каждом из подключений по транзакции с уровнем изоляции Serializable Шаг 1. Всем транзакциям доступна изначальная версия данных (v1); Шаг 2. В ходе работы Первой транзакции данные без каких либо блокировок успешно обновляются до «второй версии» (v2); Шаг 3. Изменения сделанные в Первой транзакции будут видны только ей самой (SELECT возвращает v2), и не будут доступны остальным транзакциям (SELECT запрос во Второй и Четвёртой транзакциях возвращает v1); Шаг 4. Запрос на обновление данных в первой транзакции (шаг 2), блокирует обновляемые строки, и переводит в режим ожидания Вторую транзакцию с запросом на удаление данных. Блокировка транзакций на обновляемые данных будет происходить до закрытия Первой транзакции; Шаг 5. Несмотря на то, что Вторая транзакция ожидает закрытия Первой, как Третья так и Четвёртая транзакции без каких либо проблем продолжают свою работу, возвращая данные согласно своим версиям; Шаг 6. Завершение Первой транзакции снимает блокировку с обновляемых данных, но в рамках уровня изоляции Serializable повторное обновление данных в параллельных транзакциях запрещено, и поэтому в ходе выполнения Второй транзакции возникает ошибка (отличие Serializable от Read Committed); Шаг 7. Запрос SELECT во Второй транзакции становится не возможным, так как ошибка возникшая на предыдущем шаге отменяет («блокирует») транзакцию. Запрос SELECT в Третьей и Четвертой транзакциях возвращают первоначальную версию данных (v1). Несмотря на то, что Первая транзакция была завершена успешно, изменения не стали видны остальным открытым транзакциям (отличие Serializable от Read Committed). Открытие Пятой транзакции в левом верхнем окне; Шаг 8. Закрытие Второй транзакции. Все изменения сделанные данной транзакцией будут отменены, из-за возникшей ошибки в ходе её работы; Шаг 9. Запрос SELECT в Пятой транзакции возвращает новую версию данных (v2). Запрос SELECT в Третьей и Четвёртой транзакциях возвращают первоначальную версию данных (v1); Шаг 10. Уровень изоляции Serializable всё также не даёт обновлять данные, запрос UPDATE в Третьей транзакции завершается не удачно, с вытекающими последствиями для хода всей транзакции (несмотря на то, что Первая транзакция уже удачно завершилась, и все внесённые ей изменения сохранены в базе данных). А вот запрос UPDATE в Пятой транзакции завершается успешно, так как она открыта после завершения Первой транзакции, и работает с новой версией данных; Шаг 11. Закрытие Третьей транзакции. Все изменения сделанные данной транзакцией будут отменены, из-за возникшей ошибки в ходе её работы; Шаг 12. Транзакция Четыре всё также показывает, что у транзакций с SELECT запросами никаких нет проблем, а Пятая транзакция получает уже обновлённые же собой данные (v5). Примечание. На диаграмме не показано действие запроса INSERT. В рамках данного уровня изоляции, строки добавленные, например в шаге 3, в Первой транзакции, были бы НЕ ДОСТУПНЫ Второй, Третьей и Четвёртой транзакциям после завершения Первой транзакции. Также на диаграмме не показан результат ROLLBACK (Шаги 8 и 11). В случае если бы Вторая и Третья транзакции делали какие либо изменения над не заблокированными данными, то все эти изменения не были бы зафиксированы, так как транзакции завершаются неудачно (суть свойства — Atomicity). Уровень изоляции Serializable гарантирует, что все затронутые в транзакции данные не будут изменены другими транзакциями. На этом уровне появление "фантомов" исключается, поэтому становятся возможными сложные конкурентные операции. На практике такой уровень изоляции требуется в учетных системах. Для транзакций содержащих только SELECT запросы, использование уровня изоляции Serializable оправдывает себя тогда, когда вы не хотите видеть внесённые изменения параллельно завершёнными транзакциями в ходе работы текущей транзакции. Аномалия сериализации (Потерянное обновление) Ещё один феномен чтения данных, описывается тем, что результат успешной фиксации группы транзакций оказывается несогласованным при всевозможных вариантах исполнения этих транзакций по очереди. Сориентируйте, пожалуйста, меня в комментариях, если я заблуждаюсь насчёт того, что аномалия сериализации и потерянное обновление связанные между собой феномены. Документация на сайте PostgreSQL PRO пишет, что Read Committed допускает «Serialization Anomaly» . Отечественная Wikipedia, не настаивая на то, что таблица относится именно к PostgreSQL, пишет, что Read Commited предотвращает аномалию сериализации . Английская Википедиа о таком феномене чтения данных умалчивает . Но немецкая Википедия приводит в своей версии таблицы феномен «Lost Updates» , указывая на то, что Read Committed может быть не подвержен потере обновлений с дополнительной защитой через курсор (Cursor Stability). Украинская Википедия поддерживает русскоязычную версию статьи, испанская Википедия поддерживает английскую версию статьи. Англоязычная документация по PostgreSQL не отличается от документации с сайта PostgreSQL PRO. Cursor Stability расширяет блокировочное поведение уровня READ COMMITED для SQL-курсоров, добавляя новую операцию чтения (Fetch) по курсору rc (означает read cursor, т.е. чтение по курсору) и требуя, чтобы блокировка устанавливалась на текущем элементе курсора. Блокировка удерживается до тех пор, пока курсор не будет перемещен (пока не измениться его текущий элемент) или закрыт, возможно, операцией фиксации. Естественно, транзакция, читающая по курсору, может изменить текущую строку (wc – запись по курсору), и в этом случае блокировка по записи этой строки будет сохраняться до тех пор, пока транзакция не зафиксируется, даже после передвижения курсора с последующей выборкой следующей строки. Вот такой результат получился в PostgreSQL 9.6 Итог: 149. Заключение Понимание уровней изоляции транзакций является важным аспектом при обработке данных в любой многопользовательской СУБД. Уровни изоляции обладают четко определенными характеристиками и поведением. Более высокие уровни изоляции уменьшают возможности параллельной обработки данных и повышают риск взаимной блокировки процессов. Поэтому корректное использование уровней в зависимости от задач приложений всегда является выбором разработчика в зависимости от требований к обеспечению логической целостности данных, к скорости и к возможности параллельной многопользовательской обработки. Литература » MVCC Unmasked » 13.2. Изоляция транзакций » Критика уровней изолированности » Уровни изоляции транзакций в SQL. Шпаргалка » Уровень изолированности транзакций » … the lost update phenomena
https://habrahabr.ru/post/317884/
habrahabr
Программирование игровых приложений на Corona SDK: часть 1
['lua', 'corona sdk', 'gamedev']
ВажноЭтот туториал рассчитан на людей, у которых есть опыт программирования на Lua, если нет, то отправляйтесь исправлять ситуацию. Но он отлично подойдет и для тех, кто никогда не программировал...
Важно Этот туториал рассчитан на людей, у которых есть опыт программирования на Lua, если нет, то отправляйтесь исправлять ситуацию. Но он отлично подойдет и для тех, кто никогда не программировал на Lua. Что такое Corona SDK? Corona SDK — это кроссплатформенный игровой движок, использующий Lua для описания игровой логики. Позволяет экспортировать приложения под различные платформы, в том числе и мобильные. Возможность экспорта под такие платформы: Windows Mac OS iPhone/iPad Android tvOS Начнем! Регистрируемся на официальном сайте , скачиваем Corona SDK, с установкой проблем возникнуть не должно. После установки, запускаем ярлык «Corona Simulator», который должен появиться на рабочем столе. Откроется менеджер проектов и специальная консоль. Нажимаем «New project». Вводим название проекта, остальное оставляем, как есть, нажимаем на «OK». Должно открыться такое окно. И папка проекта в проводнике. Приступаем к программированию Я использую «Notepad++» для редактирования кода, но подойдет любой, другой текстовый редактор. Открываем файл «main.lua». После открытия, вы увидите, что-то вроде этого. Я буду использовать эти изображения, которые я нарисовал в программе «Graphics Gale». Нужно закинуть их в корень папки проекта. Игрок. Трава. Для начала, подключим физику, загрузим изображения и назначим координаты для игрока. local physics = require("physics") physics.start() -- запускаем физику. player = display.newImage("player.png") -- загружаем изображение. player.x = 100 player.y = 100 -- меняем координаты игрока. physics.addBody(player,"dynamic") -- включаем физику для игрока, "dynamic" объекты - действуют за законами гравитации. Нажимаем Ctrl + S, если вы все сделали правильно, игрок начнет падать вниз. Добавим землю grass_block={} -- массив блоков for i=0,5 do grass_block[i]=display.newImage("grass.png") grass_block[i].x=grass_block[i].x+i*64 grass_block[i].y=player.y+100 physics.addBody(grass_block[i],"static") -- "static" объекты - игнорируют гравитацию. end Результат: Заключение Вот такой вот получился краткий урок. В следующем уроке, я расскажу, как сделать управление игроком, добавлю фон, и расскажу тонкости настроек для мобильных платформ.
https://habrahabr.ru/post/318256/
habrahabr
Segment routing: как и почему
['networking', 'cutting edge', 'cisco', 'mpls']
Операторы связи и большие корпорации, оценившие все достоинства MPLS, вынуждены мириться с несколькими control plane протоколами в своей сети. IGP+LDP стал де-факто стандартом в ядре сети. Вместе с...
Операторы связи и большие корпорации, оценившие все достоинства MPLS, вынуждены мириться с несколькими control plane протоколами в своей сети. IGP+LDP стал де-факто стандартом в ядре сети. Вместе с этим известно, что протокол OSPF расширяем за счет opaque LSA, протокол IS-IS уже много лет успешно расширяется добавлением новых TLV. А что если добавить MPLS метку непосредственно в IGP? И можно ли избавиться от не слишком гибкого RSVP? Приверженцев оптимизации прошу под кат. В статье не рассматриваются основы MPLS, и автор рассчитывает на то, что читатель как минимум неплохо ориентируется в терминологии. Что не так с LDP и RSVP? Во-первых, это дополнительный control plane протокол, который должен тесно и в правильном порядке взаимодействовать с IGP. Отсюда ldp igp sync в терминологии Cisco и прочие замечательные техники управления взаимодействием IGP-LDP. Неправильно сконфигурированный интерфейс может привести к сбросу трафика. Такие проблемы не всегда легко диагностировать и исправить. Во-вторых, любой control plane протокол потребляет ресурсы оборудования. В частности для классического IOS дополнительные процессы опасны еще и тем, что вся ОС работает в одном пространстве памяти. Другими словами, segfault в одном приложении может привести к крэшу всего устройства. В теории. На самом деле LDP и RSVP у большинства вендоров работают хорошо и стабильно. Но мы, как заядлые оптимизаторы, конечно же, хотели бы от них избавиться. Стоит сказать, что с точки зрения форвардинга segment routing может быть реализован с использованием протоколов MPLS и IPv6. Речь пойдет исключительно о forwarding plane с MPLS. Избавляемся от LDP Рабочая группа SPRING предложила переложить функции протоколов распространения меток на IGP, а LSP строить сегментами . Сегмент представляет собой часть (или весь) LSP до конкретного маршрутизатора. Для назначения меток используется выделенный диапазон, чтобы не пересекаться с классическими протоколами. Его называют SRGB — segment routing global block. Этот блок может отличаться на разных устройствах, хотя при возможности лучше использовать одинаковый, чтобы окончательно не запутаться. Однако метка для достижения конкретного PE при этом должна быть уникальной. При этом метка на всем сегменте не изменяется. Важно понимать, что операция swap производится в любом случае, просто in и out метки совпадают. По умолчанию устройства на платформе IOS XR используют значения 16000-23999 для SRGB. И, поскольку блоки могут отличаться, информация о них анонсируется через IGP. С блоком понятно. Но как маршрутизаторы приходят к соглашению о значению метки для определенного FEC? На каждом устройстве должен быть сконфигурирован уникальный SID — segment identifier. Существуют Node SID и Adjacency SID, о последних — чуть ниже. Для определения метки, которая будет закреплена за лупбэком устройства, к нижней границе SRGB прибавляется Node SID. Например, если SRGB начинается с 16000, а устройству присвоен SID 5, то метка для достижения лупбэка устройства будет равна 16005. Эту метку будут использовать все устройства по пути следования (swap 16005 -> 16005). Пример конфигурации для IOS XR router isis SR net 49.0000.0000.0001.00 address-family ipv4 unicast metric-style wide level 2 segment-routing mpls sr-prefer ! включаем SR для IGP и одновременно ! делаем его приоритетным по отношению к LDP interface lo0 address-family ipv4 unicast prefix-sid index 5 ! указываем SID для loopback PE маршрутизатора Почему вдруг речь пошла о лупбэках? Дело в том, что SR — это технология для построения пути до конкретного PE устройства. Другими словами, речь идет о транспортных метках. А достичь PE устройство — значит достичь его лупбэка. Распространение и назначение сервисных меток, будь то L2VPN, L3VPN или другие технологии, не изменяется. Все тот же MP-BGP будет необходим для построения сервисов, все те же сервисные метки будут располагаться внизу стека. Чуть выше я сказал, что SID устройства должен быть уникальным. Так вот, это наглая ложь. Adjacency SID имеет локальное значение. Маршрутизатор генерирует Adjacency SID для каждого SR соседа автоматически, и значение никак не пересекается с SRGB. Конфигурировать в этом случае ничего не нужно. Как и все остальное, такие метки распространяются протоколом IGP. Это дает возможность передавать трафик через определенный интерфейс. Как указать интерфейс, если метка может не быть уникальной? Здесь все просто: для этого используется стек меток, где верхняя метка — Node SID, а нижняя — Adjacency SID. Избавляемся от RSVP LDP всем хорош, вот только следует пути, который выбрал IGP, и полосу резервировать не умеет. При необходимости построить путь передачи трафика отличный от того, что выбрал IGP, на помощь приходит RSVP-TE с его explicit paths. В случае с построением пути, отличным от лучшего по мнению IGP, SR может заменить функционал RSVP прямо из коробки: достаточно просто создать стек меток, который полностью опишет путь. Например, если нам нужно, чтобы трафик отправлялся через Router A до Router B, в стеке транспортных меток будет сначала SID Router A, а затем SID Router B. Признаться, с точки зрения конфигурации мало что изменяется: в explicit path используются все те же IP адреса. И сразу ответ на часто возникающий вопрос: да, оверхед увеличивается. Если необходимо точно определить путь из десяти маршрутизаторов, то в стеке будет 10 меток. Однако такие сценарии на практике встречаются очень редко. Обычно хватает нескольких меток, чтобы решить конкретную задачу. TE-туннель с использованием SR router isis SR address-family ipv4 unicast mpls traffic-eng level-2 mpls traffic-eng router-id Loopback0 ! ! interface tunnel-te10 ipv4 unnumbered loopback0 destination 192.168.0.1 path-selection segment-routing adjacency protected ! protected - для использования FRR path-option 1 explicit name PATH1 segment-routing ! ничем не отличается от explicit-path для RSVP А полосу-то как резервировать? С этим пока сложно. Сейчас нет проблем с тем, чтобы запустить CSPF. Проблема заключается в том, что для резервирования полосы пропускания необходимо состояние на маршрутизаторе, которое описывает значение зарезервированной ПП для каждого LSP. Поэтому концепт резервирования полосы требует введения понятия PCE. PCE — path computation element — это контроллер, который общается с маршрутизаторами по протоколу PCEP. Этот контроллер может рассчитывать TE туннели с использованием CSPF, в том числе с атрибутом bandwidth. Замечу, что PCE и SR — это не единственная существующая комбинация. С не меньшим успехом PCE может работать с RSVP, LDP и даже статически назначать метки. В общем случае задача PCE заключается в том, чтобы установить сразу forwarding state на устройство через протокол PCEP. Разумеется, для расчета пути PCE должен знать существующую топологию. Рассказать PCE о топологии можно сделав его частью топологии, т. е. подключив его к IGP домену. Альтернативный вариант — BGP-LS сессия с контроллером. PCE способен отслеживать текущую загрузку интерфейсов и перестраивать путь прохождения туннелей, если это требуется. Другими словами, этот элемент можно назвать SDN контроллером поверх существующей MPLS сети. Однако даже краткое описание PCE — это тема как минимум отдельной статьи. Поэтому я оставлю здесь ссылки на популярные open source проекты, которые в том или ином виде поддерживают PCEP: это ONOS и ODL — а мы вернемся к SR. Что в итоге? Все выглядит очень красиво и оптимистично, но где же это применить? Давайте рассмотрим несколько сценариев. 1. Замена протоколу LDP. Мы разобрались, что заменить RSVP без PCE будет затруднительно, когда используется bandwidth reservation. Поэтому как полноценную замену RSVP без дополнительных элементов в сети SR рассматривать не станем. А что касается LDP, то в теории этот протокол можно выключить и распространять транспортные метки через IGP. Однако этот сценарий едва ли приносит достаточно преимуществ, учитывая риски, на которые придется идти при редизайне сети. К тому же не всегда каждое устройство в сети поддерживает SR. Это можно решить с помощью дополнительной конфигурации, когда несколько устройств являются границей между SR и LDP доменом. Однако факт наличия такой конфигурации заставляет еще больше задуматься о плюсах и минусах решения. Говоря откровенно, сейчас нет причин заменять LDP на SR просто для того, чтобы заменить. 2. Topology independent LFA. LFA или IP FRR не работает в произвольных топологиях. Например, в кольцевой топологии маршрутизатор не сможет рассчитать запасной путь, поскольку любой путь приведет к петле. Однако используя инкапсуляцию в MPLS, трафик можно сбросить не только соседу, но и удаленному устройству. Здесь SR имеет практический смысл. Разумеется, эту же задачу можно решить с помощью RSVP, но решение с SR выглядит более элегантным. В качестве примера представьте упомянутую кольцевую топологию, где OSPF cost между всеми маршрутизаторами одинаков. Допустим, каждый маршрутизатор вычисляет LFA для определенного пути. Как видно, единственный альтернативный путь при маршрутизации по IP приведет к образованию петли. Другими словами, в чистой IP сети LFA вычислить невозможно. Поэтому необходмо «сбросить» трафик чуть ближе к резервируемым префиксам, для чего прекрасно подойдет SR. LFA с использованием SR router isis SR interface Gi0/0/0/1 address-family ipv4 unicast fast-reroute per-prefix ! здесь мы просто включаем LFA. Эта команда обязательна fast-reroute per-prefix ti-lfa ! а здесь разрешаем TI LFA 3. SDN. Исопользование SR в совокупности с PCE. Здесь и RSVP заменить можно, и полосу динамически отслеживать, и API организовать для сторонних инструментов. Разумеется, этот перечень скуден и не претендует на полный список всего, чего можно добиться с внедрением PCE в сеть. Но с транспортной точки зрения во главе всего станут гибкость управления сетью, возможность конфигурации intra-AS LSP (включая TE, L2VPN и пр.), простота конфигурации и развертывания сервисов. К тому же, PCE не требует редизайна сети и может работать поверх существующего forwarding plane. Здесь меня снова понесло немного в сторону от SR. Однако связка SR+PCE выглядит очень многообещающей. И именно в этой связке segment routing раскрывает все свои преимущества. 4. Управление трафиком в больших сетях. У Cisco есть нетривиальный подход к построению больших операторских сетей, который называется Unified MPLS . В иной терминологии тот же подход может называться Seamless MPLS. Сети с SR смогут стать отличной и более прозрачной альтернативой этому подходу. Если вы представляете, какие усилия необходимо приложить для проектирования и конфигурации сети с использованием Unified MPLS с нуля, SR может вам приглянуться. Взаимодействие LDP и SR Я намеренно оставил этот раздел напоследок. Во-первых, далеко не всегда необходимо, чтобы SR и LDP взаимодействовали. Во-вторых, неплохо бы понимать, какие задачи могут быть решены с помощью SR до того, как переходить к вопросам взаимодействия с LDP. Наиболее часто решаемые вопросы взаимодействия возникают при миграции с LDP на SR или при отсутствии поддержки SR на части устройств в сети. В IOS XR конфигурация SR безопасна. По умолачнию метки, полученные по LDP, имеют больший приоритет. Для того чтобы LDP ушел на второй план, необходимо сказать маршрутизатору segment-routing mpls sr-prefer в IGP процессе. При этом совершенно необязательно делать SR предпочитаемым на всех маршрутизаторах сразу. Эта команда локальна, и факт предпочтения SR никак не сообщается другим устройствам сети. При наличии устройств, которые не поддерживают SR, необходимо сконфигурировать несколько устройств в качестве Mapping server . Я говорю несколько только из соображений отказоустойчивости — для функционирования будет достаточно одного устройства на границе SR/LDP сетей. Mapping server получает метки по LDP, а затем анонсирует SID'ы от имени устройств, которые не умеют SR. При этом data plane не должен проходить через mapping server — это control plane устройство. Все маппинги, которые придумал сервер, анонсируются его клиентам через IGP. Каждое устройство должно быть сконфигурировано как клиент, чтобы получить маппинги для LDP сетей. Сами маппинги задаются вручную. При этом в случае использования двух и более mapping servers ожидается, что маппинги на них будут сконфигурированы идентично. Конечно, сеть не сломается от неверно сконфигурированного маппинга, но в случае аварии сходимость может пострадать. Mapping server и mapping client ! Server segment-routing mapping-server prefix-sid-map address-family ipv4 10.10.20.1/32 254 range 255 ! несколько SID для пула префиксов (10.10.20.1,2 ... 255) ! адреса и SID просто инкрементируются ! длина префикса не обязательно должна быть 32. 10.10.10.10/32 400 ! один SID для /32 префикса ! ! ! router isis GEOR address-family ipv4 unicast segment-routing prefix-sid-map advertise-local ! а это заставит анонсировать маппинги в IS-IS ! Client router isis GEOR address-family ipv4 unicast segment-routing prefix-sid-map receive ! только получать маппинги. Сами ничего не анонсируем Имея mapping server можно защищать LSP, построенные протоколом LDP, в TI LFA. Другими словами, MPLS сервисы, метки для которых сгенерированы классическими протоколами, могут защищаться с использованием SR. Существует множество сценариев взаимодействия LDP и SR, в их числе LDPoSR и SRoLDP. Чуть более подробное описание можно найти по одной из ссылок, приведенных ниже. На этом мое короткое повествование о segment routing завершено. Хочу заметить, что материал в статье не рассматривает все нюансы SR и оставляет многое за кадром. Многое из того, что осталось за кадром, можно найти по ссылкам ниже. Благодарю за внимание. Ссылки на ресурсы IETF: » SR draft » PCEP Очень полезный ресурс по SR: Cisco SR Одна из сессий на Cisco Live: Introduction to Segment Routing
https://habrahabr.ru/post/317158/
habrahabr
Я сегодня опять заработал на Bitcoin: почему это плохо?
['bitcoin', 'криптовалюта', 'вопросы']
Итак, мой виджет заурчал, запищал, заскрипел — и, в общем, подал все намёки на то, что с курсом Bitcoin что-то не то. Вновь. Рост до 850 и выше. И я — получил профит (примерно 10-16 тыс....
Итак, мой виджет заурчал, запищал, заскрипел — и, в общем, подал все намёки на то, что с курсом Bitcoin что-то не то. Вновь. Рост до 850 и выше. И я — получил профит (примерно 10-16 тыс. руб. с битка — покупал по-разному, но от 37 000 рублей за крипто-монету). И посему — опять разочаровался: да, я не инвестор-миллиардер; да, для меня — это не главный доход жизни. Но именно потому, что в btc заложен немыслимый рост. А главное — спекуляции. Вспомним, что монеты в “цифровом золоте” ограничены по эмиссии: казалось бы, вот оно — средство от инфляции, кою когда-то выдумали ради того, чтобы не было масштабных срывов экономики по типу Великой Депрессии. Но что на деле? На деле: Те же спекуляции и при этом — ещё и огромные колебания, где разрыв даже в 100$ не кажется чем-то из ряда вон. Сравнить, скажем, с очень ликвидными акциями Сбербанка РФ — достаточно, чтобы понять, о чём речь. Тот же подход , согласно которому бит-вложения — золото, которое не так уж и нужно, особенно в разрезе процесса майнинга, который теперь далёк от настоящих шахт и труда. Те же инструменты : биржи, обменные пункты, гаранты… Если коротко: суть не изменилась. Да, придумали хорошую технологию. Да, дали ей ценность. Да, создали сообщество. Но самое главное — принципы: вот они остались теми же. Да, это — спорный вопрос и каждый решает его по-своему: но именно такой ответ ещё раз подтверждает, что в обществе пока ничего не изменилось. Колебания — были, а результат — ровно тот же самый. Bitcoin заменил [собой] доллар . Этого уже немало? Возможно. Но всё же речь о другом: я бы назвал это «психологией стартапов», когда до 1 000 000 000 можно вырасти за год. Или за два. Или даже за три. Но о том, чтобы пройти этот путь за 100 лет — речи и быть не может! Этот подход давно и планомерно убивает Планету (раз уж это заметил не кто-нибудь, а Р. Брэнсон, наверняка что-то да не так?); из-за подобной позиции целые страны были отброшены на годы и даже десятилетия назад в 2008, 1997-1998 (можно продолжить); из-за этого подхода мы свято верим в С. Джобса, который плевать хотел на друзей, на применение детского труда при создании любимых гаджетов (которых, к слову, его собственные дети были намеренно лишены по большей части), и вполне конкретно назван в огромном-томе биографии и известной книге — му… ком. Вокруг (можно даже почитать подшивку Хабра) — множество разговоров о том, что деньги — цель, но средство. Но как только речь заходит о том, что сказано выше — сразу же переходим на посыл: “а чего добился ты?”. К слову, ответ на самом деле никого не интересует, если ты — не инвестор и не известный бизнесмен. Парадокс. Абсурд. Апория даже. Но все эти измышления имеют под собой вполне конкретные посылы: изменив форму, но не изменив содержания — получим ещё один шаг в процессе потребления, а не восстановления. используя старые инструменты в новых подходах — максимально рискуем уничтожить саму суть новации. само движение рынка как массового бессознательного — это, опять же, из эпохи ушедшей, когда человек жил, подчиняясь реакциям, но не воздействуя на них. Да, всё это — опасения одно из семи с лишним миллиардов. Одного, чьём мнение далеко от массового авторитета. Но пусть оно лучше будет высказано, чем в очередной раз буду смотреть на то, как под гром аплодисментов гибнет светлая идея. P.S. Это была неплохая попытка: пока она не стала массовой. Но именно массовость может довести её до абсурда и даже — модернизировать.
https://habrahabr.ru/post/318264/
habrahabr
Спутники ЕКА обнаружили «струйное течение» из жидкого металла в ядре Земли
['жидкое ядро', 'ядро земли', 'алмазы', 'образвание алмазов']
Стрелками обозначены струи жидкого металла. Также на схеме показаны орбиты трех спутников системы Swarm, благодаря которым удалось обнаружить это явление Европейское космическое агентство...
Стрелками обозначены струи жидкого металла. Также на схеме показаны орбиты трех спутников системы Swarm, благодаря которым удалось обнаружить это явление Европейское космическое агентство опубликовало информацию о том, что в недрах нашей планеты обнаружено необычное струйное течение, которое находится глубоко под поверхностью. При помощи спутников ЕКА обнаружило поток шириной до 420 километров на глубине около 3000 километров. Этот поток циркулирует со скоростью в 40-45 километров в году. Спутники Swarm ЕКА , которые и помогли сделать открытие, предназначены для наблюдения за магнитным полем Земли. Миссия Swarm состоит из трех спутников, находящихся на различных полярных орбитах высотой от 460 до 530 км. Масса каждого спутника составляет 472 килограмма. Изменения магнитного поля нашей планеты спутники фиксируют с 2013 года. Сейчас принято считать, что магнитное поле Земли генерируется токами в жидком металлическом ядре планеты. Правда, еще в 1934 году Т. Каулинг показал, что механизм генерации магнитного поля ядром вовсе не обеспечивает его устойчивости. Вопрос происхождения и сохранения поля актуален до сих пор — гипотез есть много, но в полной мере все эффекты магнитного поля Земли ни одна из них не объясняет. Длительные наблюдения помогли выяснить, что напряженность поля постепенно падает, причем в разных регионах по-разному. В среднем за 20 лет падение составило около 1,7%. Но в некоторых регионах напряженность упала сразу на 10%. Есть и регионы, где показатель, наоборот, увеличился. Тем не менее, теория «геомагнитной динамо-машины» используется подавляющим большинством специалистов. Считается, что движение жидкого железа во внешнем ядре обуславливается постоянной потерей тепла внутренним ядром. Как известно, сама наша планета состоит из нескольких слоев. Первый — это земная кора, затем мантия, внешнее ядро, с быстрым вращающимся слоем расплавленных железа и никеля, а также внутреннее ядро, которое, по мнению большинства ученых, представляет собой огромный расплавленный шар из железа. Температура его достигает нескольких тысяч градусов. Никто еще не наблюдал ядро, но ученые косвенными методами доказали, что оно существует и в общих чертах отразили его строение. Благодаря спутникам стало возможным, проанализировав магнитное поле и его структуру, создать схему ядра, где и были выявлены потоки жидкого металла. «Спутники Swarm Европейского космического агентства помогли получить наиболее точный рентгеновский снимок ядра», — говорится в заявлении ЕКА. «Мы не только увидели эти потоки впервые, но теперь и понимаем, почему они вообще существуют». Как выяснилось, скорость такого течения примерно в три раза выше скорости течения жидких составляющих внешнего ядра. И в тысячи раз выше движения тектонических плит Земли. По мнению специалистов, скорость течения жидкого металла постоянно увеличивается. С 2000 года этот показатель вырос в несколько раз. Пока что ученые не могут объяснить факт ускорения этого течения, но, вероятно, это естественное явление. «На данный момент мы знаем о Солнце больше, чем о ядре Земли. И открытие этого явления — шаг на пути к получению дополнительной информации о внутренних механизмах нашей планеты», — заявил один из участников исследовательской группы Крис Финлэй, ученый из Датского технического университета. Ранее была опубликована работа другой группы ученых, которой удалось подтвердить существование жидкого металла в недрах Земли. Специалисты изучили несколько тысяч осколков, которые остались после огранки особо крупных алмазов высокой степени чистоты. Осколки, которые анализировались, принадлежали 53 крупнейшим алмазам. Чем крупнее алмаз, тем меньше в нём примесей азотных соединений — в большинстве случаев дело обстоит именно так. Как оказалось, эти осколки содержат включения сплавов железа, углерода, никеля, серы. Такого рода включения являются доказательством того, что алмазы формировались в насыщенной металлами среде. Вполне может быть, говорят геологи, что алмазы такого типа формируются в так называемых «карманах» мантии, которые заполнены жидким металлом. Здесь есть все необходимые условия (в частности, температура и давление) для зарождения драгоценного камня. В «карманах» мантии, заполненных жидким металлом, под воздействием высокой температуры и давления могут возникать и формироваться алмазы. А за счет динамики слоев мантии алмазы иногда оказываются в кимберлитовых трубках Возраст и местонахождение крупных алмазов говорят о том, что процесс алмазообразования происходит в мантии постоянно, в самых разных регионах Земли. Плюс ко всему, анализ образцов позволяет утверждать и то, что жидкие металлические фазы тоже не редкость, в мантии они образуются достаточно часто.
https://geektimes.ru/post/283952/
habrahabr
Развертывание тестового кластера VMware Virtual SAN 6.2
['vmware', 'esxi', 'vsphere', 'vsan', 'HCI', 'SDS', 'СХД', 'storage']
Введение Передо мной была поставлена задача — развернуть кластер VMware Virtual SAN 6.2 для тестирования производительности, анализа возможностей, особенностей и принципов работы...
Введение Передо мной была поставлена задача — развернуть кластер VMware Virtual SAN 6.2 для тестирования производительности, анализа возможностей, особенностей и принципов работы гиперконвергентной программной СХД от VMware. Кроме того, созданный тестовый стенд должен стать платформой для разработки и апробирования методики тестирования распределенных СХД, в т.ч. для гиперконвергентных инфрастуктур (HCI). Результатов тестирования и описания его методики в данной статье не будет, вероятно этому будет посвящена отдельная публикация. Данная статья будет полезна специалистам, которые впервые сталкиваются с развертыванием кластера VMware Virtual SAN 6.2. Я постарался указать подводные камни, на которые можно напороться при поднятии кластера, что позволит значительно сократить время и нервы на их обход. Описание тестового стенда Железо 4 идентичных хоста в следующей конфигурации: Платформа — AIC SB302-LB (3U 16-Bay Storage Server, не сертифицирован под vSphere 6.2) Процессор — Intel® Xeon® CPU E5-2620 v4 @ 2.10GHz – 8 ядер, включен hyper-threading – 2шт. ОЗУ – 128 ГБ NVMe-flash — HGST Ultrastar SN150 HUSPR3216AHP301, 1,6ТБ PCIe – 2шт (сертифицирован под Virtual SAN 6.2, только под all-flash, по данным HGST также сертифицирован под гибрид) HDD — HGST Ultrastar 7K6000 HUS726020AL5214 2ТБ 7200 rpm SAS 12Гбит/с – 8шт (не сертифицирован под Virtual SAN 6.2, только под 6.5) Загрузочный носитель – SSD 60ГБ Дисковый контроллер — LSI Logic Fusion-MPT 12GSAS SAS3008 PCI-Express (сертифицирован под vSphere 6.2, но не сертифицирован под Virtual SAN 6.2) 2 порта 1GbE 2 порта IB 40Гбит/с – на HCA Mellanox ConnectX-2/ConnectX-3 в режиме IPoIB IB-коммутатор Mallanox SB7790 ПО: VMware vSphere 6.2 vCenter Server Appliance 6.0.0.20100 ESXi 6.0.0.4600944 Версия драйвера Mallanox ConnectX-3 для VMware для работы в режиме IPoIB: MLNX-OFED-ESX-2.4.0.0-10EM-600.0.0.2494585 Описание кластера Virtual SAN Пробная лицензия vSphere — полный фарш vCenter Server Appliance развернут в виде ВМ на выделенном локальном загрузочном SSD одного из хостов Кластер HA из 4х хостов, на нем же развернут кластер Virtual SAN (vSAN) Virtual SAN задействует все носители 4х узлов кластера vSphere (за исключением загрузочных SSD): 8 идентичных дисковых групп (ДГ) – по 2 на хост; каждая ДГ включает 1 NVMe-flash под кэш и 4 HDD под capacity. Получаем гибридное хранилище с сырой общей ёмкостью 57,64ТБ — 32 capacity drive по 1,82ТБ (реальная ёмкость диска 2ТБ) Установка ESXi, драйверов, vCenter и патчей Подготовка и первоначальное развертывание Для начала необходимо проверить совместимость имеющегося серверного оборудования с ПО VMware vSphere и Virtual SAN. При этом нужно учитывать, что совместимость железа с нужной версией vSphere не гарантирует его совместимости с Virtual SAN. Поэтому следует сразу проверять совместимость оборудования именно с vSAN (Virtual SAN). Для этого заходим на ресурс VMware Compatibility Guide , выбираем Virtual SAN в поле «What are you looking for:» и получаем множество возможностей по поиску и базовому конфигурированию готовых решений сертифицированных для работы с vSAN (Virtual SAN Ready Node). Это будет полезно для тех, кто собирается развернуть у себя новый кластер VMware vSAN и без лишних заморочек выбрать готовые хосты от полюбившегося вендора, сертифицированные VMware под его объемы и нагрузки. Инструмент подбора заранее проверенных «кубиков» для построения HCI. Если мы не хотим мириться с тем, готовые системы для наших задач будут не совсем оптимальны, слишком дороги или избыточны. Если мы хотим самостоятельно выбрать каждый элемент хоста так, чтобы он идеально подходил для целевых нагрузок. Если мы хотим убедиться в совместимости vSAN с имеющимся оборудованием и при необходимости докупить недостающие узлы. Во всех этих случаях нам необходимо посмотреть чуть ниже и щёлкнуть по ссылке « Build Your Own based on Certified Components ». После того как мы убедились, что имеющееся железо полностью (или не совсем, как в моём случае) совместимо с vSAN необходимо скачать ПО vSphere. Для тестовых целей можно зарегистрироваться на сайте VMware и совершенно бесплатно скачать дистрибутивы ESXi и vCenter нужной нам версии и некоторые другие компоненты при необходимости. В начале ноября 2016 на момент подготовки к развертыванию была доступна версия VMware vSphere и Virtual SAN – 6.2 (6.0 update2). В конце ноября появилась версия 6.5, однако я не стал торопиться и проводить тесты на слишком свежем и непропатченном решении, остановился на 6.2. VMware дает возможность в течении 60 дней пользоваться тестовой полнофункциональной версией vSphere (Enterprise Plus), при этом нет необходимости отдельно скачивать и устанавливать vSAN, он входит в дистрибутив гипервизора (ESXi). Скачивание и установка ESXi задача довольно простая, с ней сможет справится любая школьница (и тем более админ-эникей). При развертывании сервера управления инфраструктурой vCenter я не стал заморачиваться с Виндой, для простоты и надежности я остановился на дистрибутиве vCenter Server Appliance (vCSA) – готовый бесплатный эплаенс от VMware под Linux. Достаточно просто устанавливается и админится через web-GUI. Мои тестовые хосты оснащены загрузочными SSD объемом 60ГБ. Это более чем достаточно для установки ESXi. vCenter Server Appliance был также развернут на 1 из этих SSD в режиме «тонкого диска» — пространства хватило. При работе с vCSA полезно знать следующие нюансы. Во время развертывания vCSA требуется задать: • пароль root – для управления самим эплаенсом (vCSA); • имя администратора vCenter SSO (например, administrator) и его пароль, имя домена (например, vsphere.local) — для централизованного управления виртуальной инфраструктурой (ВИ). При администрировании нужно учесть, что: 1. Для централизованного управления ВИ необходимо логиниться на https:/IP-адрес(доменное имя)_(заданные при установке vCSA). Порт указывать не нужно, он стандартный. Используемая учетная запись — администратор vCenter SSO, причем обязательно полное доменное имя, например administrator@vsphere.local. 2. Для управления самим эплаенсом (vCSA) необходимо логиниться на https:/IP-адрес(доменное имя):5480 (явно указываем этот порт). Используемая учетная запись – root. Доступ к командной строке ESXi Для установки патчей и драйверов, осуществления некоторых сопровождающих и диагностических манипуляций необходим доступ к командной строке ESXi. Централизованное управление обновлениями виртуальной инфратсруктуры, особенно в продакшене, целесообразно и удобно делать посредством vSphere Update Manager (vUM). Для vSphere версий 6.2 и предыдущих vUM необходимо разворачивать на Windows-машине. В версии 6.5 ситуация куда приятнее – vUM опциональный сервис vCenter Server Appliance, разворачивать отдельную ВМ на винде не нужно. Для тестовых целей, особенно если количество хостов невелико (например — 4, как в моем проекте), разворачивать отдельную vUM-ВМ нецелесообразно, проще обойтись командной строкой. По старой памяти (vSphere 5.0) я решил установить VMware-vSphere-CLI для удаленного доступа к командной строке хостов. Однако это оказалось жутко неудобным, поскольку к каждой команде необходимо добавлять огромный кусок «букав» для авторизации на целевом хосте, например, «--server 172.16.21.76 --username root --thumbprint 2F:4B:65:EC:C9:FA:DF:AC:20:62:3D:5D:4B:E4:43:EC:35:74:AE:86», а потом вводить пароль root. Для того чтобы научиться таким образом корректно запускать команды esxcli c моего администраторского ПК на винде я убил полдня. Во-первых, VMware-vSphere-CLI криво встал на windows 10, для корректной работы необходимо запускать команды из папки в которую установлен данный пакет или колдовать с переменными среды. Во-вторых, необходимо для каждого хоста определить его «отпечаток» (--thumbprint 2F:4B:65:EC:C9:FA:DF:AC:20:62:3D:5D:4B:E4:43:EC:35:74:AE:86), без него команда не отработает. В-третьих, пароль рута приходится каждый раз вводить отдельно, поскольку если скопипастить команду вместе с параметром --password и паролем, выдается ошибка, связанная с языком ввода (я сохранял команду целиком и копировал её из Блокнота). Полдня ушло, поскольку все эти тонкости и ошибки и их устранение были далеко не очевидны. Если вдруг захотите заморочиться с VMware-vSphere-CLI, данный абзац должен облегчить вам жизнь. Победив VMware-vSphere-CLI и научившись его готовить, я понял, что он попросту неудобен. Гораздо удобнее разрешить на каждом хосте доступ по SSH и пользоваться Putty. Команды короткие, пароль вводить каждый раз не надо, копипастить в Putty гораздо удобнее. Для этого необходимо на каждом хосте запустить сервисы SSH и ESXi Shell. Этом можно сделать через DCUI (подключиться к хосту напрямую) или vSphere Client (Configuration – Security Profile). Установка патчей У меня был опыт развертывания и сопровождения vSphere 5.0 на протяжении нескольких лет. Патчи я никогда не устанавливал проблем и так не было, ставил только апдейты, например для того, чтобы можно было поднимать ВМ на Win 2012 R2 (был нужен update 3), плюс просто для надежности. В данном проекте патчи оказались очень кстати. Установка патчей позволила решить следующие проблемы: • На порядок сократилось время живой миграции ВМ. До установки патчей на абсолютно ненагруженной инфраструктуре vMotion ВМ с Win7 на которой не было запущено никаких задач выполнялся около минуты. После пропатчивания – несколько секунд. • Устранена проблема с деградацией производительности гибридных vSAN 6.2. Проблема описана в данной статье « vSAN 6.2 hybrid disk group performance degradation (2146267) ». В ней говорится о том, что производительность гибридных кластеров vSAN деградировала при переходе с версий 6.0 и 6.1 на версию 6.2. Это вызвано рабой низкоуровневого фонового процесса, который снаирует уникальные блоки хранилища для работы механизма дедупликации, который появился в версии 6.2. Он полезен только в all-flash кластрех при включении «дедупа», однако ошибочно запускается и отнимает ресурсы в гибридных версиях. Вроблема решается либо установкой патча, либо отключением механизма специальной командой. Отсюда я делаю вывод о том, что при первоначальной установке необходимо проверить наличие и установить патчи. Лишним это не будет, не навредит, а вот от проблем избавить может. Причем сделать это лучше до установки дополнительных драйверов на ESXi, настройки инфраструктуры, поднятия ВМ и сервисов. Почему, объясню позже. Искать патчи нужно вот по этой или этой ссылке, причем необходимо выбрать «ESXi (Embedded and Installable)» для поиска патчей ESXi и «VC» для поиска патчей vCenter. После скачивания патчей приступаем к их установке. Патч на vCSA удобно устанавливается через web-gui. Необходимо примонтировать образ диска с патчем к vCSA-ВМ, для этого его лучше выложить на локальный датастор хоста, где крутится данная ВМ (я выложил на загрузочный SSD). Также можно пробросить образ со своего админского ПК по сети (образ большой, я посчитал это долгим и ненадежным, субъективно). Затем необходимо зайти на vCSA (https:/IP-адрес(доменное имя):5480, под рутом), выбрать вкладку Update и обновление с образа (Chesk Updates — CDROM). Теоретически на этом шаге можно было обновиться из Интернет (Chesk Updates — URL), при наличии подключения полагаю vCSA сам бы обновился из глобальной паутины. Обновление хостов ESXi несколько сложнее. Скачанные патчи – zip-архивы с файлами VIB, необходимо разместить на локальный датастор целевого хоста (я выложил на загрузочный SSD, для этого создал на нем в корне папку Update). Для загрузки патчей на локальный датастор хоста устанавливаем старый-добрый «толстый» vSphere-client, цепляемся им к хостам, затем во вкладке Summary ищем раздел Storage и щелкаем правой кнопкой по целевой датасторе — Browse Datastore, затем загружаем нужный файл или папку. После этого для установки каждого патча (у меня их было 4) необходимо запустить следующую команду: esxcli software vib install -d /vmfs/volumes/local_datastore_name/update_folder_name/ESXi600-201605001.zip где: -d – аргумент для установки пакетов из zip-архива (если разархивировать и устанавливать отдельные пакеты – файлы *.VIB, то нужен аргумент –v); /vmfs/volumes/local_datastore_name/update_folder_name/ESXi600-201605001.zip – полный путь к патчу. Извлекать из архива ничего не нужно, команда esxcli software vib install с параметром –d сделает все сама. После установки каждого патча консоль (в моем случае Putty) отобразит результат установки: установлены и удалены такие-то пакеты, требуется перезагрузка. Перезагружаться после установки каждого патча необязательно, можно установить все, затем перезагрузиться. Установка драйверов Нетривиальной задачей было заставить подружиться vSphere 6.2 с сетью InfiniBand в режиме IPoIB, поскольку это единственный имеющийся в моем располяжении вариант быстрой сети, обычной сети 1GbE для моего проетка и для vSAN в большенстве случаев – маловато. Изначально мои тестовые хосты были оборудованы адаптерами HCA Mellanox ConnectX-4 с пропускной способностью 100Гбит/с и подключены к соответсвующему IB-коммутатору Mallanox SB7790. Mellanox ConnectX-4 – гибридный адаптер который может работать как в режиме IB, так и в режиме Ethernet. Проблема в том, что имеющийся коммутатор может работать только в IB-режиме, Ethernet он не умеет. В то время как vSphere умеет только Ethernet и не поддерживает InfiniBand. Компромиссный вариант – поднять IPoIB — тоже не получился, поскольку Mellanox не делает IB-драйверов под vSphere для ConnectX-4, только Ethernet. Для того, чтобы убедиться в этом пришлось попробовать установить различные варианты драйверов Mellanox для ESXi (MLNX-OFED-ESX), ни один не позволил хостам увидеть нужную сеть. Решить проблему удалось благодаря налицию в загашнике 2х-портовых карт Mellanox ConnectX-2 и ConnectX-3 (по 2шт. каждой модели, итого по 1шт на хост), более старых и медленная версий – 40Гбит/с и 56Гбит/с соотвественно, для моих экспериментов и для vSAN этого более, чем достаточно. Самое главное, что для этих адаптеров есть правильные дрова под vSphere 6.2, а именно — MLNX-OFED-ESX-2.4.0.0-10EM-600.0.0.2494585. Их установка на хосты позволила им увидеть сеть InfiniBand и общаться друг с другом по IPoIB на теоретической скорости до 40Гбит/с. Правильные дрова в виде zip-архива, с указанным выше именем, скачиваются с официального сайта Mellanox. Перед их установкой необходимо с каждого хоста ESXi удалить встроенные в дистрибутив гипервизора драйверы InfiniBand, это драйверы в имени которых присутствуют символы «ib» и «mlx». Для отображения списка драйверов (VIB-пакетов) установленных на хосте, необходимо подключиться к нему по SSH и запустить команду: esxcli software vib list На выходе получаем большой список, чтобы отбросить лишнее и получить список только с нужными пакетами сделаем оптимизацию: esxcli software vib list | grep ib – вывод списка пакетов с символами «ib» в имени, esxcli software vib list | grep mlx – вывод списка пакетов с символами «mlx» в имени. На выходе получим следующее: [root@esxi-5:~] esxcli software vib list | grep mlx net-mlx-compat 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-mlx4-core 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-12-07 net-mlx4-en 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-12-07 net-mlx4-ib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 [root@esxi-5:~] esxcli software vib list | grep ib net-ib-core 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-ipoib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-mad 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-sa 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-mlx4-ib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 Этот вывод уже после удаления неправильных и установки правильных дров, изначально он был другой. После получения списка имен пакетов (лишних дров) на удаление формируем команду, которая позволит удалить их разом (в ней с параметром –n в качестве разделителя нужно перечислить все нужные имена пакетов), у меня она выглядела примерно так: esxcli software vib remove -n net-ib-core –n net-ib-ipoib –n net-ib-mad –n net-ib-sa –n net-mlx-compat -n net-mlx4-core –n net-mlx4-en –n net-mlx4-ib -n scsi-ib-srp -n net-ib-cm -f где: –f — параметр форсирующий удаление, иначе придется выискивать правильную последовательность для удаления пакетов по одному. Затем устанавливаемый пакет с правильными дровами и перегружаем хост. Процесс идентичен установки патчей – кладем zip-пакет с драйверами на локальный датастор целевого хоста и выполняем команду: esxcli software vib install –d /vmfs/volumes/local_datastore_name/update_folder_name/driver _pack_name.zip Эту процедуру нужно провести на каждом хосте тестовой инфраструктуры. Объединение хостов в кластер После того как на хосты установлены ESXi, на них установлены патчи и драйверы сети, развернута ВМ с vCSA (и пропатчена) пора приступать к подключению хостов к вЦентру (vCenter Server). Для этого необходимо подключиться к vCenter через web-консоль под учеткой админа vCenter SSO, создать объект Datacenter, в нем создать объект Cluster, добавить в него хосты ESXi (в моем случае 4шт.) и включить на нем нужные сервисы – HA (не обязательно, но не помешает, ибо базовый сервис) и vSAN (ради него всё и делалось). Рекомендую на каждом хосте и на вЦентре включить синхронизацию времени с сервером NTP, так будет удобнее мониторить производительность и реагировать на события. Забирать время с нашего контроллера домена MS-AD не получилось, несовместимы (править реестр контроллера для того, чтобы подружить его с vSphere я не стал). Все прекрасно заработало после настройки синхронизации с внешними NTP-серверами из Интернет. Настройка сети vSAN Настройка сети на уровне кластра vSphere на моем стенде включала создание 2х распределенных коммутаторов (dvSwitch): • ETH_DSwitch, соединенный с 2мя портами 1GbE на каждом хосте. К нему подключены сеть ВМ и сеть управления. • IPoIB_DSwitch, соединенный с 2мя портами 40(56)GbIPoIB на каждом хосте. К нему подключены сеть vMotion (подсеть 10.10.10.0, группа портов — vMotion_dpg) и сеть vSAN (подсеть 10.10.20.0, группа портов — VSAN_dpg), разделенные на уровне подсетей и распределенных групп портов (dPG). На каждом хосте для указанных dPG поднято по интерфейсу vmkernel – vmk1 и vmk2, для которого задан IP-адрес из соответсвующей подсети и разрешен только нужный тип трафика – vMotion и Provisioning Trafic (vMotion_dpg), Virtual SAN Trafic (VSAN_dpg). InfiniBand требует наличия в сети внешнего для vSphere сервиса под названием Subnet Manager, в моем тестовом кластере использовался сервер OpenSM, поднятый на отдельной физической Linux-машине. Лучшие практики по организации сети для vSAN 6.2 описаны в следующем документе: VMware Virtual SAN 6.2 Network Design Guide. В связи с тем, что моя сеть vSAN построена с использованием неуправляемых IB-коммутаторов, никаких классных штук типа агрегирования портов, NIOC, правильной настройки мультикаста я сделать не смог, просто оборудование не поддерживает. Поэтому все настройки dvSwitch и dPG были оставлены по умолчанию, оба аплинка в dPG сделаны активными. Единственный тюнинг который получилось сделать – настроить jumbo-фреймы. Максимально возможный размер MTU, который поддерживают адаптеры Mellanox в режиме IPoIB для vSphere равен 4092. Для того, чтобы достичь этого максимума, необходимо в настройках dvSwitch (IPoIB_DSwitch) и vmkernel (все vmk под vMotion и vSAN на каждом хосте) выбрать размер MTU=4092. По умолчанию рамер MTU в OpenSM равен 2044. Поэтому если не увеличить в конфиге OpenSM MTU до 4092, кадры такого размера по сети ходить не смогут, более того, обычных пинги будут ходить между хостами, но продуктивное взаимодействие хостов по сети будет невозможно. На обнаружение данного нюанса я убил кучу времени, поэтому также считаю его очень важным и полезным. VMware Virtual SAN 6.2 Network Design Guide, как я обноружил позднее, говорит, о том, что включение jumbo-фреймов не даст особой оптимизации для vSAN. Если сеть их поддерживает, стоит включить, если нет, ничего страшного, можно оставить размер 1500. Для проверки корректности работы jumbo-фреймов необходимо выполнить ping или vmkping с большим размером MTU (4092 в моем случае) между хостами кластера (отдельно для подсетей vMotion и vSAN), для этого подключаемся на каждый хост по SSH и пробуем пинговать соседей посредством следующей команды: vmkping (или просто ping) -d -s MTU_size_минус_28_байт IP-адрес где: –d запрещает сегментацию пакетов, -s MTU_size_минус_28_байт – размер MTU в байтах из которого нужно вычесть 28. В моём случае для MTU=4092, команда выгдядит так: ping -d -s 4064 10.10.20.79 Тестирование производительности сети Для тестирования производительности vSAN необходимо быть уверенным, что сеть не является узким местом и выдает хорошую полосу пропускания. Теоретически vSphere показывает, что мои IB- интерфейсы выдают по 40Гбит/с для карт Mellanox ConnectX-2 и 56Гбит/с для ConnectX-3. Учитывая, что для vSAN рекомендуются адаптеры 10Гбит/с, производительности моих карточек более, чем достаточно. Остаётся проверить их реальную производительность на практике. Для этого воспользуемся утилитой iperf . Существует 2 способа. Первый – плохой и неудобный, но единственно приходящий на ум. Нужно развернуть по одной или по несколько пар ВМ на хостах, между которыми будем измерять производительность сети. Vmnic этих ВМ необходимо подключить к dPG, которая смотрит в тестируемые физические порты. Для этого на dvSwitch «IPoIB_DSwitch» я создал dPG под названием «dgp_40Gbps_VMnet» и подключил её к тем же физическим портам (IPoIB), через которые работает vSAN. На этой паре ВМ запускаем iperf и смотрим результаты. Проблема в том, что максимальная пропускная способность виртуальной сетевухи, которую можно отдать ВМ vSphere (vmxnet3), равна 10Гбит/с. Поэтому в моем тесте мне пришлось создавать 3 пары ВМ под win7 и запускать на них тест параллельно. Совокупный максимум который я смог выжать ~16Гбит/с на порт IPoIB. Уже неплохо. Можно было попробовать остановиться на одной паре серверных ВМ, отдать им несколько vmxnet3 (скажем по 4шт) и сделать между ними тиминг на уровне гостевых ОС. Не уверен, что это позволило бы объединить их пропускную способность и выжать теоретические 10x4=40Гбит/с (для 4х vmxnet3) с одной ВМ. Проверять не стал, ибо удачных реализаций не нагуглил, зато нашел более простой и элегантный способ. Дело в том, что начиная с версии 6.2 vSphere предполагает наличие сервиса vSAN Health Service, для работы которого в состав дистрибутива ESXi добавляется пакет с утилитой iperf, которую можно запустить из командной строки, что позволяет измерять производительность сети vSphere напрямую на уровне гипервизоров. Для этого необходимо подключиться к паре хостов ESXi, между которыми будем измерять скорость сети, по SSH. На каждом хосте необходимо отключить фаервол ESXi, например с помощью команды: esxcli network firewall set --enabled false Пакет iperf на ESXi лежит по адресу: /usr/lib/vmware/vsan/bin/ в файлах iperf и iperf.copy (просто копия). Для выполнения нагрузочного тестирования сети необходимо на хосте, который выбран премником трафика выполнить команду: /usr/lib/vmware/vsan/bin/iperf.copy -s -B 10.10.20.79 -w 1M где: –s – означает, что сервис iperf запускается в режиме приемника (сервера), -B 10.10.20.79 – означает, что трафик будет приниматься интерфейсом хоста с данным IP-адресом, в моем случае это адрес vmkernel для vSAN на выбранном хосте, -w 1M – размер окна TCP задается равным 1МБ. На хосте-отправителе (генераторе трафика), выполняем команду: /usr/lib/vmware/vsan/bin/iperf -c 10.10.10.79 -t 60 -i 3 -w 1M –P 4 где: -c 10.10.10.79 – задает адрес приемника, -t 60 – задает продолжительность тестирования в секундах, -i 3 – интервал обновления текущего результата в секундах, -w 1M – размер окна TCP задается равным 1МБ. –P 4 – количество параллельных потоках. Максимальный результат тестирования можно достичь экспериментируя с выбором оптимальных значений параметров –w и –P, в моем случае это 1M и 4. Мне удалось достигнуть пропускной способности ~ 22-27 Гбит/с на порт IPoIB. Конечно это далеко не 40Гбит/с, как пишет web-клиент vSphere для IB-интерфейсов. Тем не менее, практический предел скорости сети теперь известен и он очень солидный (в 2,5 раза выше рекомендованного для vSAN). Включение кластера vSAN Заходим в управление нашим кластером, выбирает «Включить vSAN», режим добавления дисков ручной, без дедупа и компрессии (у меня гибридный кластер). Включение vSAN происходило в режиме диалога «далее-далее» (опять все просто, как для школьницы), vSphere сама правильно определила, какие носители пойдут под flash-cache и какие под capacity, сама оптимально объединила их в дисковые группы. Всё красиво получилось, но не сразу. Сначала были танцы с бубном. Дело в том, что гипервизоры на всех хостах видели все 10 локальных носителей, их можно было отформатировать в VMFS. Однако, диалог по созданию vSAN-кластера видел лишь часть носителей с моих хостов: на одном все 10, на втором ни одного, еще на 2х лишь часть, стало быть поднять vSAN не получалось, мистика. Ребята с буржуйской ветки VMUG по vSAN подсказали проверить наличие левых разделов на носителях кластера, и они естественно там были. Проблема решилась после удаления этих разделов. Для этого можно воспользоваться сторонней загрузочной утилитой по работе с разделами, а можно остановиться на возможностях командной строки ESXi: esxcli storage core device list – команда выводит список устройств хранения хоста, но в этом списке много избыточной информации, поэтому нужно её оптимизировать: esxcli storage core device list | grep Devfs | cut -f2 -d":" – в данном случае будут выводиться только стоки с именем устройства, на одном из моих хостов результат такой: [root@esxi-5:~] esxcli storage core device list | grep Devfs | cut -f2 -d":" /vmfs/devices/disks/naa.5000cca2450f5854 /vmfs/devices/disks/naa.5000cca2450ee00c /vmfs/devices/disks/naa.5000cca2450efa88 /vmfs/devices/disks/t10.NVMe____HUSPR3216AHP301_________________________003F1E6000CA0C00 /vmfs/devices/disks/naa.5000cca2450f56e8 /vmfs/devices/genscsi/naa.50015b2140027a7d /vmfs/devices/disks/t10.ATA_____SPCC_Solid_State_Disk___________________F4C307651C8E00015407 /vmfs/devices/disks/naa.5000cca2450f5604 /vmfs/devices/disks/naa.5000cca2450f2d2c /vmfs/devices/disks/naa.5000cca2450f6d9c /vmfs/devices/disks/naa.5000cca2450ec6d8 /vmfs/devices/disks/t10.NVMe____HUSPR3216AHP301_________________________802C1E6000CA0C00 Затем вводим команду, которая отображает перечень разделов на накопителе, это нужно сделать для каждого устройства: partedUtil getptbl device_name , где: device_name – имя устройства и полученного выше списка, например так: [root@esxi-5:~] partedUtil getptbl /vmfs/devices/disks/naa.5000cca2450f5854 gpt 243201 255 63 3907029168 1 2048 6143 381CFCCC728811E092EE000C2911D0B2 vsan 0 2 6144 3907029134 77719A0CA4A011E3A47E000C29745A24 virsto 0 Здесь мы видим, что на данном устройстве присутствуют 2 раздела: строки с номерами 1 и 2. Это пример вывода разделов с HDD в действующем кластере vSAN, на момент танцев с бубном на носителях хостов были различные виндовые и линуксовые разделы, поскольку узлы использовались для других экспериментов. Собственно, носители с разделами и были не видны, отображались только пустые носители (без разделов). После того как мы узнали номера имеющихся на носителе разделов, приступаем к их удалению посредством команды: partedUtil delete device_name part_num , где: part_num – номер раздела, выданный предыдущей команды. В данном примере на носителе 2 раздела, соответственно запускаем команду 2 раза: partedUtil delete /vmfs/devices/disks/naa.5000cca2450f5854 1 partedUtil delete /vmfs/devices/disks/naa.5000cca2450f5854 2 И так для всех носителей где есть разделы. После этого носители будут видны и можно будет добавить их в кластер vSAN. Для отслеживания состояния здоровья vSAN и мониторинга его производительности следует активировать Health Service и Performance Service во вкладке кластера Manage — vSAN — Health and Performance. На этом всё, наш кластер vSAN готов к тестированию, развертыванию ВМ и введению в продакшен. Благодарю за внимание!
https://habrahabr.ru/post/318258/
habrahabr
Мобильный банк для iOS: добавляем блочную архитектуру к Cocoa MVC
['мобильный банк', 'архитектура', 'ооп', 'ios разработка', 'ios development']
Если вы пишете приложение мобильного банка для iOS, какие у вас приоритеты? Думаю, их два: Надёжность; Скорость внесения изменений. Ситуация такова, что нужно уметь вносить изменения (и в...
Если вы пишете приложение мобильного банка для iOS, какие у вас приоритеты? Думаю, их два: Надёжность; Скорость внесения изменений. Ситуация такова, что нужно уметь вносить изменения (и в частности выкатывать новые банковские продукты) действительно быстро. Но при этом не скатываться в индусокод и копипаст (см. пункт 1). Всё это при том, что приложение действительно огромное по функционалу, по крайней мере в задумке (банки хотят намного больше, чем умеют). Соответственно, во многих случаях это проекты на десятки человеко-лет. Те, кто участвовал в таких проектах, уже наверно поняли, что задача нетривиальная, и школьные знания тут не помогут. Что же делать? Сразу понятно, что это задача по архитектуре. Прежде чем писать код, я увидел простую и красивую блочную архитектуру фронтенда нашей ДБО. Не видел раньше подобного в мобильных приложениях, но в итоге сделал аналогичное решение, вполне эффективное и масштабируемое, в рамках iOS SDK, без добавления массивных фреймворков. Хочу поделиться основными моментами. Да, про все эти рамки SDK, про эппловские косяки особенности паттерна MVC и про быдлокод в официальной документации знают все, кто пытался писать и поддерживать серьёзные приложения (или хотя бы читал Хабр ) — не буду повторяться. Здесь также не будет основ программирования, файлов с примерами и фотографий с котиками. Первая гуглокартинка по запросу «advanced architecture» Суть решения Операции состоят из атомов. Операция — это интерфейс для совершения конкретного действия в АБС. Например, перевод между своими счетами. Атом — это стабильная «капсула» из MVC, некий кирпичик, из которого можно строить дома любого размера и формы. Каждый кирпичик имеет свою сущность в UI: надпись, поле для ввода, картинка. Каждый значимый UI-блок инкапсулируется в такой MVC-кирпичик. Например, UISegmentedControl инкапсулируется в SegmentedAtom . Эти MVC-кирпичики пишутся один раз. Дальше каждая операция строится из этих кирпичиков. Положить кирпичик — это одна строчка. Одна строчка! Дальше получить значение — это опять одна строчка. Всё остальное решается наследованием и полиморфизмом в подклассах Atom. Задача — максимально упростить код самих операций, т.к. именно они могут сильно меняться. Кирпичики принципиально не меняются (или даже вообще не меняются). Атом может быть и более сложным элементом. Он может инкапсулировать некую логику и дочерние ViewController 'ы. Например, атом для выбора счёта из списка (причём по фильтру из контекста). Главное, чтобы вся сложность осталась внутри атома. Снаружи он остаётся таким же простым в использовании. Мою концепцию уже используют в строительстве Для примера, операция отправки платёжного поручения «по быстрой форме» (из кода скрыл все моменты, связанные с безопасностью, и да, права на код принадлежат ООО «Цифровые Технологии Будущего»): class PayPPQuickOperation : Operation, AtomValueSubscriber { private let m_dataSource = PayPPDataSource() private var m_srcTitle, m_destBicInfo: TextAtom! private var m_destName, m_destInn, m_destKpp, m_destAccount, m_destBic, m_destDesc, m_amount: TextInputAtom! private var m_button: ButtonAtom! override init() { super.init() create() initUI() } func create() { m_srcAccount = AccountPickerAtom(title: "Списать со счета") m_destName = TextInputAtom(caption: "ФИО или полное наименование получателя") m_destInn = TextInputAtom(caption: "ИНН получателя", type: .DigitsOnly) m_destKpp = TextInputAtom(caption: "КПП получателя", type: .DigitsOnly) m_destAccount = TextInputAtom(caption: "Счет получателя", type: .DigitsOnly) m_destBic = TextInputAtom(caption: "БИК", type: .DigitsOnly) m_destBicInfo = TextAtom(caption: "Введите БИК, банк будет определен автоматически") m_destDesc = TextInputAtom(caption: "Назначение платежа") m_amount = TextInputAtom(caption: "Сумма, ₽", type: .Number) m_button = ButtonAtom(caption: "Перевести") // Здесь можно быстро переставлять местами операции: self.m_atoms = [ m_srcAccount, m_destName, m_destInn, m_destKpp, m_destAccount, m_destBic, m_destBicInfo, m_destDesc, m_amount, m_button, ] m_destInn!.optional = true m_destKpp!.optional = true m_button.controlDelegate = self // это значит, что тап придёт в onButtonTap ниже m_destBic.subscribeToChanges(self) } func initUI() { m_destName.wideInput = true m_destAccount.wideInput = true m_destDesc.wideInput = true m_destBicInfo.fontSize = COMMENT_FONT_SIZE m_destName.capitalizeSentences = true m_destDesc.capitalizeSentences = true } func onAtomValueChanged(sender: OperationAtom!, commit: Bool) { if sender == m_destBic && commit == true { m_dataSource.queryBicInfo(sender.stringValue, success: { (bicInfo: BicInfoReply?) in self.m_destBicInfo.caption = bicInfo?.data.name }, failure: { (error: NSError?) in // обработка ошибки, в данном случае не страшно self.m_destBicInfo.caption = "" }) } } func onButtonTap(sender: AnyObject?) { // если несколько кнопок, то для каждого sender будет своё действие var hasError = false for atom in m_atoms { if atom.needsAttention { atom.errorView = true hasError = true } } if !hasError { var params: [String : AnyObject] = [ "operation" : "pp", "from" : m_srcAccount.account, "name" : m_destName.stringValue, "kpp" : m_destKpp.stringValue, "inn" : m_destInn.stringValue, ... "amount" : NSNumber(double: m_amount.doubleValue), ] self.showSignVC(params) } } } И это весь код операции!!! Больше ничего не нужно, при условии, что у вас в наличии есть все нужные атомы. В данном случае они у меня уже были. Если нет, пишем новый и рисуем в сториборде. Конечно же, можно наследоваться от существующих. onAtomValueChanged() — это имплементация протокола AtomValueSubscriber . Мы подписались на изменения текстового поля «БИК» и там делаем запрос, который возвращает имя банка по БИК. Значение commit == true для текстового поля приходит из евента UIControlEventEditingDidEnd . Последняя строчка showSignVC() — показать ViewController для операции подписания, которая представляет из себя просто ещё одну операцию, которая состоит из тех же самых простых атомов (формируется из элементов матрицы безопасности, которые приходят с сервера). Я не привожу код класса Operation , т.к. вы можете найти более удачное решение. Я решил (в целях экономии времени разработки) скармливать m_atoms табличному ViewController 'у. Все «кирпичики» нарисованы в IB ячейками таблиц, инстанцируются по cell id. Таблица даёт автоматический пересчёт высоты и прочие удобства. Но получается, что сейчас размещение атомов у меня возможно только в таблице. Для айфона хорошо, для айпада может быть не очень. Пока лишь единичные банки в российском аппсторе грамотно используют пространство на планшетах, остальные тупо копируют UI айфонов и только добавляют левую менюшку. Но в идеале да, надо переделать на UICollectionView . Зависимости Как известно, при вводе каких-либо форм, в зависимости от значений одних полей, другие поля могут видоизменяться или прятаться, как мы видели на примере БИК выше. Но там одно поле, а в полной платёжке их в разы больше, поэтому нужен простой механизм, который потребует минимум телодвижений для динамического показа/скрытия полей. Как это легко сделать? На помощь снова приходят атомы :) а также NSPredicate . Вариант 1 : func createDependencies() { // m_ppType - выбор типа платёжки, что-то вроде выпадающего списка (EnumAtom) m_ppType.atomId = "type" m_ppType.subscribeToChanges(self) let taxAndCustoms = "($type == 1) || ($type == 2)" ... // а это поля ввода: m_106.dependency = taxAndCustoms m_107.dependency = taxAndCustoms m_108.dependency = taxAndCustoms ... Это пример для платёжек. Аналогичная система работает для электронных платежей в пользу различных провайдеров, где в зависимости от некоторого выбора (например, платить по счётчикам или произвольную сумму) пользователь заполняет разный набор полей. Вот тут ребята создали для этих целей «некий фреймворк», но мне как-то хватило нескольких строк. Вариант 2 , если вам не хватает языка предикатов, или вы его не знаете, то считаем зависимости функцией, например, isDestInnCorrect(): m_destInn.subscribeToChanges(self) m_destInnError.dependency = "isDestInnCorrect == NO" Думаю, может, будет более красиво, если переименовать свойство: m_destInnError.showIf("isDestInnCorrect == NO") Текстовый атом m_destInnError , в случае некорректного ввода, рассказывает пользователю, как правильно заполнять ИНН по 107-му приказу. К сожалению, компилятор за вас не проверит, что данная операция имплементирует метод isDestInnCorrect() , хотя это наверно можно сделать макросами. И собственно установка видимости в базовом классе Operation (сорри за Objective C): - (void)recalcDependencies { for (OperationAtom *atom in m_atoms) { if (atom.dependency) { NSPredicate *predicate = [NSPredicate predicateWithFormat:atom.dependency]; BOOL shown = YES; NSDictionary<NSString*, id> *vars = [self allFieldsValues]; @try { shown = [predicate evaluateWithObject:self substitutionVariables:vars]; } @catch (NSException *exception) { // тут отладочная инфа } atom.shown = shown; } } } Посмотрим, какие ещё будут проверки. Возможно, операция не должна эти заниматься, т.е. всё перепишется на вариант let verifications = Verifications.instance ... if let shown = predicate.evaluateWithObject(verifications, substitutionVariables: vars) { ... One More Thing А вообще, что касается объектных паттернов в клиент-серверном взаимодействии, не могу не отметить исключительное удобство при работе с JSON, которое даёт библиотека JSONModel . Dot notation вместо квадратных скобок для получаемых JSON-объектов, и сразу типизация полей, в т.ч. массивы и словари. Как результат, сильное повышение читаемости (и как следствие надёжности) кода для больших объектов. Берём класс JSONModel , наследуем от него ServerReply (ибо каждый ответ содержит базовый набор полей), от ServerReply наследуем ответы сервера на конкретные виды запросов. Основной минус библиотеки — её нет на Swift (т.к. она работает на неких языковых лайфхаках), и по той же причине синтаксис странноват… Кусок примера @class OperationData; @protocol OperationOption; #pragma mark OperationsList @interface OperationsList : ServerReply @property (readonly) NSUInteger count; @property OperationData<Optional> *data; ... @end #pragma mark OperationData @interface OperationData : JSONModel @property NSArray<OperationOption, Optional> *options; @end #pragma mark OperationOption @interface OperationOption : JSONModel @property NSString<Optional> *account; @property NSString<Optional> *currency; @property BOOL isowner; @property BOOL disabled; ... Но всё это легко юзается из Swift-кода. Единственное, чтобы приложение не падало из-за неправильного формата ответа сервера, все NSObject -поля нужно помечать как Optional > и самому проверять на nil . Если хотим своё свойство, чтобы оно не мешалось JSONModel , пишем их модификатор Ignore > или, по ситуации, (readonly) . Выводы Концепция «атомов» действительно сработала и позволила создать хорошую масштабируемую архитектуру мобильного банка. Код операций очень простой для понимания и модификации, и его поддержка, при сохранении исходной идеи, будет занимать O(N) времени. А не экспонента, в которую скатываются многие проекты. Минус данной реализации состоит в том, что отображение сделано по-простому через UITableView , на смартфонах это работает, а под планшеты, в случае «продвинутого» дизайна, нужно переделать View и частично Presenter (сразу общее решение для смартфонов и планшетов). А как вы вписываете свою архитектуру в iOS SDK на больших проектах?
https://habrahabr.ru/post/318200/
habrahabr
Оптимизируем redux хранилище для более производительных изменений
['javascript', 'react', 'react.js', 'reactjs', 'redux', 'web-разработка', 'performance optimization', 'performance', 'производительность', 'производительность javascript']
Этот пост является продолжением поста про оптимизацию производительности списка в React приложении. Внимание. В данном посте примеры подготовлены специально для Redux приложений. Но сам подход...
Этот пост является продолжением поста про оптимизацию производительности списка в React приложении . Внимание. В данном посте примеры подготовлены специально для Redux приложений. Но сам подход возможно применить и с другими библиотеками. Так же нижеприведенный совет работает в react-redux версии 5 . Я не смог достичь желаемого результата в версии 4 . Глубоко разбираться в причинах я не стал. И так, стандартный способ хранить некоторое множество элементов в приложении — это хранить их в массиве: const state = { targets: [{id: 'target1', radius: 10}, {id: 'target2', radius: 2}] }; Далее, скорее всего, где-то у вас в приложении будет компонент, который отображает этот список: const TargetsList = connect(state => ({targets: state.targets}))( ({ targets }) => <ul> { targets.map((target) => <TargetView key={target.id} target={target} />) } </ul> ); Если вдруг вам нужно обновить один элемент, то придётся обновить весь массив (иммутабельненько же нужно): function appReducer(state, action) { if (action.type === 'UPDATE') { return { target: state.target.map((target) => { if (target.id === action.id) { return { ...target, radius: action.radius }; } else { return target; } }) } } // some other code } Так же обновление элемента приведёт к обновлению всей вьюшки «TargetsList» (будет вызван его render ). Я сделал небольшое демо с тестовым кодом для замера производительности. На моей машине, обновление одного элемента в списке длиною 1000 занимает примерно 21мс . В предыдущем посте я описал способ повышения прозводительности с помощью дополнительных подписок на изменения состояния в дочернем компоненте, а так же добавления некоторой логики в «shouldComponentUpdate» для компонента, который отображает список. Но практически такой-же результат можно достичь небольшим изменением формы данных. Как же оптимизировать? Если вы используете github.com/reactjs/react-redux , то вы можете увеличить прозводительность, изменив форму состояния на: const state = { targetsOrder: ['id-1', 'id-2'], targets: { 'id-1': { id: 'id-1', radius: 10 }, 'id-2': { id: 'id-2', radius: 20 }, } }; Далее нужно немного изменить компонент «TargetsList»: const TargetsList = connect(state => ({targetsOrder: state.targetsOrder}))( ({ targetsOrder }) => <ul> { targetsOrder.map((id) => <TargetView key={id} targetId={id} />) } </ul> ); Обратите внимание, что, в данном случае, я передаю в дочерний компонент ID элемента, а не весь элемент. Тогда «TargetView» не может быть «тупым компонентом» и должен подписаться на изменения в состоянии: const TargetView = connect( (state, ownProps) => ({target: state.targets[ownProps.targetId]}) )(({ target }) => { // your render logic return <Circle radius={target.radius} />; }); Так как «TargetView» подписан на изменения в состоянии, он обновит сам себя, когда его данные обновятся. Важно то, что «TargetList» НЕ БУДЕТ обновлён при изменении элемента в списке потому, что «targetsOrder» остаётся тем же. В некоторых случаях такая техника может значительно повысить производительность. → Обновлённое демо с замерами Теперь обновление одного элемента занимает 2.2мс на моей машине. Это почти в 10 раз быстрее, чем в предыдущем примере.
https://habrahabr.ru/post/318268/
habrahabr
Не баг, а фича Вконтакте
['Вконтакте', 'информационная безопасность']
Вконтакте существует с 2006 года. В те времена, как и на всех других сайтах, авторизация происходила с помощью ввода почты и пароля. Но почту и пароль могут украсть злоумышленники, способов очень...
Вконтакте существует с 2006 года. В те времена, как и на всех других сайтах, авторизация происходила с помощью ввода почты и пароля. Но почту и пароль могут украсть злоумышленники, способов очень много, в основном используют фишинговые сайты. Ввел пароль на левом сайте, а через час «ты» уже будешь просить друзей вконтакте закинуть 1000 руб на модем. Улучшение безопасности Когда взломов стало слишком много, а это случилось 11 февраля 2011 , Вконтакте улучшили безопасность в социальной сети: каждый раз, когда под аккаунтом пользователя пытаются неожиданно зайти из новой страны, попытка входа блокируется сообщением, в котором предлагается ввести цифры номера телефона, на который зарегистрирована страница. Конечно, это не предотвратило взломы, но злоумышленникам стало сложнее, ведь перед каждым входом, надо было смотреть из какой страны жертва и настраивать свой прокси или VPN на конкретную страну. Авторизация: «email и пароль» или «номер и пароль» Время шло, и Вконтакте столкнулся с огромным количеством ботов и фейков. Решение проблемы оказалось простым, достать новый номер сложнее, чем новую почту, поэтому с 21 ноября 2012 всех пользователей Вконтакте принудительно заставили привязать номер мобильного телефона. И раз у каждого пользователя привязан мобильный телефон, то давайте откроем вход с помощью мобильного телефона? Вконтакте делает все для удобства пользователей. Проблема Ничего странного не замечаете? Если пользователь на фишинговом сайте ввел свой телефон и пароль, а не почту и пароль, то проверка ввода цифр телефона становится бессмысленной. Текущее положение дел На сайтах, где продают аккаунты, цены на «почта: пароль» и «номер: пароль» сильно различаются. Это говорит нам о том, что злоумышленники предпочитают «номер: пароль», так как не любят возиться с VPN и прокси. Решение проблемы Как видим, проверка цифр телефона сейчас является неэффективной. В связи с этим стоит изменить проверку пользователя, который входит с ip другой страны. Например так: Если с ip другой страны вводят почту и пароль, то спрашивать цифры телефона. Если вводят номер телефона и пароль, то спрашивать часть почты. Спрашивать имя или фамилию, а не цифры телефона P.S Используйте двухфакторную аутентификацию, она позволяет полностью исключить взлом аккаунта с помощью фишинга. Если вдруг вы решите ввести свои данные на фишинговом сайте, то вводите почту, а не номер телефона.
https://geektimes.ru/post/283956/
habrahabr
Соотношения реальной температуры и прогноза Яндекс.Погоды
['погода', 'яндекс.погода', 'прогнозирование']
Утром, когда завтракаю, почти ежедневно просматриваю Яндекс.Погоду и у меня переодически возникает чувство дежавю, но только наоборот. Глядишь — одна температура на выходные указана, а на другой...
Утром, когда завтракаю, почти ежедневно просматриваю Яндекс.Погоду и у меня переодически возникает чувство дежавю, но только наоборот. Глядишь — одна температура на выходные указана, а на другой день смотришь — уже совем другие показатели температуры обещаны. Потихоньку начинаешь сомневаться в своей памяти (30 лет — это же уже четвёртый десяток начался). Но чтобы окончательно не пасть духом — я решил проверить, насколько прогноз соотносится с реальной температурой. Голубая линия — это реальная температура. Оранжевая область — это диапазон предсказаний. Источник картинки . Немного технических деталей Первым делом поставил в крон скрипт, который каждый час сохраняет страницу Яндекс.Погоды в виде html файла и оставил его поработать некоторое время. curl https://yandex.ru/pogoda/novosibirsk > test/`date +%Y-%m-%d-%H-%M` Следующим шагом написал небольшой php скрипт , поражающий своей простотой и лаконичностью, для парсинга сохраненных файлов и формирования json файлов, которые, в свою очередь, используются для отображения графиков. Пример обработки сохраненного дня: function parseFile($day) { global $mega, $csv, $realT; $predicts = []; $html = file_get_html(__DIR__ . '/test/' . $day); foreach($html->find('.forecast-brief_cols_10') as $element) { foreach ($element->find('.forecast-brief__item-temp-day') as $s) { $predicts[] = str_replace('−', '-', $s->plaintext); } } $dayDate = date_create_from_format("Y-m-d-H-i", $day); $dayDateString = date_format($dayDate, 'Y-m-d H:i:s'); $dayArr = explode('-', $day); if ($dayArr[3] == 14) { foreach($html->find('.current-weather__thermometer_type_now') as $s) { $realT[] = [ intval(date_format($dayDate, 'U') . '000'), intval(str_replace('−', '-', $s->plaintext)) ]; } } for ($i = 1; $i < count($predicts); $i++) { $nextDay = date('Y-m-d', strtotime('+' . $i . ' day', strtotime($dayDateString))); $nextDayArr = explode('-', $nextDay); $line = [ 'Y' => $dayArr[0], 'm' => $dayArr[1], 'd' => $dayArr[2], 'H' => $dayArr[3], 'i' => $dayArr[4], '_m' => $nextDayArr[1], '_d' => $nextDayArr[2], '_C' => $predicts[$i] ]; $mega[] = $line; $csv .= join(';', array_values($line)) . "\n"; } } Для внесения ясности Прогнозом я считал дневные температуры дня, показанные не на текущий день (на картинке нижний длинный выделенный прямоугольник); Реальную температуру я брал из верхнего выделенного прямоугольника в 14:25 Результат вы могли видеть в начале статьи, где реальная температура пытается проползти сквозь диапазон предсказаний, но что ей удаётся не всегда. Посмотреть подробнее и потыкать на разные даты можно здесь . Примеры графиков предсказаний температуры для конкретного дня: Вывод Память моя в порядке, можно не волноваться.
https://geektimes.ru/post/283950/
habrahabr
Медленная эволюция интерфейсов или сага о четвёртой кнопочке
['интерфейс', 'доколе?']
С приходом windows на наши десктопы у нас появились окна приложений и этими окнами нужно было как-то управлять. Были сделаны две кнопки «сворачивания окна» и «разворачивания на весь экран», но...
С приходом windows на наши десктопы у нас появились окна приложений и этими окнами нужно было как-то управлять. Были сделаны две кнопки «сворачивания окна» и «разворачивания на весь экран», но довольно быстро дизайнеры интерфейса windows осознали, что закрывать окна приходится не реже чем сворачивать и разворачивать на весь экран и интерфейс получил третью кнопку в коем законсервированном состоянии и пребывает уже более двадцати лет и не только на windows. МакОС и различные окружения рабочего стола для Линукс использую полностью аналогичную систему, разве что положение этих кнопок иногда меняется (кто-то в левом верхнем углу окна их поместит, кто-то в правом). Что же поменялось за 20 лет? В какой-то момент, одному гениальному дизайнеру пришла в голову замечательная идея — сворачивать своё приложение в трей. А другому не менее гениальному дизайнеру пришла идея использовать для этого «кнопку закрытия окна». И на данный момент мы имеем ряд приложений, которые по нажатию на кнопку закрытия окна — закрываются, а другая часть приложений по нажатии этой же кнопки сворачивается в трей. И как следствие полностью непредсказуемое поведение интерфейса, что делает его абсолютно неюзабельным. Господа, долго мы ещё будем мучиться, пока кому-нибудь из разработчиков интерфейса ОС придёт в голову вернуть кнопке закрытия окна её изначальную функцию, а для сворачивания в трей сделают отдельную кнопочку (раз уж эта возможность активно используется и довольно популярна у разработчиков)? Благодарю за внимание. UPD . Через раз в комментариях приходится писать, что эту кнопку можно сделать опционально активируемой при разработке, для тех приложений в которых она нужна (так же как можно при разработке отключить кнопку «развернуть на весь экран»).
https://habrahabr.ru/post/318274/
habrahabr
Security Week 51-52: Нестандартный топ новостей 2016
['klsw', 'итоги года', 'apple против фбр', 'glibc', 'keyring', 'oauth', 'случайные числа']
Ну вот опять, никто не ожидал, а год внезапно закончился. Пора подводить итоги, и уже третий год подряд я предпочитаю делать это нестандартно. Единственным критерием для отбора новости в топ...
Ну вот опять, никто не ожидал, а год внезапно закончился. Пора подводить итоги, и уже третий год подряд я предпочитаю делать это нестандартно. Единственным критерием для отбора новости в топ является ее популярность на новостном сайте Threatpost . Да, это не самый объективный способ оценки важности того или иного события. Но и не самый плохой: аудитория Threatpost обычно игнорирует откровенную политоту и уделяет немало внимания событиям, на которые нужно реагировать либо вот прямо сейчас, либо тем, что стоит запомнить на будущее. Напомню, в обзоре за 2015 год у нас были уязвимости в интернете вещей (ну ладно, в роутерах), шифрование данных , серьезная уязвимость Stagefright в Android и дыра в GLIBC , а также сложносочиненные атаки — Carbanak и The Equation . В 2014-м: уязвимость POODLE в SSLv3, Shellshock и Heartbleed и, внезапно, стеганография PNG-картинками. В этом году «пятерка» популярных новостей выглядит отчасти похоже: дело Apple против ФБР, дыры в GLIBC (опять!) и в ядре Linux, проблемы с OAuth и вопросы генерации надежных случайных чисел из ненадежных источников. Пятое место. ФБР не стала дожимать Apple в поиске способов обхода локскрина iPhone 5с. Новость . Дайджест . Еще один дайджест с подробным описанием дела. Одна политическая новость в Top 5 все же есть. В начале 2016 года между компанией Apple и американскими компетентными органами произошел показательный диспут по теме криптографии. Речь шла о телефоне террориста, устроившего в 2015 году стрельбу в Сан-Бернардино, штат Калифорния. Конкретно это было iPhone 5c, попавший в руки ФБР невредимым, но заблокированным стандартным пасскодом. Частично информация с телефона погибшего террориста была получена через облачное хранилище iCloud, но задолго до теракта синхронизация с этим сервисом прервалась. У Apple требовали предоставить средства, позволяющие подобрать пасскод перебором, без уже тогда встроенного ограничения на количество попыток, которое неминуемо превращало данные на телефоне в тыкву. В тот момент, когда все уже были готовы к длительным, публичным судебным прениям, когда уже были размещены воззвания к общественности, проведены (без имен, без прямых цитат) закрытые конференц-звонки с прессой, ФБР смогло обойти блокировку без помощи производителя. Тем не менее, данный кейс стал первым в этом году путешествием IT-безопасности в большую политику — и, увы, не последним. То, что в феврале казалось изолированным спором между государством и производителем, в октябре превратилось чуть ли не в ключевой элемент политической риторики. Кибербезопасность все больше влияет на казалось бы совершенно «оффлайновые» механизмы взаимодействия внутри общества, и дело тут не только в айфонах. Хотя и в них тоже. Естественной реакцией Apple, несмотря на условную победу, стали успешные попытки лишить себя любых способов обхода заявленной системы безопасности своих же устройств. Летом представитель Apple выступал на BlackHat, подробно рассказывая ( слайды ) о нововведениях в системе защиты данных iOS (на тот момент — в девятой версии). Это немыслимый ранее уровень открытости для Apple: компания все же предпочитает технические детали работы своих устройств оставлять при себе. Шифрование начали более активно внедрять разработчики мессенджеров (например WhatsApp и Viber). С другой стороны, ФБР продолжает высказываться против абсолютной приватности. Дилберт по теме. Только вот проблема в том, что надежной криптографии с бэкдором не бывает. С технической точки зрения этот тезис, в общем-то, не обсуждается. Но по факту защищенность наших с вами устройств зависит теперь не только от скорости прогресса, но и от того, как технари договорятся с политиками. Зависит она и от ситуации на фронте битвы между замком и отмычкой: хорошая криптография вовсе не равняется безопасности данных. Всегда есть способ обойти защиту. Всегда есть способ сделать взлом максимально дорогим для атакующего. Как бы то ни было, 2016 год дал понять, что безопасность информационных систем стала как никогда раньше зависеть от самого непредсказуемого ее элемента: от человеческого фактора. Третье и четвертое места. Уязвимости в GLIBC и Linux Kernel Новость . Новость . Дайджест про GLIBC. В феврале этого года в библиотеке GNU C Library (glibc) обнаружилась критическая уязвимость, затрагивающая все версии, начиная с 2.9, которая была выпущена в 2008 году. Виновной оказалась функция getaddrinfo(), отвечающая за запрос к DNS-серверу. Проблема заключается в том, что к ответу от сервера можно дописать произвольный код, и, вызвав, переполнение буфера, выполнить его на системе жертвы. Уязвимость обнаружили исследователи в Google, причем случайно — их внимание привлекли постоянные падения SSH-клиента с segmentation fault при обращении к определенному серверу. То есть, чтобы провести атаку с использованием этой уязвимости, нужно определенным образом настроить DNS-сервер и каким-то образом заставить жертву сделать запрос. Это не так уж сложно, и может быть реализовано, например, в процессе атаки man-in-the-middle, когда вместо легитимного DNS-сервера на пути запроса оказывается подставной. Уязвимость в ядре Linux (CVE-2016-0728), точнее в модуле keyring, была обнаружена в январе 2016 года: она обеспечивает возможность локальной эскалации привилегий. Обнаружившие проблему эксперты компании Perception Point утверждали , что уязвимости подвержены практически все десктопные и серверные версии Linux на базе ядра 3.8-4.2, и часть устройств на базе Android (в последних эксплуатацию проблемы затрудняет реализация SELinux). Несмотря на большое внимание к этой уязвимости, она оказалась и не самой опасной (in-the-wild так и не было зафиксировано), и не единственной за год по теме local privilege escalation. Буквально на прошлой неделе была обнаружена и закрыта еще одна . Второе место. Обход OAuth 2.0. Новость . Дайджест . Исследование . В ноябре на европейской конференции BlackHat EU исследователи из университета Гонконга показали примеры некорректной реализации протокола OAuth 2.0, которые, в ряде случаев, позволяют украсть учетные записи пользователей. Проблема заключается не в самом OAuth, а в его конкретных реализациях. Необходимость внедрять системы Single-Sign-On не только для веба, но и для мобильных приложений (принадлежащих не только владельцам сервисов идентификации типа Facebook и Google, но и третьей стороне) привела к тому, что стандарт OAuth 2.0 начали надстраивать кто во что горазд, не всегда соблюдая методы безопасности. В результате авторизация пользователя местами происходит как попало: в исследовании описывается ситуация, когда авторизоваться от имени другого пользователя можно, зная только его логин (обычно это e-mail). Впрочем, описываемые сценарии атаки предусматривают наличие позиции man-in-the-middle, и возможны не всегда. Из обнаруженных в ходе исследования проблемных приложений большинство работает с китайским identity provider Sina, а из 99 исследованных аппов, поддерживающих OAuth через Google и Facebook атаке подвержены всего 17. Добавлю, что в исследовании не указываются названия подверженных приложений, но одно из них использует авторизацию Google и является музыкальным приложением с более чем 800 миллионами загрузок. Отсюда и предположительно больше количество подверженных пользователей — больше миллиарда. Первое место: Генерация случайных чисел с помощью некачественных источников. Новость . Дайджест . Исследование . Опубликованная в мае научная работа исследователей Дэвида Цукермана и Эшана Чаттопадхья из Техасского университета доказывает возможность генерации случайных чисел высокого качества на основе двух источников более низкого качества. Если еще точнее, то такая возможность была и раньше — например, около 10 лет назад это показал бельгийский математик Жан Бургейн. Проблема в работе Бургейна заключалась в том, что к этим самым «не очень качественным» источникам на самом деле предъявлялись довольно высокие требования по части энтропии, соответственно его исследования имели чисто научную ценность. А вот в данном случае ценность может быть вполне практическая: если просто, то новая работа позволит получать случайные числа быстро и дешево, уменьшит шансы на, скажем, взлом зашифрованной переписки из-за уязвимости алгоритма генерации. Основное требование к двум источникам — это отсутствие корреляций между ними. В общем, хорошая (хотя и чрезвычайно сложная для понимания) новость с научного фронта, которая вполне может найти применение в криптографии, и не только в ней. Отзывы на научную работу в целом весьма положительные, но, как правильно отмечается в этой статье BBC, исследование не предлагает ничего принципиально нового. Но качество и скорость существующих методов генерации случайных чисел могут быть улучшены. Эта новость стала не только самой популярной в этом году, но и, пожалуй, самой сложной для восприятия. Облегчить (хотя, кому как) понимание темы поможет представленная выше видеозапись лекции Цукермана. Что еще произошло (но не попало в Top 5): Эпическое исследование о том, как уронить systemd с помощью 48 символов. Подробнее в этом дайджесте. Июньский ботнет из IoT-устройств, ответственный за 400-гигабитную DDoS-атаку. Продолжавшаяся всю осень сага о ботнете Mirai оказалась все-таки круче. Интересное, но не показательное исследование про то, как вредоносная программа пытается скрыться от ресерчеров, которые, в свою очередь, пытаются ее запустить в виртуалке. Подробнее в этом дайджесте . Очередной обход пасскода iPhone. И, наконец, интересное исследование перехвата управления беспроводными клавиатурами и мышами. У авторов работы из компании Bastille Networks весь год шел крестовый поход против небезопасных беспроводных устройств ввода. Интересный труд, но достаточно бесполезный: пока существуют способы атаки куда проще, он вряд ли будет взят на вооружение. И хорошо. Disclaimer: Данная колонка отражает лишь частное мнение ее автора. Оно может совпадать с позицией компании «Лаборатория Касперского», а может и не совпадать. Тут уж как повезет.
https://habrahabr.ru/company/kaspersky/blog/318262/
habrahabr
Снежинки в стилистике StarWars своими руками (upd. 2016)
['снежинка', 'схема для вырезания', 'star wars']
A long time ago in a galaxy far, far away… Как всегда, в конце года, Антонио Эррера решил нас порадовать новыми паттернами снежинок, выполненных в стилистике StarWars. Конечно они сделаны по...
A long time ago in a galaxy far, far away… Как всегда, в конце года, Антонио Эррера решил нас порадовать новыми паттернами снежинок, выполненных в стилистике StarWars. Конечно они сделаны по мотивам нового фильма саги — «Изгой один: Звездные войны. Истории». Честно, меня фильм не зацепил. Сын (который без ума от всех фильмов) при просмотре фильма просто заснул. Но это мое личное мнение, поэтому ловите. Новая коллекция паттернов: AT-ACT Baze Malbus Bodhi Rook Скачать PDF Скачать PDF Скачать PDF Captain Cassian Andor Chirrut Imwe Death Trooper Скачать PDF Скачать PDF Скачать PDF Jyn Erso K-2S0 Maz Kanata Скачать PDF Скачать PDF Скачать PDF Saw Gerrera U-Wing Скачать PDF Скачать PDF Так же, как и в предыдущие годы, все паттерны можно скачать одним архивом: Паттерны прошлых лет Что может понадобиться (копипаст с прошлых лет) Для изготовления снежинок вам потребуется: 1. Файл со схемой. 2. Принтер (думаю лазерный будет предпочтительней). 3. Ножницы. 4. Скальпель. 5. Бумага. 5.1. Лично мое мнение — при печати на стандартной офисной бумаге плотностью 80г/м2 становится не очень удобно вырезать (все-таки при складывании бумаги получается толстый слой). Поэтому лично я использую бумагу потоньше. И снежинки получаются «воздушнее». Как складывать получившиеся схемы и вырезать их можно увидеть ознакомившись с видео (от автора схем): Также Антонио подготовил паттерны для любителей еще нескольких фильмов: Стражи Галактики (Guardians of the Galaxy) , Холодное сердце (Frozen) , Гарри Поттер (Harry Potter) . May the Force be with you...
https://geektimes.ru/post/283962/
habrahabr
Панель инструментов редакторов МойОфис
['МойОфис', 'интерфейсы', 'офисные приложения']
Введение Наша команда с 2013 года работает над офисными приложениями МойОфис. В линейку продуктов входит полный набор приложений для работы с документами, почтой, календарями и контактами на...
Введение Наша команда с 2013 года работает над офисными приложениями МойОфис. В линейку продуктов входит полный набор приложений для работы с документами, почтой, календарями и контактами на компьютерах, мобильных устройствах и в веб-браузерах, а также сервер совместной работы, почтовый сервер и система хранения данных. В этой статье мы хотим рассказать вам о принципах разработки интерфейсов редакторов МойОфис для различных платформ и устройств. «Простота и удобство на любом устройстве» – вот наш подход к интерфейсу. С одной стороны мы решили использовать привычные пользователям концепции для нашей панели управления в редакторах. С другой — значительно упростить работу в редакторах. У пользователя, который долго взаимодействует с любым продуктом, вырабатываются определённые привычки: работа с теми или иными функциями, нажатие на кнопки в привычных местах и т.д. Например, все пользователи Windows привыкли к кнопке «Home» в левом нижнем углу и к тому, что происходило при нажатии на эту кнопку. Когда кнопка исчезла и затем вернулась, но уже с измененным принципом работы, пользователи испытали сильный дискомфорт и теряли в производительности. При работе с офисными пакетами формируются свои привычки. Возьмем для примера панель инструментов в офисных редакторах. Можно выделить два основных подхода к организации панели инструментов: Ленточный (Ribbon), когда большое количество действий распределено по разным вкладкам: Традиционный, когда большое количество действий выводится на единую панель инструментов. А менее важные действия переносятся в меню: Пользователи привыкают к одной схеме и переход на другую часто воспринимается «в штыки». Достаточно вспомнить обновление пакета MS Office в 2007 году, когда ленточный интерфейс пришёл на смену традиционному. Мы прекрасно понимали, что нам необходимо разработать интерфейс, который будет поддерживать существующие привычки пользователей. У них не будет времени и мотивации на длительное обучение чему-то новому, но им всё также необходимо решать ежедневные задачи. Однако, слепо копировать чужие решения мы тоже не хотели, т.к. видели в них ряд существенных недостатков: Обычно 80% пользователям требуется только 20% функциональности из того многообразия, которое они видят на панели управления. Некоторые функции являются контекстными (т.е. зависят от выбранных в документе объектов), некоторые относятся к документу в целом. Но при этом функции могут находиться на одной вкладке. Ряд функций дублируется на разных вкладках, но при этом функции имеют разные названия. И много других мелких (и не очень) особенностей. Кроме того, современные пользователи в ходе работы над документом могут переключаться между разными форм-факторами и платформами: создавать документ на ноутбуке в самолёте, работать совместно с коллегами в браузере, вносить правки с мобильного устройства. Далеко не все офисные пакеты позволяют безболезненно (с точки зрения пользовательского взаимодействия) переключаться между устройствами. Ниже мы расскажем о тех правилах, подходах и особенностях, которые мы используем в панели управления редакторов МойОфис. Общая концепция В нашей панели инструментов элементы управления распределены по нескольким вкладкам: «Текст». Содержит функции для работы с текстом: размер шрифта, цвет текста, межстрочный интервал и др. «Таблица» (или “Ячейка” для табличного редактора). Содержит функции для работы с ячейками таблицы: вставка столбцов/строк, заливка ячейки, фильтрация значений и др. «Рецензирование». Содержит функции для работы с изменениями в документе: принять/отклонить правки, включить/отключить их отображение и др. В ближайшее время появятся ещё несколько вкладок, например, “Изображение”. С первого взгляда, это очень похоже на «ленточный» подход. Но в нашей реализации различные настройки и системные действия с документом (создание копии, совместный доступ и др.) перенесены в главное меню. А действия по добавлению различных объектов собраны в едином месте: для веб и настольных редакторов – панель в правой части экрана для мобильных редакторов — панель действий в верхней части экрана Такое решение позволило нам существенно сократить количество элементов управления на панели. Панель стало легче сканировать взглядом, а значит пользователь сможет быстрее находить нужные ему функции. Уменьшилась высота панели, больше места отведено под сам документ. Получилась сильно сфокусированная панель инструментов, где набор функций и количество вкладок определяются объектом, с которым в данный момент взаимодействует пользователь. Например, при работе в текстовом редакторе человек в большинстве случаев видит только одну вкладку “Текст”, которая содержит действия по форматированию текста. При вставке таблицы в документ и работе с этой таблицей (т.е. при выборе ячеек или самой таблицы), автоматически появляется вкладка для работы с объектом. Как только таблица теряет фокус — вкладка исчезает. Такая контекстность влияет и на набор элементов управления на панели. Например, в текстовом редакторе при работе с текстом в таблице на вкладке “Текст" появляются действия для выравнивания по вертикали. В режиме “Только чтение” панель инструментов может вообще отсутствовать, если владелец документа не включил запись изменений. Все функции панели управления продублированы в главном меню. Из чего состоит панель инструментов Можно выделить несколько типов элементов управления: 1) Простая кнопка Нажатие на такую кнопку производит единичное действие с объектом. Например, увеличивает размер шрифта или добавляет столбец в таблицу. 2) Кнопка включения/отключения какого-либо свойства Например, сделать текст жирным. Такие кнопки всегда имеют два состояния. 3) Выпадающий список (или список-диалог) Позволяет выбрать один из вариантов форматирования. Например, выбор цвета текста или типа маркированного списка. 4) Двухсегментый элемент управления Позволяет либо выбрать одно из значений (в выпадающем списке), либо произвести какое-то быстрое действие. Например, элемент выбора размера шрифта. Человек может выбрать значение из списка предустановленных или указать своё. Данный элемент характерен только для Web/Desktop. 5) Сложный составной список (или диалог) Список или диалог, который позволяет выполнять несколько действий без закрытия. Например, форматировать границы ячейки или настраивать абзац. Правила отображения элементов панели Редакторы МойОфис работают на большом количестве платформ и форм-факторов: от небольших телефонов с диагональю экрана около 4 дюймов до больших планшетов типа iPad Pro. При такой унификации важно понимать, сколько элементов управления будет доступно пользователю и какой размер они будут иметь при изменении размера экрана. Или, например, по какому правилу изменится панель инструментов при добавлении нового элемента управления, ведь развитие продукта у нас не останавливается ни на минуту. Чтобы решить эту сложную задачу, мы разделили всю область панели инструментов на равные по размеру ячейки. Каждый элемент управления может занимать одну или несколько ячеек. Такая ячеистая структура позволила проработать ряд правил отображения элементов на панели. 1) Уменьшение размера элемента Если элемент занимает более двух ячеек, его размер может уменьшаться при уменьшении размеров экрана/окна. Например, так ведёт себя элемент выбора шрифта. Для узких экранов или окон мы допускаем еще одно состояние элемента — новая кнопка шириной в одну ячейку. Это позволяет «сворачивать» панель инструментов, не меняя порядок следования доступных команд. 2) Объединение элементов Ряд элементов управления могут объединяться в один элемент типа «Выпадающий список». Такое объединение возможно для элементов, которые имеют одинаковую по смыслу функциональность. Например, элементы для выравнивания текста. 3) Несколько строк в панели управления В web-приложениях дополнительные строки могут появляться при совсем маленьком размере окна браузера. Такое часто бывает, когда пользователи уменьшают размер окна до половины ширины экрана и открывают сразу два документа, чтобы копировать из одного в другой или сравнивать содержимое. На планшетах дополнительные строки могут появляться при изменении ориентации устройства. Для смартфонов наличие нескольких строк в панели управления – это стандартная ситуация. Ширина экрана не позволяет уместить в одну строку весь набор элементов управления (либо придётся делать эту строку с горизонтальной прокруткой). Но и на экране смартфонов могут появляться или исчезать дополнительные строки при изменении ориентации. 4) Скрытие элементов в дополнительное выпадающее меню На смартфонах мы можем отображать не более 4 строк в панели инструментов. В противном случае, панель инструментов будет занимать более половины высоты экрана. В этом случае, мы можем «пожертвовать» рядом элементов которые редко используются, и скрыть их в дополнительное выпадающее меню. Особенности работы на мобильных устройствах Расположение панели инструментов На смартфонах панель инструментов располагается в нижней части экрана как в портретной, так и в ландшафтной ориентации. Тут сразу же возникает сложность — во время написания текста появляется клавиатура, которая, естественно, перекрывает панель инструментов. Для решения этой проблемы мы реализовали переключатель над клавиатурой. Он позволяет быстро скрыть либо клавиатуру, либо панель инструментов. На планшетах панель инструментов всегда располагается в верхней части экрана как в портретной, так и в ландшафтной ориентации. Это позволяет всегда иметь под рукой инструменты редактирования, которые не перекрываются экранной клавиатурой. Если человек не планирует форматировать документ, например, он только изучает информацию, то можно скрыть панель инструментов нажатием на текущую активную вкладку. Особенности элементов управления На iPhone мы не можем показывать выпадающий список выпадающим. Поэтому, в панели управления появляется дополнительный уровень навигации. Например, список размеров шрифта появляется на следующем уровне навигации с возможностью вернуться назад. На Android-смартфонах не вводится дополнительного уровня иерархии и все выпадающие списки и диалоги ведут себя соответствующе. Их размер (ширина и высота) зависит от информации, которая в них отображается. Вместо заключения Мы понимаем, что невозможно создать идеальный интерфейс «на века» и в выбранном нами подходе есть шероховатости. Например, необходимо постоянно переключаться между виртуальной клавиатурой и панелью инструментов на смартфонах. Поэтому, мы постоянно экспериментируем. Прямо сейчас мы работаем над интересными решениями в плане контекстного форматирования как на мобильных платформах, так в настольных версиях. Возможно, после внедрения данной функциональности нам удастся ещё сильнее упростить панель инструментов, которая является «сердцем» любого редактора. Интересно было бы прочитать в комментариях, а какие вы выделяете недостатки или, наоборот, достоинства офисных приложений на разных платформах? Редактируете ли тексты или документы на смартфоне/планшете?
https://habrahabr.ru/company/ncloudtech/blog/318044/
habrahabr
Пение вселенной: от «органа» большого взрыва до «сабвуфера» черной дыры
['звук', 'космос', 'звуки космоса', 'вселенная']
Со школьной скамьи мы знаем, что космос нем, так как воздуха там практически нет, а соответственно, звуковые волны там распространяться не могут. Кроме того, общеизвестно, что практически все...
Со школьной скамьи мы знаем, что космос нем, так как воздуха там практически нет, а соответственно, звуковые волны там распространяться не могут. Кроме того, общеизвестно, что практически все космические объекты являются источниками электромагнитных волн (рентгеновских волн, гама-излучения, видимого света, инфракрасного излучения, ультрафиолета, радиоволн). Не редко частоты волн, генерируемых небесными телами, находятся в пределах слышимого спектра. К сожалению, наши уши не могут воспринимать электромагнитные волны, но, если преобразовать их в звук , мы услышим нечто необычное, порой пугающее, и по моему субъективному мнению, завораживающее. Эти звуки с легкой руки журналистов были названы музыкой планет, звёзд, черных дыр. Большинство из них — свидетельства явлений галактического и вселенского масштаба. «Пение» звёзд и планет принимает самые разнообразные формы: от многочастотных шумов до своеобразных ритмичных композиций. Всё это очень близко к аналоговой электронной музыке, например, экспериментальные композиции группы Bad Sector. Некоторые «голоса» небесных тел, например, Юпитера, очень напомнили мне звуки синтезатора АНС, который активно использовали Артемьев и Шнитке. В этом посте я опишу наиболее впечатлившие меня звуки окружающей нас, совсем не безмолвной вселенной, расскажу кое-что о том, как они появились и как были обнаружены. «Органный» рокот юной вселенной Первым звуком нашей вселенной принято считать так называемое звуковое послесвечение большого взрыва. Это волны, дошедшие до нас через 13 миллиардов лет. Через 380 000 лет после большого взрыва появилось свечение газов, открытое в 60-е годы прошлого столетия и названное «космическое микроволновое фоновое излучение»(КМФИ) или «реликтовое излучение». По словам доктора астрономии, профессора Марка Вайттла (Mark Whittle) из университета Вирджинии, карта КМФИ, отражающая состояние вселенной в младенческом возрасте, является «отпечатком первородного крика новорождённого космоса». Как подчеркивает ученый, изменения цвета на спутниковой карте свечения говорят об изменении температуры, а те в свою очередь свидетельствуют об изменении плотности и давления в облаке газов. Волны давления – это по сути и есть звуковые волны. Астрономы сравнивают КМФИ с космическим органом, в котором колоссальные потоки газов и энергии двигались по «трубам» из черной материи. Дошедшие до нас, эти волны звучат так: Космические метрономы и drum`n`base Одним из интереснейших космических явлений являются звуки пульсаров, которые можно сравнить с метрономами и драм-машинами. Согласно принятых в астрофизике и астрономии представлений, пульсары – это вращающиеся нейтронные звёзды, которые образуются после взрыва массивных звёзд. Пульсары обладают магнитным полем, наклонённым к оси их вращения. В связи с этой особенностью, излучение, приходящее на землю, модулируется. Из полюсов пульсара исходит 2 потока излучения. От скорости вращения зависит частота ритма, создаваемая этими потоками. В качестве примеров привожу ритмы пульсаров млечного пути: Рёв солнечного колокола Звуки нашего Солнца едва ли соответствуют представлениям земных обывателей о «тёплом, добром» солнышке. Низкочастотный гул, ревущие, булькающие и гудящие «импровизации» светила появляются в результате процесса конвекции, когда газы поднимаются и опускаются на поверхности звезды, создавая таким образом волны давления. По утверждению Алекса Филиппенко, астронома из калифорнийского университета, наше Солнце создаёт 10 миллионов тонов единовременно. Количество тонов солнечной «симфонии», обнаруживается благодаря солнечным спутникам (STEREO, SOHO и др.), которые замеряют число выпуклостей от волн давления на поверхности звезды. Звуки Солнца, записанные NASA: «Пение» солнечных бурь Не менее интересным явлением, на мой взгляд, являются магнитные (солнечные) бури. Звук , преобразованный и записанный во время этих явлений, не однороден. Мощные потоки мегаионизированных частиц плазмы порождают нетипичные для других явлений волны (звуки), которые фиксируются солнечными спутниками. В качестве примера такого явления можно привести бурю, которая обрушилась на планеты солнечной системы в марте 2012-го года: Леденящий кровь хор Юпитера В результате влияния солнечного ветра, внутри магнитного поля Юпитера, генерируются волны, которые впервые записал аппарат NASA Вояджер-1, который 5 марта 1979 года достиг Юпитера. Аналогичные звуки были записаны в текущем году аппаратом Juno 4, который 3 июля 2016-го года вошёл в магнитное поле крупнейшей планеты солнечной системы. Многие из тех, кто сталкивался со звуками этой планеты, говорят о том, что их они пугают. Как я уже отмечал в начале статьи, мне необычные звуки Юпитера напомнили звучание советского аналогового синтезатора АНС и фрагменты некоторых произведений Шнитке, написанных на нём. Вселенский рекорд «сабвуфера» черной дыры в галактике Персей А На расстоянии 250 миллионов световых лет от Земли находится скопление из нескольких тысяч галактик, названное «скоплением Персея». В центре скопления расположена галактика «Персей А» с огромной черной дырой, которая является активным галактическим ядром. Галактическое ядро периодически выбрасывает в окружающее пространство колоссальное количество энергии. Такие энергетические «импульсы» черной дыры по сути представляют собой волны давления. Волны Персея были обнаружены космическим телескопом «Чандра», который засёк рентгеновское излучение и смог определить его источник в 2003-м году. Фактически, если попытаться воспроизвести ноту, которая соответствует частоте волнам Персея, то мы её не услышим, так как она находится далеко за пределами нашего восприятия. Частота, на которой звучит нота – одно колебание в 10 млн лет. По расчетам ученых из NASA и американского планетарного общества – эта нота на 57 октав ниже ноты «до» первой октавы фортепьяно, т.е. в миллиарды раз ниже частоты, которую способен воспринимать человек. Сабвуфер Персея издаёт самый низкий звук во вселенной из всех известных человеку. Полагаю, что тем, кому интересны звуки космоса, будут полезны эти ссылки: » soundcloud.com/nasa » spacesounds.com
https://geektimes.ru/company/pult/blog/283960/
habrahabr
Анонимный Дед Мороз 2016-2017: пост хвастовства новогодними подарками
['хабра-адм', 'хабрахабр', 'дед мороз', 'акция', 'подарки для гиков', 'подарки', 'анонимный дед мороз', 'адм', 'secret santa', 'новый год']
Привет, %username%! Пару недель назад самые добрые и отзывчивые Хабражители отправились паковать подарки своим внукам и внучкам в рамках Хабра-АДМ 2016. Треть посылок уже в пути, два...
Привет, %username%! Пару недель назад самые добрые и отзывчивые Хабражители отправились паковать подарки своим внукам и внучкам в рамках Хабра-АДМ 2016 . Треть посылок уже в пути, два подарка уже доставлены, а, значит, уже совсем скоро праздник постучится и в твою дверь! Здесь мы будем делиться фотографиями полученных подарков и необыкновенными историями об их получении. Не стесняемся! Хвастаемся! Пусть те, кто упустил свой шанс, завидует на полную. А под катом информация о беспрецедентной акции. Акция В этих ваших Интернетах давно слагают про нас легенды. Например, считается, что только пользователи Хабрахабра могли додуматься создать чат, в которым известны ФИО и адрес собеседника с точностью до квартиры, и назвать его «анонимным». В этот раз мы даем очередной повод для сплетен. Ни для кого не секрет, что Хабрахабр позволяет конвертировать полученный рейтинг в рубли. Сообщество каждый раз тепло встречало наши анонсы, и потому мы долго думали, на что потратить эту денежную гору (арендовать себе на недельку домик на Бали или заказать у Церетели эскиз памятника с логотипом нашего проекта). В конце концов, мы решили раздать ее всем тем, кто честно отправляет подарки своим АПП. Поэтому, встречайте: «Хабра-АДМ — первый в мире АДМ, где вам платят за то, что вы отправляете подарки». Условие только одно: подарок должен быть отправлен до 27 декабря . Также есть небольшая разница между теми, кто успел отправить свой подарок ДО этого анонса, и теми, кто сделает это ПОСЛЕ. Первые получат свой подарок безоговорочно, а вторым необходимо будет предоставить пруфы в личку пользователю clubadm . Деньги там, конечно, небольшие, но пускай это будет утешительным подарком для тех, кто ничего не получит на Новый Год из-за недобросовестных АДМ. С НАСТУПАЮЩИМ 2017 ГОДОМ! Если АДМ или АПП не выходят на связь, пожалуйтесь на них clubadm . Представители Деда Мороза на Хабрахабре mkruglova и kafeman .
https://habrahabr.ru/post/318276/
habrahabr
VR-приложение с нуля на libgdx: часть 1
['vr', 'android', 'libgdx']
Виртуальная реальность стремительно набирает популярность среди пользователей, но все еще остается недоступной для многих разработчиков. Причина банальная — многие пишут игры в фреймворках, к...
Виртуальная реальность стремительно набирает популярность среди пользователей, но все еще остается недоступной для многих разработчиков. Причина банальная — многие пишут игры в фреймворках, к которым нельзя прикрутить Cardboard SDK, а учиться работать в другом фреймворке нет возможности или просто лень. Так и с Libgdx, где несмотря на попытки скрестить ужа с ежом , все еще до сих пор нет возможности создавать VR игры и приложения. Пару месяцев назад я загорелся желанием создать собственную VR игрушку, а поскольку я хорошо знаком с Libgdx и давно с ним работаю, то у меня оставался только один путь: изучить все самому и реализовать свой собственный VR велосипед движок в рамках Libgdx. Глаза боятся — руки делают, и через месяц ночных посиделок игра была готова. Буквально через пару дней после публикации мне начали заваливать личку просьбами поделиться кодом или хотя бы объяснить, как оно работает. Я не жадный, поэтому решил замутить пару статей с примерами приложений, и в этой части я расскажу о том, как из показаний датчиков смартфона получить его ориентацию (т.н. head tracking), а так же выводить на экран стереопару. Disclaimer Несмотря на то, что Libgdx позиционируется как кроссплатформенный фреймворк, в данной статье приведен пример приложения, которое спроектировано только под Android. Причины перехода на платформо-зависимый код две: 1) Стандартный Gdx.input у Libgdx не дает возможности получить «сырые» данные с магнитометра (компаса) смартфона. В чем была проблема добавить 3 метода по аналогии с гироскопом и акселерометром я не в курсе, но именно это послужило причиной вывода всей работы с датчиками в android-модуль. 2) В вики написано , что Libgdx не поддерживает гироскоп на iOS, насколько эта информация актуальна в данный момент я не в курсе. Датчики Итак, у нас имеется смартфон, оборудованный тремя датчиками (в идеале). Нужно преобразовать и отфильтровать эти данные, чтобы получить кватернион для вращения камеры в OpenGL. Что такое кватернион, и чем он полезен хорошо описано здесь . Предлагаю для начала кратко рассмотреть каждый тип датчиков в отдельности, чтобы понять, с чем вообще мы имеем дело. Гироскоп Гироскоп – устройство, которое может реагировать на изменение углов ориентации тела, к которому оно прикреплено. Механические гироскопы очень давно и хорошо известны, используются они в основном в различных инерциальных системах для стабилизации курса и навигации. В современных смарфтонах используются MEMS гироскопы, которые предоставляют угловые скорости вращения по трем осям в виде вектора . Для нас не важно, в каких единицах измерения приходят данные (радианы или градусы), важно лишь то, что они прямо пропорциональны угловым скоростям вращения устройства. Очевидно, что идеальный гироскоп в состоянии покоя должен выдавать нули: , но в случае с MEMS гироскопом это не так. Вообще, MEMS гироскопы – самые дешевые и неточные из всех существующих, в состоянии покоя у них наблюдается сильный дрейф нуля. При интегрировании этих скачущих около нуля угловых скоростей в углы ориентации ошибка начинает накапливаться, в результате это приводит к так называемому дрифту гироскопа, который хорошо знаком многим любителям поиграть в VR игрушки. Для уменьшения дрейфа нуля применяют специальные фильтры сигналов и пороговые значения угловых скоростей, но это не панацея, потому что во-первых, от этого сильно портится т.н. VR experience (появляется инерция картинки и рывки), а во-вторых, полностью искоренить дрейф все равно не удастся. В этом случае на помощь приходят другие два датчика смартфона, с их помощью можно практически полностью устранить дрифт, сохранив при этом VR experience. Акселерометр Акселерометр – устройство, которое реагирует на ускорения тела, к которому прикреплено. Акселерометр смартфона выдает вектор ускорений по осям , единица измерения чаще всего м/с, но для нас это так же не критично. В состоянии покоя акселерометр выдает направление вектора гравитации, эту особенность мы можем задействовать для стабилизации горизонта (Tilt correction). У акселерометра тоже есть недостатки. Если гироскоп шумит в основном в состоянии покоя, то акселерометр наоборот больше врет в движении, поэтому к объединению данных с этих двух датчиков нужно подходить с умом. В различных ИНС для квадрокоптеров используется фильтр Калмана, но я считаю, что в случае VR можно обойтись обычным комплементарником, здесь и так есть чем нагрузить процессор смартфона. В результате связка гироскоп + акселерометр позволяет нам уже создавать игры, тот же Cardboard SDK работает именно так. Но остается дрифт вокруг вертикальной оси, убрать который можно при помощи магнитометра. В Cardboard SDK магнитометр отдан на работу с магнитной кнопкой, поэтому во всех Cardboard играх всегда присутствует курсовой дрифт. Магнитометр Магнитометр – устройство, реагирующее на магнитные поля. В состоянии покоя при отсутствии электромагнитных и магнитных помех магнитометр смартфона выдает направление вектора магнитной индукции поля Земли , значения обычно в микротеслах (μT). Эта невидимая опора в виде магнитного поля планеты позволяет нам устранить произвольное вращение вокруг вертикальной оси, тем самым полностью устранив весь дрифт. Стоит отметить, что магнитная коррекция дрифта работает не всегда и не везде так, как нам этого хочется. Во-первых, любые внешние малейшие поля от магнитов в чехле смартфона или в крышке VR шлема приведут к непредсказуемому результату. Во-вторых, напряженность магнитного поля разная в разных уголках планеты, как и направление вектора магнитной индукции. Это означает, что коррекция дрифта при помощи магнитометра не будет работать возле полюсов, поскольку там силовые линии магнитного поля практически перпендикулярны поверхности земли и не несут никакой полезной инфы относительно ориентации сторон света. Надеюсь, среди нас нет полярников? Теория Для получения кватерниона текущей ориентации телефона нам необходимо циклически получать информацию со всех датчиков и выполнять на ее основе операции над кватернионом, полученным в предыдущий момент времени. Пусть — искомый кватернион ориентации, перед стартом цикла присвоим ему начальное значение . 1. Интегрируем показания гироскопа Как я уже говорил, гироскоп предоставляет вектор угловых скоростей. Чтобы получить из угловых скоростей угловые координаты, нам необходимо их проинтегрировать. Делается это следующим образом: 1.1. Объявим кватернион и зададим его как: где — время, прошедшее с предыдущей итерации цикла; 1.2. Обновим q при помощи полученного : . В результате описанных действий кватернион q уже можно использовать для вращения, однако из-за очень низкой точности смартфонного гироскопа он ужасно плывет по всем трем осям. 2. Выравниваем плоскость горизонта (Tilt Correction) В этом нам поможет акселерометр. Вкратце, для этого нам нужно найти корректирующий кватернион и умножить его на полученный на предыдущем этапе. Корректирующий кватернион в свою очередь формируется при помощи вектора-оси вращения и угла поворота. 2.1. Берем вектор акселерометра как кватернион: 2.2. Поворачиваем этот кватернион акселерометра нашим кватернионом гироскопа: 2.3. Берем нормализованную векторную часть кватерниона : 2.4. С помощью нее находим вектор, задающий ось вращения: 2.5. Теперь остается найти угол: 2.6. И скорректировать кватернион от гироскопа: , где — коэффициент сглаживания, чем он меньше — тем плавнее и дольше будет стабилизироваться горизонт, оптимальное значение в большинстве случаев — 0.1. Все, теперь q не будет переворачивать камеру вверх ногами, возможен лишь небольшой дрифт вокруг оси Y. 3. Убираем дрифт вокруг оси Y при помощи магнитометра (Yaw Correction) Компас смартфона — довольно капризная вещь, его необходимо калибровать после каждой перезагрузки, поднесения к массивным железкам или магнитам. Потеря калибровки в случае VR приводит к непредсказуемому отклику камеры на вращение головы. В 99% случаев компас у среднестатистического пользователя не откалиброван, поэтому я настоятельно рекомендую держать фичу коррекции дрифта по-умолчанию выключенной, иначе можно нахватать негативных отзывов. Кроме того, неплохо было бы выводить предупреждение о необходимости калибровки при каждом запуске приложения с включенной коррекцией. Непосредственно саму калибровку берет на себя Android, для ее вызова необходимо несколько раз нарисовать смартфоном в воздухе цифру «8» или "∞". Жаль, что Android не предоставляет никакого способа проверить статус калибровки компаса и выдать сообщение типа «всё, достаточно махать», здесь приходится полагаться на интеллектуальные способности самого пользователя. В принципе, можно заморочиться и считать взмахи акселерометром, но делать мы это, конечно, не будем. Перейдем лучше к алгоритму, который не сильно отличается от коррекции горизонта акселерометром: 3.1. Так же оформляем вектор компаса в виде кватерниона: 3.2. И поворачиваем: 3.3. Осью вращения в данном случае является Y (0, 1, 0), поэтому нам нужен только угол: 3.4. Корректируем: , где — такой же коэффициент сглаживания, как выше Теперь дрифт будет полностью отсутствовать, если магнитометр нормально откалиброван, и пользователь географически не находится слишком близко к полюсам Земли. Стоит отметить, что мой способ несколько отличается от способа, применяемого в Oculus Rift . Там суть заключается в следующем: для последних нескольких итераций цикла запоминаются кватернион вращения и соответствующие ему показания магнитометра (создаются т.н. reference points); дальше смотрим: если показания магнитометра не меняются, а кватернион при этом «едет» — то вычисляется угол дрифта, и кватернион доворачивается на него в обратную сторону. Такой подход хорошо работает на Oculus, но неприменим на смартфонах из-за слишком малой точности их магнитометров. Я пробовал реализовать метод из статьи — на смартфонах он дергает камеру и толком не убирает дрифт при этом. Реализация Для начала создадим пустой android проект при помощи gdx-setup.jar . Типичный android проект libgdx разделен на два модуля: android и core. В первом модуле находится платформо-зависимый код, а во втором обычно содержится логика игры и производится отрисовка. Взаимодействие между модулем core и android осуществляется через интерфейсы, исходя из этого нам понадобится создать 3 файла: VRSensorManager — интерфейс сенсорного менеджера VRSensorManagerAndroid — его реализация VRCamera — простенькая камера для отрисовки И внести изменения в 2 файла проекта: AndroidLauncher — стартер-класс android проекта GdxVR — главный класс приложения Исходник проекта я залил в репозиторий на гитхабе , код я постарался максимально задокументировать, поэтому в рамках статьи поясню лишь основные моменты. VRSensorManager Всю работу с датчиками и вычисление кватерниона я вывел в модуль android, для получения кватерниона в модуле core используем данный интерфейс. VRSensorManager.java package com.sinuxvr.sample; import com.badlogic.gdx.math.Quaternion; /** Интерфейс для взаимодействия с платформо-зависимым кодом */ interface VRSensorManager { /** Проверка наличия гироскопа */ boolean isGyroAvailable(); /** Проверка наличия магнитометра */ boolean isMagAvailable(); /** Регистрация листенеров */ void startTracking(); /** Отключение листенеров */ void endTracking(); /** Включение-выключение коррекции дрифта на лету * @param use - true - включено, false - отключено */ void useDriftCorrection(boolean use); /** Получение вычисленного кватерниона ориентации головы * @return кватернион для вращения камеры */ Quaternion getHeadQuaternion(); } Все методы здесь интуитивно понятны, думаю ни у кого не возникло вопросов. Методы isGyroAvailable и isMagAvailable в примере нигде не задействованы, но они могут кому-нибудь пригодиться, в своей игре я их использую. VRSensorManagerAndroid Теоретически в модуле android можно лишь получать значения с датчиков, а кватернион по ним вычислять уже в core. Я решил все объединить в одном месте, чтобы код было проще портировать под другие фреймворки. VRSensorManagerAndroid.java package com.sinuxvr.sample; import android.content.Context; import android.hardware.Sensor; import android.hardware.SensorEvent; import android.hardware.SensorEventListener; import android.hardware.SensorManager; import com.badlogic.gdx.Gdx; import com.badlogic.gdx.math.MathUtils; import com.badlogic.gdx.math.Quaternion; import com.badlogic.gdx.math.Vector2; import com.badlogic.gdx.math.Vector3; /** Реализация листенера датчиков под Android. Вычисляет и предоставляет готовый кватернион * ориентации устройства в пространстве для камеры в зависимости от имеющихся датчиков в телефоне. * Поддерживаемые варианты: акселерометр, акселерометр + магнитометр, гироскоп + акселерометр, * гироскоп + акселерометр + магнитометр */ class VRSensorManagerAndroid implements VRSensorManager { /** Перечень режимов работы в зависимости от наличия датчиков */ private enum VRControlMode { ACC_ONLY, ACC_GYRO, ACC_MAG, ACC_GYRO_MAG } private SensorManager sensorManager; // Сенсорный менеджер private SensorEventListener accelerometerListener; // Листенер акселерометра private SensorEventListener gyroscopeListener; // Листенер гироскопа private SensorEventListener compassListener; // Листенер магнитометра private Context context; // Контекст приложения /** Массивы для получения данных */ private final float[] accelerometerValues = new float[3]; // Акселерометр private final float[] gyroscopeValues = new float[3]; // Гироскоп private final float[] magneticFieldValues = new float[3]; // Магнитометр private final boolean gyroAvailable; // Флаг наличия гироскопа private final boolean magAvailable; // Флаг наличия магнитометра private volatile boolean useDC; // Использовать ли магнитометр /** Кватернионы и векторы для нахождения ориентации, итоговый результат в headOrientation */ private final Quaternion gyroQuaternion; private final Quaternion deltaQuaternion; private final Vector3 accInVector; private final Vector3 accInVectorTilt; private final Vector3 magInVector; private final Quaternion headQuaternion; private VRControlMode vrControlMode; /** Конструктор */ VRSensorManagerAndroid(Context context) { this.context = context; // Получение сенсорного менеджера sensorManager = (SensorManager) context.getSystemService(Context.SENSOR_SERVICE); // Проверка наличия датчиков (акселерометр есть всегда 100%, наверное) magAvailable = (sensorManager.getDefaultSensor(Sensor.TYPE_MAGNETIC_FIELD) != null); gyroAvailable = (sensorManager.getDefaultSensor(Sensor.TYPE_GYROSCOPE) != null); useDC = false; // Определение режима работы в зависимости от имеющихся датчиков vrControlMode = VRControlMode.ACC_ONLY; if (gyroAvailable) vrControlMode = VRControlMode.ACC_GYRO; if (magAvailable) vrControlMode = VRControlMode.ACC_MAG; if (gyroAvailable && magAvailable) vrControlMode = VRControlMode.ACC_GYRO_MAG; // Инициализация кватернионов gyroQuaternion = new Quaternion(0, 0, 0, 1); deltaQuaternion = new Quaternion(0, 0, 0, 1); accInVector = new Vector3(0, 10, 0); accInVectorTilt = new Vector3(0, 0, 0); magInVector = new Vector3(1, 0, 0); headQuaternion = new Quaternion(0, 0, 0, 1); // Регистрация датчиков startTracking(); } /** Возврат наличия гироскопа */ @Override public boolean isGyroAvailable() { return gyroAvailable; } /** Возврат наличия магнитометра */ @Override public boolean isMagAvailable() { return magAvailable; } /** Старт трекинга - регистрация листенеров */ @Override public void startTracking() { // Акселерометр инициализируется при любом раскладе sensorManager = (SensorManager)context.getSystemService(Context.SENSOR_SERVICE); Sensor accelerometer = sensorManager.getSensorList(Sensor.TYPE_ACCELEROMETER).get(0); accelerometerListener = new SensorListener(this.accelerometerValues, this.magneticFieldValues, this.gyroscopeValues); sensorManager.registerListener(accelerometerListener, accelerometer, SensorManager.SENSOR_DELAY_GAME); // Магнитометр if (magAvailable) { sensorManager = (SensorManager)context.getSystemService(Context.SENSOR_SERVICE); Sensor compass = sensorManager.getSensorList(Sensor.TYPE_MAGNETIC_FIELD).get(0); compassListener = new SensorListener(this.accelerometerValues, this.magneticFieldValues, this.gyroscopeValues); sensorManager.registerListener(compassListener, compass, SensorManager.SENSOR_DELAY_GAME); } // Гироскоп if (gyroAvailable) { sensorManager = (SensorManager)context.getSystemService(Context.SENSOR_SERVICE); Sensor gyroscope = sensorManager.getSensorList(Sensor.TYPE_GYROSCOPE).get(0); gyroscopeListener = new SensorListener(this.gyroscopeValues, this.magneticFieldValues, this.gyroscopeValues); sensorManager.registerListener(gyroscopeListener, gyroscope, SensorManager.SENSOR_DELAY_GAME); } } /** Остановка трекинга - отключение листенеров */ @Override public void endTracking() { if (sensorManager != null) { if (accelerometerListener != null) { sensorManager.unregisterListener(accelerometerListener); accelerometerListener = null; } if (gyroscopeListener != null) { sensorManager.unregisterListener(gyroscopeListener); gyroscopeListener = null; } if (compassListener != null) { sensorManager.unregisterListener(compassListener); compassListener = null; } sensorManager = null; } } /** Включение-выключение использования магнитометра на лету */ @Override public void useDriftCorrection(boolean useDC) { // Реально листенер магнитометра не отключается, просто игнорируем его при вычислениях this.useDC = useDC; } /** Вычисление и возврат кватерниона ориентации */ @Override public synchronized Quaternion getHeadQuaternion() { // Выбираем последовательность действий в зависимости от режима управления switch (vrControlMode) { // Управление одним акселерометром case ACC_ONLY: updateAccData(0.1f); // Вращение по Yaw наклонами головы из стороны в сторону (как во всяких гонках) headQuaternion.setFromAxisRad(0, 1, 0, -MathUtils.sin(accelerometerValues[0] / 200f)).mul(gyroQuaternion).nor(); gyroQuaternion.set(headQuaternion); break; // Акселерометр + магнитометр (если в телефоне стоит вменяемый компас, то данная комбинация // ведет себя почти как гироскоп, получается этакая эмуляция гиро) case ACC_MAG: updateAccData(0.2f); if (!useDC) { headQuaternion.setFromAxisRad(0, 1, 0, -MathUtils.sin(accelerometerValues[0] / 200f)).mul(gyroQuaternion).nor(); gyroQuaternion.set(headQuaternion); } else updateMagData(1f, 0.05f); break; // Гироскоп + акселерометр case ACC_GYRO: updateGyroData(0.1f); updateAccData(0.02f); break; // Все три датчика - must have, но только если компас откалиброван case ACC_GYRO_MAG: float dQLen = updateGyroData(0.1f); updateAccData(0.02f); if (useDC) updateMagData(dQLen, 0.005f); } return headQuaternion; } /** Логика определения ориентации * Интегрирование показаний гироскопа в кватернион * @param driftThreshold - порог для отсечения дрифта покоя * @return - длина кватерниона deltaQuaternion */ private synchronized float updateGyroData(float driftThreshold) { float wX = gyroscopeValues[0]; float wY = gyroscopeValues[1]; float wZ = gyroscopeValues[2]; // Интегрирование показаний гироскопа float l = Vector3.len(wX, wY, wZ); float dtl2 = Gdx.graphics.getDeltaTime() * l * 0.5f; if (l > driftThreshold) { float sinVal = MathUtils.sin(dtl2) / l; deltaQuaternion.set(sinVal * wX, sinVal * wY, sinVal * wZ, MathUtils.cos(dtl2)); } else deltaQuaternion.set(0, 0, 0, 1); gyroQuaternion.mul(deltaQuaternion); return l; } /** Коррекция Tilt при помощи акселерометра * @param filterAlpha - коэффициент фильтрации */ private synchronized void updateAccData(float filterAlpha) { // Преобразование значений акселерометра в инерциальные координаты accInVector.set(accelerometerValues[0], accelerometerValues[1], accelerometerValues[2]); gyroQuaternion.transform(accInVector); accInVector.nor(); // Вычисление нормализованной оси вращения между accInVector и UP(0, 1, 0) float xzLen = 1f / Vector2.len(accInVector.x, accInVector.z); accInVectorTilt.set(-accInVector.z * xzLen, 0, accInVector.x * xzLen); // Вычисление угла между вектором accInVector и UP(0, 1, 0) float fi = (float)Math.acos(accInVector.y); // Получение Tilt-скорректированного кватерниона по данным акселерометра headQuaternion.setFromAxisRad(accInVectorTilt, filterAlpha * fi).mul(gyroQuaternion).nor(); gyroQuaternion.set(headQuaternion); } /** Коррекция угла по Yaw магнитометром * @param dQLen - длина кватерниона deltaQuaternion * @param filterAlpha - коэффициент фильтрации * Коррекция производится только в движении */ private synchronized void updateMagData(float dQLen, float filterAlpha) { // Проверка длины deltaQuaternion для коррекции только в движении if (dQLen < 0.1f) return; // Преобразование значений магнитометра в инерциальные координаты magInVector.set(magneticFieldValues[0], magneticFieldValues[1], magneticFieldValues[2]); gyroQuaternion.transform(magInVector); // Вычисление корректирующего Yaw угла с магнитометра float theta = MathUtils.atan2(magInVector.z, magInVector.x); // Коррекция ориентации headQuaternion.setFromAxisRad(0, 1, 0, filterAlpha * theta).mul(gyroQuaternion).nor(); gyroQuaternion.set(headQuaternion); } /** Своя имплементация класса сенсорного листенера (копипаст из AndroidInput) */ private class SensorListener implements SensorEventListener { final float[] accelerometerValues; final float[] magneticFieldValues; final float[] gyroscopeValues; SensorListener (float[] accelerometerValues, float[] magneticFieldValues, float[] gyroscopeValues) { this.accelerometerValues = accelerometerValues; this.magneticFieldValues = magneticFieldValues; this.gyroscopeValues = gyroscopeValues; } // Смена точности (нас не интересует) @Override public void onAccuracyChanged (Sensor arg0, int arg1) { } // Получение данных от датчиков @Override public synchronized void onSensorChanged (SensorEvent event) { if (event.sensor.getType() == Sensor.TYPE_ACCELEROMETER) { accelerometerValues[0] = -event.values[1]; accelerometerValues[1] = event.values[0]; accelerometerValues[2] = event.values[2]; } if (event.sensor.getType() == Sensor.TYPE_MAGNETIC_FIELD) { magneticFieldValues[0] = -event.values[1]; magneticFieldValues[1] = event.values[0]; magneticFieldValues[2] = event.values[2]; } if (event.sensor.getType() == Sensor.TYPE_GYROSCOPE) { gyroscopeValues[0] = -event.values[1]; gyroscopeValues[1] = event.values[0]; gyroscopeValues[2] = event.values[2]; } } } } Здесь, пожалуй, сделаю пару пояснений. Данные датчиков получаем с помощью обычных листенеров, на этот счет в интернете полно руководств. Работу с кватернионом я разбил на 3 метода в соответствии с теоретической частью: updateGyroData — интегрирование угловых скоростей гироскопа updateAccData — стабилизация горизонта акселерометром updateMagData — коррекция дрифта компасом Если считать, что акселерометр в телефоне точно есть всегда, то остается всего 4 возможные комбинации датчиков, все они определены в перечислении VRControlMode: private enum VRControlMode { ACC_ONLY, ACC_GYRO, ACC_MAG, ACC_GYRO_MAG } Комбинация датчиков устройства определяется в конструкторе, затем при вызове метода getHeadQuaternion в зависимости от нее осуществляется формирование кватерниона по тому или иному пути. Прелесть такого подхода в том, что он позволяет комбинировать вызовы методов updateGyroData/updateAccData/updateMagData в зависимости от имеющихся датчиков и обеспечивать работоспособность приложения даже если в телефоне имеется один лишь акселерометр. Еще лучше, если кроме акселерометра в телефоне есть компас — тогда эта связка способна вести себя почти как гироскоп, позволяя вращать головой на 360°. Хоть ни о каком нормальном VR experience в данном случае не может быть и речи, все же это лучше, чем просто бездушная надпись «Your phone doesn't have a gyroscope», не так ли? Еще интересен метод useDriftCorrection, он позволяет на лету включать/выключать использование магнитометра, не затрагивая листенеры (технически просто перестает вызываться updateMagData). VRCamera Для вывода изображения в виде стереопары нам нужны 2 камеры, разнесенные на некоторое расстояние друг от друга, называемое базой параллакса. Поэтому VRCamera содержит 2 экземпляра PerspectiveCamera. Вообще в этом классе осуществляется только работа с камерами (поворот кватернионом и перемещение), непосредственно отрисовку стереопары я разместил в главном классе GdxVR. VRCamera.java package com.sinuxvr.sample; import com.badlogic.gdx.Gdx; import com.badlogic.gdx.graphics.PerspectiveCamera; import com.badlogic.gdx.math.Matrix4; import com.badlogic.gdx.math.Quaternion; import com.badlogic.gdx.math.Vector3; /** Класс VR камеры * Данные об ориентации берутся из VRSensorManager при вызове update() */ class VRCamera { private PerspectiveCamera leftCam; // Левая камера private PerspectiveCamera rightCam; // Правая камера private Vector3 position; // Позиция VR камеры private float parallax; // Расстояние между камерами private Vector3 direction; // Вектор направления VR камеры private Vector3 up; // Вектор UP VR камеры private Vector3 upDirCross; // Векторное произведение up и direction (понадобится в части 2, сейчас не трогаем) /** Конструктор */ VRCamera(float fov, float parallax, float near, float far) { this.parallax = parallax; leftCam = new PerspectiveCamera(fov, Gdx.graphics.getWidth() / 2, Gdx.graphics.getHeight()); leftCam.near = near; leftCam.far = far; leftCam.update(); rightCam = new PerspectiveCamera(fov, Gdx.graphics.getWidth() / 2, Gdx.graphics.getHeight()); rightCam.near = near; rightCam.far = far; rightCam.update(); position = new Vector3(0, 0, 0); direction = new Vector3(0, 0, 1); up = new Vector3(0, 1, 0); upDirCross = new Vector3().set(direction).crs(up).nor(); } /** Обновление ориентации камеры */ void update() { Quaternion headQuaternion = GdxVR.vrSensorManager.getHeadQuaternion(); // Из-за обхода стандартного механизма вращения камеры необходимо вручную // получать векторы ее направления из кватерниона direction.set(0, 0, 1); headQuaternion.transform(direction); up.set(0, 1, 0); headQuaternion.transform(up); upDirCross.set(direction); upDirCross.crs(up).nor(); // Вычисление углов вращения камер из кватерниона float angle = 2 * (float)Math.acos(headQuaternion.w); float s = 1f / (float)Math.sqrt(1 - headQuaternion.w * headQuaternion.w); float vx = headQuaternion.x * s; float vy = headQuaternion.y * s; float vz = headQuaternion.z * s; // Вращение левой камеры leftCam.view.idt(); // Сброс матрицы вида leftCam.view.translate(parallax, 0, 0); // Перенос в начало координат + parallax по X leftCam.view.rotateRad(vx, vy, vz, -angle); // Поворот кватернионом leftCam.view.translate(-position.x, -position.y, -position.z); // Смещение в position leftCam.combined.set(leftCam.projection); Matrix4.mul(leftCam.combined.val, leftCam.view.val); // Вращение правой камеры rightCam.view.idt(); // Сброс матрицы вида rightCam.view.translate(-parallax, 0, 0); // Перенос в начало координат + parallax по X rightCam.view.rotateRad(vx, vy, vz, -angle); // Поворот кватернионом rightCam.view.translate(-position.x, -position.y, -position.z); // Смещение в position rightCam.combined.set(rightCam.projection); Matrix4.mul(rightCam.combined.val, rightCam.view.val); } /** Изменение местоположения камеры */ void setPosition(float x, float y, float z) { position.set(x, y, z); } /** Возврат левой камеры */ PerspectiveCamera getLeftCam() { return leftCam; } /** Возврат правой камеры */ PerspectiveCamera getRightCam() { return rightCam; } /** Возврат позиции, направления и вектора UP камеры, а так же их векторного произведения*/ public Vector3 getPosition() { return position; } public Vector3 getDirection() { return direction; } public Vector3 getUp() { return up; } public Vector3 getUpDirCross() { return upDirCross; } } Самые интересные методы здесь — это конструктор и update. Конструктор принимает угол поля зрения (fov), расстояние между камерами (parallax), а так же расстояния до ближней и дальней плоскостей отсечения (near, far): VRCamera(float fov, float parallax, float near, float far) В методе update мы берем кватернион из VRSensorManager, перемещаем камеры в (±parallax, 0, 0), поворачиваем их, а затем перемещаем обратно в исходную позицию. При таком подходе между камерами всегда будет заданная база параллакса, и пользователь будет видеть стереоскопическую картинку при любой ориентации головы. Обратите внимание, что мы напрямую работаем с view матрицами камер, а значит векторы direction и up у камер не обновляются. Поэтому в VRCamera введены свои 2 вектора, и их значения вычисляются при помощи кватерниона. AndroidLauncher В стартер-классе при инициализации приложения необходимо создать экземпляр VRSensorManagerAndroid и передать главному классу игры (в моем случае GdxVR): @Override protected void onCreate (Bundle savedInstanceState) { super.onCreate(savedInstanceState); AndroidApplicationConfiguration config = new AndroidApplicationConfiguration(); config.useWakelock = true; config.useAccelerometer = false; config.useGyroscope = false; config.useCompass = false; vrSensorManagerAndroid = new VRSensorManagerAndroid(this.getContext()); initialize(new GdxVR(vrSensorManagerAndroid), config); } Также не забываем отключать/регистрировать листенеры при скрытии/разворачивании приложения: @Override public void onPause() { vrSensorManagerAndroid.endTracking(); super.onPause(); } @Override public void onResume() { super.onResume(); vrSensorManagerAndroid.startTracking(); } Полный код стартер-класса: AndroidLauncher.java package com.sinuxvr.sample; import android.os.Bundle; import com.badlogic.gdx.backends.android.AndroidApplication; import com.badlogic.gdx.backends.android.AndroidApplicationConfiguration; public class AndroidLauncher extends AndroidApplication { private VRSensorManagerAndroid vrSensorManagerAndroid; // Менеджер датчиков /** Инициализация приложения */ @Override protected void onCreate (Bundle savedInstanceState) { super.onCreate(savedInstanceState); AndroidApplicationConfiguration config = new AndroidApplicationConfiguration(); // Запрет на отключение экрана и использование датчиков имплементацией libgdx config.useWakelock = true; config.useAccelerometer = false; config.useGyroscope = false; config.useCompass = false; config.numSamples = 2; // Создание своего листенера данных с датчиков (поэтому useAccelerometer и т.п. не нужны) vrSensorManagerAndroid = new VRSensorManagerAndroid(this.getContext()); initialize(new GdxVR(vrSensorManagerAndroid), config); } /** Обработка паузы приложения - отключение листенера датчиков */ @Override public void onPause() { vrSensorManagerAndroid.endTracking(); super.onPause(); } /** При возвращении - снова зарегистрировать листенеры датчиков */ @Override public void onResume() { super.onResume(); vrSensorManagerAndroid.startTracking(); } } Не забудьте закинуть в папку assets файл модели room.g3db и текстуру texture.png, они нам пригодятся на следующем этапе. Скачать их вы можете отсюда . Подойдет любая другая модель какой-либо сцены, я решил особо не заморачиваться и взял готовую модель от уровня своей же игры, в ней хорошо ощущается эффект 3D из-за наличия множества мелких деталей. GdxVR Наконец, мы подошли к главному классу. Для начала нам нужно объявить в нем наш VRSensorManager и конструктор, принимающий ссылку на экземпляр этого класса от AndroidLauncher: static VRSensorManager vrSensorManager; GdxVR(VRSensorManager vrSensorManager) { GdxVR.vrSensorManager = vrSensorManager; } Код целиком: GdxVR.java package com.sinuxvr.sample; import com.badlogic.gdx.ApplicationAdapter; import com.badlogic.gdx.Gdx; import com.badlogic.gdx.assets.AssetManager; import com.badlogic.gdx.graphics.GL20; import com.badlogic.gdx.graphics.g3d.Model; import com.badlogic.gdx.graphics.g3d.ModelBatch; import com.badlogic.gdx.graphics.g3d.ModelInstance; /** Главный класс приложения, здесь производим инициализацию камеры, модели и выполняем отрисовку */ class GdxVR extends ApplicationAdapter { static VRSensorManager vrSensorManager; // Менеджер для получения данных с датчиков private int scrHeight, scrHalfWidth; // Для хранения размеров viewport private AssetManager assets; // Загрузчик ресурсов private ModelBatch modelBatch; // Пакетник для модели private ModelInstance roomInstance; // Экземпляр модели комнаты private VRCamera vrCamera; // VR камера /** Конструктор */ GdxVR(VRSensorManager vrSensorManager) { GdxVR.vrSensorManager = vrSensorManager; } /** Инициализация и загрузка ресурсов */ @Override public void create () { // Размеры экрана scrHalfWidth = Gdx.graphics.getWidth() / 2; scrHeight = Gdx.graphics.getHeight(); // Загрузка модели из файла modelBatch = new ModelBatch(); assets = new AssetManager(); assets.load("room.g3db", Model.class); assets.finishLoading(); Model roomModel = assets.get("room.g3db"); roomInstance = new ModelInstance(roomModel); // Создание камеры (fov, parallax, near, far) и установка позиции vrCamera = new VRCamera(90, 0.4f, 0.1f, 30f); vrCamera.setPosition(-1.7f, 3f, 3f); // Разрешаем коррекцию дрифта при помощи компаса vrSensorManager.useDriftCorrection(true); } /** Отрисовка стереопары осуществляется при помощи изменения viewport-а */ @Override public void render () { // Очистка экрана Gdx.gl.glClearColor(0f, 0f, 0f, 1f); Gdx.gl.glClear(GL20.GL_COLOR_BUFFER_BIT | GL20.GL_DEPTH_BUFFER_BIT); // Обновление параметров камеры vrCamera.update(); // Отрисовка сцены для левого глаза Gdx.gl.glViewport(0, 0, scrHalfWidth, scrHeight); modelBatch.begin(vrCamera.getLeftCam()); modelBatch.render(roomInstance); modelBatch.end(); // Отрисовка сцены для правого глаза Gdx.gl.glViewport(scrHalfWidth, 0, scrHalfWidth, scrHeight); modelBatch.begin(vrCamera.getRightCam()); modelBatch.render(roomInstance); modelBatch.end(); } /** Высвобождение ресурсов */ @Override public void dispose () { modelBatch.dispose(); assets.dispose(); } } В методе create мы узнаем размеры экрана (ширина делится на 2, сами знаете зачем), грузим модель сцены, а затем создаем и позиционируем камеру: vrCamera = new VRCamera(90, 0.4f, 0.1f, 30f); vrCamera.setPosition(-1.7f, 3f, 3f); Еще в примере я включил коррекцию дрифта, если у кого-то после запуска возникают проблемы с камерой — ищите причину в калибровке компаса: vrSensorManager.useDriftCorrection(true); В методе render перед всеми отрисовками необходимо вызывать обновление камеры: vrCamera.update(); Стереопара реализована при помощи стандартного viewport-а. Подгоняем viewport под левую половину экрана и рисуем картинку для левого глаза: Gdx.gl.glViewport(0, 0, scrHalfWidth, scrHeight); modelBatch.begin(vrCamera.getLeftCam()); modelBatch.render(roomInstance); modelBatch.end(); Затем точно так же для правого: Gdx.gl.glViewport(scrHalfWidth, 0, scrHalfWidth, scrHeight); modelBatch.begin(vrCamera.getRightCam()); modelBatch.render(roomInstance); modelBatch.end(); Заключение Если все было сделано правильно, то вы сможете вставить смартфон в VR очки и погрузиться в виртуальный мир, только что созданный своими руками: Добро пожаловать в новую реальность! Про работу со звукам я расскажу во второй части, а сегодня у меня все. Спасибо за внимание, если возникнут вопросы — я постараюсь на них ответить в комментариях. Источники Quaternions & IMU Sensor Fusion with Complementary Filtering Help! My Cockpit Is Drifting Away
https://habrahabr.ru/post/318278/
habrahabr
«Никаких трюков»: Немного размышлений на тему API
['ит-град', 'api']
Все началось в 1770 году в Габсбургской империи, когда Вольфганг фон Кемпелен (Wolfgang von Kempelen) построил машину, способную играть в шахматы. С ней он планировал победить лучших шахматистов....
Все началось в 1770 году в Габсбургской империи, когда Вольфганг фон Кемпелен (Wolfgang von Kempelen) построил машину, способную играть в шахматы. С ней он планировал победить лучших шахматистов. Кемпелен и его аппарат быстро стали знаменитыми, победив многих игроков во время демонстраций и туров по Европе. Среди зрителей даже числились Наполеон Бонапарт и Бенджамин Франклин. / Flickr / Faris Algosaibi / CC Однако эта машина, которая выглядела как кукла турка, на самом деле оказалась искусной иллюзией. Рукой «турка» управлял человек, сидящий в столе. Все это был лишь дешевый фокус — секрет работы аппарата раскрыли только в 1850 году. С тех пор и до того момента, когда человечеству удалось создать машину, победившую чемпиона мира по шахматам, прошло больше двух столетий. В 1996 году компьютер Deep Blue от IBM выиграл матч у Гарри Каспарова. Источник: ProgrammableWeb Через четыре года с того момента — в 2000 году — Рой Филдинг (Roy Fielding) опубликовал свою работу на тему «Архитектурные стили и проектирование сетевых архитектур программного обеспечения», которая позднее ляжет в основу архитектурного стиля REST API. В том же году компания Salesforce выпустила первую версию своего API для автоматизации продаж. За ней последовала платформа eBay, а затем и другие интернет-компании. Участники рынка вскоре поняли, какие преимущества способны предоставить интерфейсы программирования приложений. Количество API начало расти. Новые «автоматические» машины Когда один из сервисов делает доступным свой интерфейс для общественности, после этого человек пишет для него документацию и делится ей. Потом уже другой человек находит эту документацию и, используя полученный опыт, пишет программу, которая может обращаться с этим интерфейсом. Получается, что люди выступают в качестве посредников для коммуникации M2M. Все это очень сильно напоминает фокус с турком-шахматистом. На сегодняшний день при работе с API инженеры сталкиваются с трудностями в следующих аспектах: Синхронность Контроль версий Масштабирование Поиск Синхронность Сегодня документация к API пишется и распространяется еще до того, как две машины «встречаются» друг с другом. Даже если проигнорировать тот факт, что люди могут неправильно понять написанное, существует проблема, связанная с изменением документации. Согласовывать API-документацию достаточно сложно, а поддерживать и обновлять клиент — еще сложнее. Контроль версий REST играет большую роль в успехе веб-API и отлично согласуется с основами функционирования Сети. Поскольку большинство API не следуют принципам REST, API-клиенты часто оказываются привязанными к используемым интерфейсам. Это создает крайне хрупкую систему. Более того, чтобы обновить существующий клиент в случае изменения API необходимо затратить время и средства, да и сам процесс достаточно медленный. По этой причине API не эволюционируют. Вместо этого, на их основе строятся новые API, «загрязняя» кодовую базу. Масштабирование Сегодня все больше компаний создают API для каждой задачи, которая может заинтересовать пользователя. Многие компании начинают с единого API, но затем всегда приходят к более индивидуальным решениям. Чтобы создать новые API, приходится нанимать все больше программистов. Это ведет к увеличению сложности поддержки системы. Однако не важно, сколько людей мы нанимаем, когда дело касается написания и чтения документации или адаптации существующих проектов к изменениям в API — эта часть работы плохо масштабируется. Плюс всегда есть место для недопонимания и иной трактовки формулировок — язык способен давать слишком большое пространство для маневров. Поиск И, наконец, следует отметить проблему с поиском API. Как нам узнать, что есть сервис, который мы бы хотели использовать? Возможно уже есть проект, который бы позволил сэкономить время при создании собственного решения. Не важно, что на рынке есть другой геолокационный сервис, узнать о его существовании достаточно сложно. Приходится уповать на «сарафанное радио» и поисковые системы. Возможное решение «Чтобы создать полностью автономные API, необходимо разработать и распространить словари предметной области, которые система поиска будет ассоциировать с API», — говорит Зденек Немек (Zdenek Nemec), основатель консалтинговой компании Good API. Работа автономной системы может выглядеть следующим образом: Машина публикует свой интерфейс вместе с профайлом, описывающим его, и словарем предметной области. Затем она регистрирует себя в службе поиска API. Затем другая машина опрашивает сервис поиска, используя термины из словарей. Если API, использующие их, найдены, то сервис поиска сообщает о существовании нужного сервиса. Теперь клиент может использовать API для своих нужд (считается, что он уже был «натренирован» для работы с запрашиваемым словарем). Например, больше не придется разрабатывать погодное приложение для определённого сервиса. Вместо этого, вы создаете клиент, который знает, как отображать прогноз погоды, и будет «общаться» с сервисами AccuWeather, Weather Underground и другими погодными приложениями, которые используют такие же словари. «И строительные блоки для создания подобной системы уже начинают появляться, — отмечает Зденек. — Например, контроллеры HATEOAS распространяются с помощью одного из форматов гипермедиа, а адаптация формата JSON-LD уже набирает популярность в API-индустрии, а поисковые провайдеры Google, Microsoft, Yahoo и Yandex поддерживают словарь Schema.org. Наконец, начинают появляться API-каталоги, например HitchHQ и Rapid API ». Возможно, в будущем API позволят исключить человеческий фактор в вопросах составления документации и поиска, а мы начнем программировать API-клиенты декларативно, используя словари и другую открытую информацию. Это позволит с новой силой начать разработки подключенных устройств, беспилотных автомобилей и прогрессивных медицинских технологий. Другие материалы из блогов провайдера виртуальной инфраструктуры «ИТ-ГРАД»: «Немного о платформах»: Будущее AIaaS «Предновогодний шоппинг»: VMware приобрели SDN-стартап PLUMgrid Тестирование безопасности облачных решений VMware Cloud Foundation: упрощенное развертывание программного ЦОД Облачные сервисы: опыт использования IaaS российскими компаниями
https://habrahabr.ru/company/it-grad/blog/316292/
habrahabr
Netdata: мониторинг в реальном времени
['netdata', 'мониторинг', 'мониторинг сервера', 'linux', 'selectel', 'селектел']
Проблематику мониторинга, сбора и хранения метрик мы уже не раз рассматривали в предыдущих публикациях. Сегодня мы расскажем ещё об одном инструменте —Netdata. В отличие от других инструментов...
Проблематику мониторинга, сбора и хранения метрик мы уже не раз рассматривали в предыдущих публикациях. Сегодня мы расскажем ещё об одном инструменте —Netdata. В отличие от других инструментов аналогичного плана, он ориентирован на сбор и визуализацию метрик в реальном времени (при необходимости можно подключать бэкенды для сбора и хранения собранных метрик). С помощью netdata можно отслеживать просто огромное количество показателей: статистику использования процессора, потребления памяти, операций ввода-вывода, сети (список далеко не полный). Также Netdata оснащен плагинами для отслеживания различных служб: Postfix, Squid, PHP-FPM и другие. В этой статье мы расскажем, как установить и настроить Netdat на сервере под управлением OC Ubuntu 16.04. Установка Прежде чем приступать к установке Netdata, установим все необходимые зависимости: $ sudo apt-get install git zlib1g-dev uuid-dev libmnl-dev gcc make autoconf autoconf-archive autogen automake pkg-config curl $ sudo apt-get install python python-yaml python-mysqldb python-psycopg2 nodejs lm-sensors netcat По завершении установки клонируем официальный репозиторий netdata: $ git clone https://github.com/firehol/netdata.git --depth=1 ~/netdata Далее выполним: $ cd ~/netdata $ sudo ./netdate-installer.sh Последняя команда запустит скрипт автоматической сборки и установки Netdata. По завершении установки Netdata готов к работе. А если изменить некоторые параметры конфигурации, всё будет работать с гораздо большей скоростью и производительностью. Об этом мы более подробно поговорим в следующих разделах. Включаем дедупликацию страниц памяти Начнём мы с того, что активируем KSM (Kernel Same-Page Merging, объединения одинаковых страниц памяти). Эта технология позволяет объединять страницы памяти между разными процессами для совместного использования. Как уверяют сами создатели Netdata в своём блоге, с её помощью можно увеличить производительность на 40 — 60%. Выполним команду: $ sudo nano /etc/rc.local Файл rc.local (его имя представляет собой сокращение от run control) представляет собой скрипт, который исполняет после того, как будут запущены все остальные службы и процессы. Отредактировать этот файл нужно так: #!/bin/sh -e # # rc.local # # This script is executed at the end of each multiuser runlevel. # Make sure that the script will "exit 0" on success or any other # value on error. # # In order to enable or disable this script just change the execution # bits. # # By default this script does nothing. echo 1 > /sys/kernel/mm/ksm/run echo 1000 > /sys/kernel/mm/ksm/sleep_millisecs exit 0 Первая команда записывает единицу в файл /sys/kernel/mm/ksm/run и тем самым активирует KSM, а вторая — указывает, что демон KSM должен запускаться раз в секунду и проверять 100 страниц на наличие дубликатов. KSM будет активирован после перезагрузки сервера. Устанавливаем срок хранения метрик Все настройки Netdata прописываются в конфигурационном файле /etc/netdata/netdata.conf. В секции [global] (в ней прописываются общие настройки) найдём параметр history. Его значение — это срок (в секундах), в течение которого хранятся собранные метрики. От этого срока напрямую зависит и потребление памяти: для хранения данных в течение 3600 секунд (1 часа) требуется 15 MБ оперативной памяти; в течение 7200 секунд (2 часов) — 30 МБ оперативной памяти; в течение 14400 секунд (4 часов) — 60 МБ оперативной памяти; в течение 28800 секунд (8 часов) — 120 МБ оперативной памяти; в течение 43200 секунд (12 часов) — 180 МБ оперативной памяти; в течение 86400 секунд (т.е. суток) — 360 МБ оперативной памяти. Здесь приведены показатели для стандартных дашбордов; для кастомных дашбородов объём потребляемой памяти может быть как больше, так и меньше. Выставим нужное значение (в нашем случае это 14 400) и сохраним внесённые изменения. Более подробно об особенностях конфигурирования Netdata можно прочитать в  официальной документации . Дашборды: структура и функции Страница, на которой Netdata отображает все метрики и графики, доступна в браузере по адресу http://[IP-адрес сервера]:19999. По внешнему виду она напоминает веб-интерфейс популярного инструмента Grafana, о котором мы уже не раз писали. На самом первом дашборде показываются главные метрики системы: Далее идут графики использования ресурсов процессора, потребления памяти, операций ввода-вывода, сетевой активности и другие: Мы можем увеличивать (или, наоборот, уменьшать) временные интервалы на графиках: для этого нужно подвести к дашбордку курсор, нажать SHIFT и покрутить колёсико мыши. На страницу можно добавлять многочисленные дополнительные графики; более подробно об этом можно прочитать здесь . Настройка оповещений Некоторые вида оповещений в Netdata настроены прямо «из коробки», в частности: оповещения об остановке любого из наблюдаемых приложений; оповещения об ошибках на сетевых интерфейсах; оповещения о нехватке дискового пространства. Также Netdata вычисляет, сколько свободного места осталось на диске и в течение какого срока это свободное место будет исчерпано; если этот срок составляет менее 48 часов. Как видим, для типичных ситуаций таких оповещений более чем достаточно. А если нужно настроить кастомные оповещения — в Netdata имеются специальные шаблоны, которые описываются в конфигурационных файлах, хранящихся в директории /etc/netdata/health.d. Рассмотрим структуру и особенности синтаксиса этих шаблонов. Начнём со следующего примера: template: disk_space_usage on: disk.space calc: $used * 100 / ($avail + $used) units: % every: 1m warn: $this > (($status >= $WARNING ) ? (80) : (90)) crit: $this > (($status == $CRITICAL) ? (90) : (98)) delay: up 1m down 15m multiplier 1.5 max 1h info: current disk space usage to: sysadmin Здесь всё интуитивно понятно: в шаблоне указано, когда нужно рассылать предупреждения об исчерпании дискового пространства. Разберём его структуру. В поле template указано имя шаблона. В поле on указано, что шаблон нужно применять ко всем графикам, где context=disk.space (т.е. ко всем дашбордам со статистикой операций ввода/вывода). Наибольший интересе для нас представляет, пожалуй, поле calc: в нём прописано, по какой формуле рассчитывается критический объём свободного места на диске. Она выглядит так: $used * 100 / ($avail + $used). Как нетрудно догадаться, $used — это объём использованного, а $avail — свободного дискового пространства. В поле units мы указываем, что показатель выражается в процентах, а в поле every — что проверку следует проводить раз в минуту. Обратите внимание на поля warn и crit: в них указываются значения, при которых нужно высылать соответственно предупреждение (в нашем случае это 80 -90%) и сообщение о критическом значении показателя (98%). Здесь мы приводим лишь краткое описание; более подробно о шаблонах можно почитать здесь . Ограничения Как и у всякого инструмента, у Netdata есть свои ограничения и минусы. Первый минус заключается в том, что Netdata нельзя использовать для наблюдения за кластером серверов: его нужно устанавливать на каждый сервер в отдельности. А если и эти серверы доступны из Интернета, то интерфейс Netdata нужно в обязательном порядке закрыть для внешних посетителей (: злоумышленники могут использовать данные мониторинга в качестве подспорья в организации DOS-атаки. Ещё один недостаток недостаток — поддержка очень ограниченного количества бэкендов для хранения метрик: на сегодняшний день в качестве таковых заявлены Graphite и OpenTSDB. Конечно, другие бэкенды “прикрутить” можно (см. здесь ), но это не так просто, особенно для начинающих пользователей, не имеющих навыков программирования. В числе минусов Netdata нужно также выделить недостаточно подробную и плохо структурированную документацию (пока что она доступна только в вики на Github ): найти в ней ответ на нужный вопрос порой бывает крайне затруднительно. Заключение В этой статье мы проделали краткий обзор возможностей Netdata. Если вы хотите увидеть Netdata в действии — разработчики открыли для широкой аудитории доступ на  демо-серверы , где можно все посмотреть и «пощупать». Если у вас уже используете Netdata — делитесь впечатлениями в комментариях. В завершение по традиции приводим полезные ссылки для желающих узнать больше: Официальная документация Netdata  (недостаточно детальная и несколько хаотичная, как уже было сказано выше); Неплохая инструкция по установке и настройке Netdata (мы её использовали при написании этой статьи); Неплохая статья-обзор возможностей Netdata (на французском языке).
https://habrahabr.ru/company/selectel/blog/318284/
habrahabr
Личный опыт: Как мы автоматизировали работу с DNS-записями в хостинг-панели
['1сloud', 'iaas', 'dns']
В нашем блоге на Хабре мы много пишем о различных вопросах, связанных с ИТ, а также рассказываем о развитии собственного проекта — IaaS-провайдера 1cloud. Сегодня речь пойдет о том, зачем мы...
В нашем блоге на Хабре мы много пишем о различных вопросах, связанных с ИТ, а также рассказываем о развитии собственного проекта — IaaS-провайдера 1cloud. Сегодня речь пойдет о том, зачем мы разработали новую услугу — бесплатный сервис DNS-хостинга . Ранее мы уже рассказывали о том, как разрабатывали собственную систему управления DNS с помощью продукта ANS. Базовая схема взаимодействия с системой выглядит так: Также мы поработали над упрощением взаимодействия пользователя с интерфейсом. В итоге для создания зон, нужно лишь вбить домен и IP-адрес в простую форму, после чего автоматически будет создана зона с записями SOA, NS (на серверы ns01.1cloud.ru и ns02.1cloud.ru) и A. Этот механизм был удобен при создании новых DNS-записей, но не очень подходил для переноса старых. Поэтому мы разработали специальный сервис для их миграции. Работает он так: система асинхронно опрашивает публичные DNS-серверы на наличие в них записей по указанному домену. Все найденные записи переносятся в нашу панель. Конечно, при такой схеме какие-то записи система может и не найти или, если запись недавно изменили, «поймать» ее старую версию из кэша. Однако на практике такие случаи возникают редко. По статистике, более половины пользователей применяют именно механизм автоматической миграции DNS-записей вместо обычного создания с нуля — хотя эта функциональность по-прежнему доступна. Управление записями может осуществляться и с помощью нашего API-интерфейса — подробнее о нем мы рассказывали здесь . Как правило этой возможностью пользуются крупные клиенты, которым необходимо организовать shared-хостинг на базе нашего частного облако. Планы С самого начала работы над проектом DNS- хостинга мы решили, что должны разработать комплексное решение, которое при этом будет бесплатным для пользователей. Главным здесь было добиться максимального удобства — наш анализ показал, что эту услугу выгоднее сделать полностью бесплатной, чтобы облегчить пользователям работу с панелью управления хостингом. В итоге чтобы воспользоваться сервисом DNS-хостинга даже не обязательно подключать другие платные услуги. Однако, тот факт, что пользователи получают услугу бесплатно, не значит, что ее можно делать кое-как — мы используем оборудование ведущих вендоров и постоянно развиваем сервис. Вот лишь некоторые из последних доработок и планируемые улучшения: В рамках сервиса миграции записей мы добавили индикацию делегирования домена на наши DNS (делегирован/не делегирован). Это позволит разрешить добавление PTR-записей через нашу панель или API — сейчас их нужно добавлять только через обращение в службу поддержки, чтобы ее специалисты могли проверить права на делегирование. Также мы планируем и дальше развивать сеть собственных кэширующих DNS-серверов. Кроме того, планируется отображение статистики по обращениям к доменной зоне. Наши другие материалы по теме: Как это работает: Пара слов о DNS Как мы делали свою систему управления DNS на основе продукта ANS Использование услуги «DNS-хостинг»: краткое руководство Руководство и примеры использования API 1cloud по теме DNS Основы работы со службой DNS «Ультимативный» SSL-дайджест: Лучшие практические материалы на Хабре и не только VPN-дайджест: Ознакомительные и практические материалы на Хабре и не только Клиентоориентированность как основа бизнеса: Опыт IaaS-провайдера «1cloud» Немного о безопасности в «облаке»: Опыт IaaS-провайдера «1cloud» Как сделать виртуальную инфраструктуру доступнее
https://habrahabr.ru/company/1cloud/blog/318286/
habrahabr
Всегда ли клиент прав?
['электронная коммерция', 'продвижение', 'облачные вычисления']
Стоит ли делать большую ставку на мнение пользователя? С одной стороны, известная фраза «покупатель всегда прав», безусловно, имеет под собой резонные основы. Клиент знает чего...
Стоит ли делать большую ставку на мнение пользователя? С одной стороны, известная фраза «покупатель всегда прав», безусловно, имеет под собой резонные основы. Клиент знает чего хочет, но осознает ли он в чем он нуждается в действительности? Вспомним расхожую фразу Генри Форда ««Если бы я спросил у людей, что им нужно, они бы попросили более быструю лошадь». Мы не можем быть уверены, что мистеру Форду действительно принадлежат эти слова. Но если бы он опросил своих потенциальных покупателей (воспользовавшись каким-либо сервисом для обратной связи, вроде Qualaroo)- высока вероятность, что «быстрая лошадь» — был бы самый популярный ответ. Стиву Джобсу приписывают схожий взгляд на проблему «Покупатель не знает чего он хочет, пока мы ему это не покажем». В истории существует множество примеров успешных продуктов, в основе создания которых лежит не «ответ на запрос клиента», а понимание в чем клиент действительно нуждается, часто, неосознанно. Если ты всю жизнь ездил на лошадях, вред ли тебе в голову придет мысль ездить без лошади вообще. Опрашивая клиентов, нужно понимать, что мыслят они в категориях, которые уже им известны. Понять, что хочет клиент, не так просто . Для начала, давайте признаемся себе — мы не очень хорошо справляемся с задачей понимания что именно хочет наш клиент. В противном случае у поставщиков услуг не было бы отбоя от клиентов, а ассортимент Интернет-магазинов раскупался бы в считанные часы. Основатели и разработчики интернет-магазинов во всем мире не ломали бы голову пытаясь понять, почему покупатели уходят, так и не сделав покупку. По статистике это 2/3 посетителей сайта. Е-mail рассылки, скидочные купоны, «два по цене одного» и т. п. Целый мир вырос на проблеме неоплаченных корзин. Что же хочет клиент? У нас нет ответа по двум причинам: 1. Среди посетителей немалая доля приходится на рыщущих конкурентов и шопоголиков «на охоте» в поисках выгодной цены. 2. Люди не всегда знают чего именно хотят. Иначе говоря, то, что им кажется им нужно, не обязательно является их реальной потребностью. Как выявить потребность клиента? Метод проб и ошибок, один из оптимальных способов разгадать потребность клиента. Проблема заключается в том, что любые попытки что-то изменить сразу, даже если речь идет о MPV (минимально жизнеспособный продукт) сталкиваются с враждебностью аудитории. Что уж говорить о релизе нового логотипа у таких мамонтов как Facebook или Instagramm, вспомните сколько недовольства было у публики. Томас Ларнициус утверждает: «Не нужно строго относиться к работе дизайнеров. Попытка что-то изменить и получить обратную связь в разы более плодотворный путь для понимания потребностей клиента, чем теоретические рассуждения о том, чего не хватает в том или ином продукте». Хотя, чаще смена дизайна логотипа компании сопряжена с обновлениями функций самого приложения. Это дает возможность привлечь больше внимания аудитории создать шумиху. Не будем на долго останавливаться на такой незначительной попытке раздразнить публику. Мысль заключается в том, что мы, как потребители, часто не имеем никакого представления какая конечная цель была в обновлении дизайна того или иного брэнда. Но мы можем предположить, что в основе было желание разработчиков как-то распознавать и удовлетворить нашу потребность. А знают ли сами клиенты чего они хотят? UPS Pulse провели исследование среди посетителей интернет магазинов пытаясь понять почему клиенты уходят, так и не совершив покупку. Результаты следующие: 50% пока не готовы покупать 20% отвлекаются на  что-то еще. 16% просто пришли посмотреть. То есть, 2 из 10 посетителей, изначально, заходят на сайт, не собираясь что-то приобретать. Майкл Суока пишет:«В повседневной жизни люди не могут точно сказать чего они хотят, они могут только предполагать. Как дойдет до дела — им может захотеться чего-то другого. И уж тем более они не могут предположить чего им захочется завтра». Помните шумиху вокруг нового дизайна ВКонтакте? И где сейчас все эти критики? Не исключено, аудитория просто послушно привыкает к новому дизайну, а, возможно, новый дизайн — это то, что в действительности ей было необходимо, но она не давала себе в этом отчет. В блоге inbound.org Джефф Уайт высказал свое мнение о новом дизайне логотипа instagram: «То, что непрофессионалу кажется работой на 5 минут, на самом деле несет под собой месяцы, а то и годы кропотливого труда, экспериментов, усовершенствований и профессиональных навыков. Меня всегда поражало на сколько публика не осознает (или, скорее, не испытывает уважения) к титанической работе, проделанной для создания новой иконки или функции для приложения. Не говоря уже о мужестве, которым нужно обладать, чтобы анонсировать обновление для приложения, которым пользуются миллионы людей. Есть ли в этом острая необходимость? Нет. Но это первый шаг к модернизации». Когда потребители критикуют что-либо , они забывают об этом через долю секунды. Решения о  каких-либо изменениях принимается после длительных обсуждений, исследований и определений различных групп потребителей. И если результат кому-то приходится не по вкусу — это нормально и вполне ожидаемо. Клиент может ошибаться в своих желаниях. Пара последних популярных приложений — прекрасно демонстрируют нам: давать аудитории то, чего она хочет (или думает, что хочет) не всегда прямой путь к успеху. — Twitter изначально был создан как платформа для подкастов Odeo. — Инстраграмм, созданный как Burbn изначально, был локальным приложением, позволяющим добавлять друзей, отмечать геолокацию и постить фото. Если представить, что каждое новый продукт создается как ответ на запрос аудитории и попытка удовлетворить ее желания, то, судя по тому с чего начинались успешные сегодня приложения, выходит-либо создатель плохо понимает что хочет потребитель…либо потребитель сам плохо понимает свои потребности. Об этом можно долго рассуждать, но, факт остается фактом: успешные брэнды/ приложения/ продукты не решали озвученную клиентом проблему, а предложили что-то принципиально новое. Что-то о чем сам клиент, возможно, и не догадывался. Бывает, компании предлагают продукты, которые только в последствии оцениваются публикой положительно. Подытожим Хорошая ли это идея, позволить клиентам и потенциальным покупателям диктовать в каком направлении должна развиваться ваша компания? Нет. Как гласит английская поговорка, «верблюд — это лошадь, назначенная сообществом». Иными словами, если попробовать удовлетворить потребности каждого, то, в итоге, не получится удовлетворить никого. С другой стороны, видеть хорошую идею перед глазами и упираться из-за того, что она не соотносится с первоначальным планом, столь же безрассудно. Так существует ли «золотая середина?». Конечно же. Но вот найти ее очень сложно. На самом деле, если бы мы знали, как найти тот самый «идеальный баланс» между потребностями клиента и тем, что необходимо вашей компании, мы бы работали над «новым подходом» какого-нибудь Большого Бренда минимум за 500 долларов в час. Попытаться дать клиентам то, в чем они нуждаются (и это не всегда то, чего они на самом деле хотят) — хорошее начало, но вам необходимо сосредоточиться на том, что на самом деле приносит прибыль. Помните, вашими самыми ярыми критиками могут быть отнюдь не ваши клиенты. Да, принять на себя риск и идти «против толпы» нелегко, но, как Армин Вит заявляет в своей статье о новом логотипе Instagram, «у людей очень короткая память»: «Это всего лишь вопрос времени — трех месяцев, примерно, — до тех пор как люди начнут узнавать это и считать логотипом приложения Instagram». Если вы сможете уловить хоть малую толику такого успеха, то сможете понять, как это работает, даже если ваши клиенты считают, что ваши инновации им вовсе не нужны.
https://habrahabr.ru/company/cloud4y/blog/318288/
habrahabr
Чем «interface» отличается от «междумордия»: наш подход к документированию и локализации программных продуктов
['parallels', 'paralleld desktop', 'virtualization', 'локализация', 'localization', 'it', 'pd', 'pm', 'рунет', 'english', 'interface']
Однажды в технической документации к Parallels Desktop нам потребовалось использовать фразу «жёсткий диск виртуальной машины». На английском языке это звучит: virtual machine hard disk. Наш...
Однажды в технической документации к Parallels Desktop нам потребовалось использовать фразу « жёсткий диск виртуальной машины ». На английском языке это звучит: virtual machine hard disk . Наш прошлый технический писатель ошибся всего в одной букве в одном слове, но смысл получился диаметрально противоположный. Заметили мы это не сразу и в какой-то момент наша техническая документация, локализованная на многих языках мира, содержала нетленное: virtual machine hard dick . Был грандиозный скандал, после которого мы ужесточили проверку текстов. Под катом — рассказ нашего технического писателя Андрея Старовойтова о том, где обитают технические писатели, на что их ловить и как Parallels документирует и локализует свои продукты. Возможно, у вас возникнет вопрос — а зачем мне, разработчику/программисту/тестировщику, знать о том, как создаются и локализуются документация и интерфейс? Всё очень просто: жизнь может внезапно повернуться к вам так, что сегодня вы программист, а уже завтра запускаете свой стартап, в котором вы и швец, и жнец, и технический писатель. Также не исключено, что заняв менеджерскую должность вам внезапно придётся контролировать процесс разработки технической документации. Часть 1: Где найти технического писателя или гуманитарий в тылу у технарей Технических писателей не готовят в ВУЗах. Если понадобился такой специалист, можно пригласить его из-за рубежа, или «вырастить» в компании. Ниже мы поподробнее остановимся на этих вариантах. Иностранный специалист Плюсы : Если вы планируете продавать продукт за рубежом и вам нужна документация на английском языке, носитель языка более качественно опишет приложение. Нельзя сказать, что отечественный сотрудник со знанием языка сделает это обязательно плохо, но если подходить к вопросу с точки зрения перфекционизма, то по некоторым фразам, оборотам, построению предложений иностранные пользователи могут понять, что документацию писал не носитель. Минусы : Во-первых, иностранному специалисту придется больше платить. А во-вторых, не каждый иностранец согласится приехать на работу в Россию. Если же он будет работать удаленно, в отрыве от разработчиков, то возможны опоздания в сроках подготовки документов, и технические неточности, так как удаленно всегда сложнее выяснить технические детали, нежели если поговорить с программистами напрямую. Писатель «которого вырастили» Тут встает вопрос, из кого выращивать – технарь или гуманитарий? Конечно, все зависит от конкретной ситуации, но давайте посмотрим на основные моменты. «Технарь» Плюсы : Технарь лучше понимает начинку и технические детали или же ему проще разобраться. Минусы : Не каждому технарю захочется возиться с документацией, потому что разработчик чаще сконцентрирован на какой-то узкой области и видит себя Скульптором, а не Евгением Онегиным, «который может коснуться до всего слегка с ученым видом знатока». «Гуманитарий» Плюсы : Все зависит от конкретного случая, но гуманитарий может лучше описать продукт, так как лучше владеет языком. И еще такой момент, разработчик может описать функцию или фичу двумя предложениями, так как с его багажом знаний ему и так все понятно. Для покупателя продукта такого описания может оказаться недостаточно. У гуманитария, как неспециалиста, при описании возникнут разнообразные вопросы. Если он найдет на них ответы и опишет функцию продукта так, чтобы самому было понятно, то такая документация окажется более понятна для пользователя. Хотя опять же, все зависит от конкретной ситуации, если руководство написано для администраторов, будет излишне объяснять им что такое IP адрес. Минусы : Минус гуманитария в том, что он меньше знает техническую сторону продукта, и потребуется время, чтобы он овладел терминологией, освоил азы и стал понимать что к чему. Личный опыт — Я попал в Parallels весьма прозаично. После школы учился в педагогическом колледже в городе Серпухове на преподавателя английского языка. После в Московском Государственном Лингвистическом Университете им. Мориса Тореза. Когда на третьем курсе университета встал вопрос серьезной работы, я уже успел побывать курьером по развозу DVD, учетчиком на складе, начальником склада, менеджером по продажам. Все это было хорошо, но желание зарабатывать на жизнь английским языком было крепче. В преподавание не пошел, так как хотелось поработать в какой-нибудь прикладной области – нефтянка или IT. Как-то на одном из сайтов по поиску работы я увидел вакансию – помощник технического писателя в компанию SWsoft с возможность карьерного роста. В объявлении говорилось об участии в создании документации для компьютерных программ. Писать документацию требовалось сразу на английском. Для меня это было что-то совершенно новым и заинтересовало. Я отправил резюме, прошел собеседование, написал сочинение на свободную тему и так стал junior technical writer. Сначала было непросто. Будучи гуманитарием до мозга костей, при написании первых топиков, казалось, что все вокруг говорят на каком-то птичьем языке. Я совершенно не знал терминов. Разговор с девелоперами первое время выглядел примерно так : — Здравствуйте, я новый технический писатель. Мне надо описать вот эту функциональность. Не могли бы вы чуть поподробнее рассказать как она работает? — А, ну тут все просто, клиент «коннектится», если «сервак» не дохлый, все нормально. Если что, можно «попинговать». Бывает «бага стреляет», «контейнер бсодится», но тут «патчик» можно накатить. Возьми вот этот «экзешник», он у тестировщиков на «репе» лежит. Понял? Ну молодец. или так: — Мне вот тут надо фичу описать, она связана с Active Directory. Не могли бы вы рассказать что это такое? — Да это тоже самое что и LDAP на Линуксе. Поначалу записывал все эти термины в тетрадочку, затем шел «гуглить» значение. После этого опять шел к разработчикам или тестировщикам и спрашивал по-новой. Первые полгода, в свободное от работы и учебы время, изучал терминологию, читал что такое автоматизация, виртуализация, контейнеры, виртуальные машины, оперативная память, процессор, IP адрес, DHCP, и т. д. Потом, неожиданно количество перешло в качество и я стал свободнее себя чувствовать в этой сфере. Если что-то не понимал, мне хватало гугла для того, чтобы схватить основную мысль, а к девелоперам шел уже в основном за деталями. На данный момент я работаю в компании уже около 8 лет. Вырос до старшего технического писателя. Теперь я занимаюсь не только созданием документации и интерфейса, но и их переводами на поддерживаемые языки. Часть 2: Как мы создаем техническую документацию Над созданием документации у нас трудятся 3 человека – двое в России и один сотрудник в США, для которого английский язык родной. Для написания технических книг мы используем продукт AuthorIT . В нем довольно удобно работать. Библиотека с книгами лежит на сервере. У каждого писателя на компьютере стоит клиентская часть, с которой он подключается к библиотеке. Это позволяет нескольким писателям работать над одной книгой. Применение вариантов позволяет легко создавать книги для новых версий продуктов на основе старых. Мне сложно сказать что-либо о других продуктах, в которых можно создавать документацию, поскольку исторически сложилось, что мы работаем в AuthorIT. Нас он пока устраивает, а переходить на другой продукт просто из любопытства может оказаться удовольствием недешевым. Например, та же подписка на AuthorIT на 3 человек обойдется в $375 в месяц и выше. Так как наш основной рынок сбыта находится за рубежом, мы пишем документацию сразу на английском языке. Поскольку сейчас в мире английский считается универсальным языком, особое внимание стоит уделить тому, чтобы в английской документации проблем не было. Конечно можно было бы писать на русском, а потом переводить на английский, но это вызовет необходимость проверять насколько качественно выполнен перевод. Мы не хотели бы тратить на это ресурсы, так как у нас есть возможность писать сразу на английском и одновременно проверять, чтобы этот английский был понятен и выглядел так, как будто бы текст написан носителем языка. Процесс создания документации построен следующим образом: 1) Маркетинг с менеджерами обговаривают список функциональностей и улучшений, которые будут внедрены в новой версии продукта. 2) Для каждой задачи менеджер пишет детальное описание. 3) После того, как программист внедряет функциональность, я ставлю последнюю версию программы на компьютер, читаю описание, пробую как новинка работает и описываю ее в руководстве. Если возникают какие-либо вопросы, общаюсь с менеджерами или разработчиками. 4) Я описываю новую функциональность на английском, после чего отправляю топики нашему иностранному писателю на проверку. Он читает и, если есть необходимость, вносит какие-либо правки. Вроде бы я неплохо знаю английский, но все равно носитель языка иногда может выразиться более лаконично и емко. 5) После проверки, иностранный писатель присылает топики мне, я заливаю их в базу и публикую документы в необходимые форматы – в основном это PDF и XHTML для контекстной справки (это когда жмешь на экране иконку со знаком вопроса и привязанный к этому скрину хелп топик открывается в браузере). 6) Когда английская документация готова, я отсылаю ее на перевод. О том как и на какие языки мы переводим я расскажу ниже. Какие документы создаются для продукта: User’s Guide – это самая большая книга для продукта, в которой описывается вся функциональность, хитрости и решения возможных проблем. Она ориентирован на большинство пользователей. Getting Started Guide – это короткий документ, в котором описана процедура установки и основные шаги, необходимые для начала работы с продуктом. Ориентирован на знакомство с продуктом и пользователей, которые обладают неким опытом и хотят побыстрее начать работу с приложением, не внедряясь в дополнительные настройки и тонкости. Readme – обычно это текстовый файл, который создается для каждого релиза, хотфикса и апдейта. В нем описано то, что было сделано нового, что улучшено и какие проблемы решены. Knowledgebase articles – это статьи для так называемой базы знаний. В них описаны или какие-то моменты, которые вызывают частые вопросы у пользователей или временные решения известных проблем. Также существуют различные другие виды книг, такие как: — Licensing Guide (описывает как создать аккаунт, управлять своим ключом или подпиской и т. д.) — Administrators guide (документ для людей с техническим опытом для развертывания продукта в больших компаниях) — Training manual (документ для людей, которые обучают пользователей как работать с продуктом) — Command Reference Guide (в нем описаны команды для текстовой строки и даны примеры их применения) — API Reference Guide (в таких книгах документируют API). Какие инструменты мы используем для создания документации: — AuthorIT – программа для создания и работы над книгами. — Adobe Photoshop – для создания и работы над скриншотами для документации. — Microsoft Visio — для создания схем. — Microsoft Word и Adobe Acrobat – для публикации документов в .docx формат и последующей генерации в PDF. В работе по созданию документации бывают разные курьезы. В основном связанные или с невнимательностью писателя или если что-то делается в спешке и банально упустили. Например, были случаи когда выпускалась готовая документация, в которой остались не удаленные комменты писателя, например «Уточнить у Васи как эта херня работает». А еще бывает, что сами писатели прикалываются в документации для внутреннего пользования. Некоторые люди считают, что документация никому не нужна, так как ее никто не читает. Иногда писатель в каком-нибудь неофициальном документе для компании может написать в тексте инструкций – «кто первым это прочтет и позвонит мне – выиграет пиво». Часть 3: Как технический писатель может участвовать в создании GUI В процессе работы над фичами, разработчикам зачастую надо придумать название опции, меню, дескрипшн под опцией или сообщение об ошибке. Так как мы делаем гуй сразу на английском, девелоперы поручают эту задачу мне. Я читаю описание фичи, спрашиваю девелоперов и менеджеров что нам нужно сказать, выясняю детали и предлагаю свой английский вариант. Если он технически верен, отправляю его на утверждение нашему иностранному писателю и сообщаю ему все детали, которые выяснил у девелоперов. Тот в свою очередь или утверждает мой вариант или предлагает что-то свое. Если финальный вариант всех устраивает, его заливают. В процессе создания гуя, мы придерживаемся следующих пунктов: 1) Нужно стараться делать названия опций понятными и короткими, чтобы избежать последующих проблем с их локализацией, когда перевод не влезает. Например, у нас есть опция, которая тормозит курсор мыши у границы окна виртуальной машины. Это было сделано, чтобы юзер в Windows 8 мог легче открыть дополнительные меню, которые находятся у границы. Без этой опции юзер зачастую просто выводил курсор за границу и приграничное меню не показывалось. Так вот, долго думали как назвать эту опцию, получалось или слишком длинно или не совсем понятно. В итоге остановились на «Mouse sticks at window edges». Конечно бывают случаи, когда сложно придумать идеальное название для опции, в таких ситуациях приходится выбирать более-менее приемлемый вариант и надеяться на то, что если юзер не поймет, то почитает в документации. 2) Если в сообщении используются сложные термины или описан трудоемкий процесс как решить какую-то проблему, есть смысл дать ссылку на КБ статью или какой-то другой ресурс, где есть более детальное и подробное описание или объяснение. 3) При создании сообщения надо концентрироваться не на том, что не получилось что-то сделать, а на том, что надо сделать чтобы желаемый результат был достигнут. Часть 4: Перевод технической документации и GUI После того, как началась разработка новой версии программы, обычно к Beta 1/Beta 2 накапливается первая партия хелп топиков и фраз гуя, которые можно отсылать на локализацию. На мой взгляд, очень здорово, если тот самый писатель, который написал топики и помогал делать гуй, и будет управлять переводами и общаться с переводческой конторой. Такой человек грамотно планирует работу, лучше знает сроки когда что будет написано или как скоро что-то надо описать. Он знает значение гуевых фраз и может легче и быстрее ответить на вопросы переводчиков. Помню мы раньше использовали разделение – есть люди, которые пишут, и есть человек, который занимается только локализацией. В итоге не всегда процессы проходили эффективно. Например, писатели описали фичи, свои таски в Jira закрыли и успокоились. Но забыли отметить все топики, которые были изменены. В итоге менеджер локализации отправил на перевод не все и в результате приходилось в дикой спешке допереводить пропущенное. Или менеджер по локализации отправил гуй на перевод, но он его не создавал, и не может ответить на многочисленные вопросы переводчиков. Начинает дергать разных людей, а их еще надо найти, потому что часть гуя делали сервер тим, часть – девайсы, часть гуевщики, часть – интеграторы, короче потеря времени и не детальные ответы – как результат – недостаточное качество переводов. Мы переводим документацию и гуй наших продуктов на следующие 12 языков: немецкий, французский, итальянский, испанский, польский, чешский, русский, португальский (бразильская версия), японский, корейский и две версии китайского — упрощённый и традиционный тайваньский. Далее может появиться вопрос – как лучше, иметь своих собственных переводчиков или пользоваться услугами переводческой компании. Давайте посмотрим плюсы и минусы обоих вариантов. Собственные переводчики Плюсы : Если переводчики есть у вас в штате, то они как правило довольно неплохо знают продукт и благодаря этому способны делать более качественные переводы. Минусы : Как правило, наиболее активная стадия разработки продукта, когда надо делать много переводов, длится 3-4 месяца. В такой ситуации необходимо все считать, потому что может оказаться просто экономически невыгодно держать переводчиков на постоянной основе. Переводческая контора Плюсы : Мы отсылаем им задания тогда, когда разработка идет в разгаре, и платим только за выполнение этих заданий. В итоге это получается дешевле, нежели иметь 12 переводчиков в штате. Минусы : Зачастую переводческая контора работает не только на вас, и вашим заказом сегодня может заняться один переводчик, а завтра совершенно другой. Он о вашем продукте может абсолютно не иметь никакого понятия. Чтобы не потерять в качестве переводов, приходится писать много объяснений для переводчиков, дабы они имели представление о том, что переводят и на что обратить внимание. Мы пользуемся услугами одной из европейских компаний. У неё свой корпус переводчиков на разные языки. Все текстовые материалы отправляются подрядчику. Форматы могут быть самыми разными: • при локализации GUI — .txt-файлы, .strings-файлы, .xml-файлы, .xliff-файлы, • при локализации документации — .docx-файлы, .xml-файлы В первую очередь надо локализовать GUI. К каждой порции гуя на перевод я готовлю подробные комментарии для переводчиков – по каждой фразе. В комментариях описываю что это за фраза, как ее переводить – инфинитивом или императивом, надо ли переводить как можно короче (особенно если это кнопка) и если да, то во сколько символов надо уместиться. Также шлю переводчикам скриншоты, чтобы они могли посмотреть как опция или сообщение выглядит в гуе. Почему в первую очередь надо переводить гуй Дело в том, что переведенные фразы попадают в так называемую память переводов – translation memory. Из этой памяти они впоследствии будут браться, если в последующей порции фраз на перевод окажется точно такая же. Например, мы перевели гуй и утрясли опции по длине. После этого я отправляю на перевод документацию, в которой эти же опции описываются. Так вот, перевод этих опций для документации будет взят из translation memory, и таким образом фразы и в гуе и в документации будут переведены одинаково. Если же я сначала переведу документацию, а потом гуй, то если в гуе опция будет слишком длинной, мне придется править и в гуе и в документации, чтобы везде было консистентно, а это лишний геморой. По мере готовности переводчики присылают мне переведённые материалы, я импортирую их в базы, откуда потом локализованный гуй и документация попадают в билд. Как работает переводческая контора? Получив от нас материалы, подрядчик прогоняет их через свою базу уже выполненных переводов — так называемую translation memory. Система ищет, есть ли в новом материале данные, которые были когда-то переведены. По мере нахождения эти готовые фрагменты вставляются в текст. Допустим, если из четырёх присланных абзацев три уже были переведены для предыдущего релиза, то достаточно перевести только четвёртый абзац, а остальные взять их базы данных. Это экономит и время, и деньги. Так что дольше всего переводятся самые первые порции материалов, где больше всего изменений и нового текста. В работе с локализационными компаниями есть одна особенность: им нужно единовременно присылать как можно больше материала. Если делать слишком маленькие по объёму заказы, то это может оказаться гораздо дороже. Почему так происходит? У каждой локализационной компании прописаны свои минимальные объёмы на перевод. Если после прогона через их базу данных окажется, что нужно перевести слишком мало текста, то счета выставляются не за переведённые слова, а за почасовую работу переводчиков. А поскольку с приближением к дате релиза порции текстов, требующих локализации, становятся всё меньше, приходится лавировать, придерживая материалы, чтобы накопить побольше и не переплатить. При этом важно не сорвать сроки, выкатив за неделю до релиза слишком большой заказ на перевод. Стоимость локализации Наверное, вас интересует, сколько же компании тратят на локализацию своих продуктов? Это сильно зависит от объёмов и выбранных языков. Например, стоимость перевода одного слова на польский язык — $0,14, на немецкий — $0,23, на французский — $0,21. У нас большие и сложные продукты, с увесистой документацией, которую нужно переводить на 12 языков. Поэтому общая стоимость локализации в среднем составляет $10-60 тыс. Причём сюда не входят расходы на перевод статей из баз знаний (knowledge base), в которых описываются различные методики работы, а также локализацию изменений на сайте. «Джентльменам верят на слово» Учитывая разнообразие языков и высокую стоимость работ, как можно оценить качество перевода? А вдруг подрядчик просто прогнал текст через Google Translate и подрихтовал результат? Дело в том, что в сфере локализации крайне важна репутация. Когда компании ищут подрядчиков для перевода документации и интерфейсов, они подходят к этому очень тщательно. Например, мы выбирали примерно из 15 компаний: всем разослали тестовые задания, а затем проверяли сделанные переводы по своим сотрудникам из разных стран, понимающих эти языки. Также пристальное внимание мы уделяли отчётности о выполненной работе: насколько подробно расписано, сколько слов переведено, сколько обнаружено новых слов, учитываются ли случаи, когда нужно переводить лишь часть предложения, и так далее. В конце концов мы выбрали своим подрядчиком одну из компаний и начали с ней работать. Но это не означает, что мы с тех пор верим им на слово. Качество переводов регулярно проверяется: • нашими сотрудниками, понимающими соответствующие языки, • переводчиками самого подрядчика. Дело в том, что там переводят одни, а вычитывают по нашей просьбе другие. Наверняка вы скажете, что проверять работу одной компании нужно у специалистов другой. Но дело в том, что локализационные компании отчаянно борются за клиентов. И если мы кому-то пришлём тексты и попросим их оценить, то нам сразу скажут, что переведено из рук вон плохо, давайте мы сделаем гораздо лучше. Собственно, попытки нас переманить не прекращаются до сих пор. Иногда, когда выходит большой релиз, не всегда получается проверить документацию, локализованную незадолго до дедлайна. Тогда приходится на свой страх и риск выпускать как есть. Но в таких случаях мы тесно работаем с поддержкой: если в документации есть какие-то косяки, на которые поступают жалобы от пользователей, то мы сразу обращаемся к переводчикам и переделываем. К счастью, такое случается редко. Проблемы с переводами В процессе работы над переводами могут встречаться определенные косяки. Их все надо тщательно обговаривать с переводческой конторой, чтобы там разобрались и подобного больше не повторялось. 1) Невнимательный переводчик – если во фразе гуя есть переменная, невнимательный переводчик может пропустить ее часть. Например, у вас переменная (%1)s, а в переводе получите (%1). В итоге фраза будет выглядеть не так, как надо. 2) Переводчик задумался – все мы люди, бывает, что переводчик что-то переведет неправильно, причем что-то довольно простое. Например фраза This file is not valid (Файл недействителен) будет переведена как «Файл не найден». 3) Слишком тщательный переводчик – такой переводчик переводит все, что видит. Тут надо объяснить, что переменную ProductName на надо переводить как «Имя продукта», иначе она ломается и в гуе имена продуктов не подставляются. Или же если он переводит .xml файл с документацией, то не надо переводить теги и, иначе потом такой xml не импортится в базу из-за разломанных тегов. 4) Сложный технический термин или аббревиатура – если в тексте на перевод есть что-то подобное, лучше сразу в комментариях обратить внимание переводчиков на это, описать что это такое и посоветовать погуглить, чтобы узнать как правильно это переводится на их язык. Иначе можно получить что-то далекое от нужного термина. 5) Косяки из-за отсутствия комментариев – если не делать комментарии для переводчиков, они могут задать вопросы не по всем непонятным моментам. В итоге может пострадать качество переводов. Например, у нас есть приложение Parallels Access, которое позволяет получить доступ к удаленным компьютерам с iOS и Android устройств. В другом продукте есть вкладка, которая позволяет скачать это приложение. Эта вкладка называется Access и не должна переводиться. Мы тогда не успели сделать комментарии, в итоге чехи и поляки быстренько ее перевели, где как «доступ», где «приступ». 6) Слишком ответственный переводчик – такой переводчик сам может вставлять знаки препинания, которые не надо вставлять. Например у нас в одном продукте двоеточие и точка в конце предложения вставляется автоматически – так написано в коде. В итоге мы отослали на перевод фразы без точек и двоеточий в конце. Переводчик в переводе сам решил поставить в конце точки, и у нас везде оказались двойные точки. Или переводчик может додумать и дописать текст фразы. Например, есть фраза Unable to save the license file. Я в комментарии объясняю, что она показывается в том случае, когда по каким-то причинам мы не можем сохранить лицензионный файл для продукта Parallels Desktop. Приходит перевод – «Не удалось сохранить лицензию для Parallels Desktop.» Приходится объяснять, что додумывать не надо и лучше ограничиться фразой «Не удалось сохранить лицензию», так как в коде она может быть использована для других продуктов. 7) Слишком длинный перевод – получаешь бывает перед релизом порцию переведенного гуя, заливаешь переводы, а в гуе половина опций не влезает – слишком длинно перевели. Тут надо реагировать по ситуации – или срочно просить переводчиков сократить перевод, или просить девелоперов расширить окно, потому что если длинную фразу сокращать до «тыр.пыр.мыр.», то это получится некрасиво и непонятно. 8) Неправильно рассчитанные сроки – иногда бывают ситуации, когда отсылаешь файлы на перевод и думаешь – ну тут за 3 дня переведут, максимум. А тебе выкатывают срок – неделя, не меньше. Поэтому я взял за правило – к ожидаемому сроку прибавляй 3-4 дня на всякий случай. 9) Праздники в других странах – это тоже связано со сроками. Обычно локализационная компания предупреждает, и об этом надо помнить – где, когда и у кого государственные праздники. А то иной раз надо что-то срочно перевести на китайский, думаешь – ну это я мигом, а тебе говорят, что у них же новый год сейчас. Обещают попробовать найти выход но в результате подобная ситуация может тоже обернуться задержкой. 10) Разработчик – оптимизатор – иногда приходится вести войну с разработчиками. У них оптимизация кода — это идея фикс. Они очень любят многократно использовать одни и те же данные. Например, вставят в одном месте какую-то фразу или слово, а потом ссылаются из самых разных мест. У меня был такой случай. В приложении есть вкладка, на которой можно переназначать клавиатурные сочетания. В частности, там есть шорткат Ctrl+Alt+Delete. И ещё у нас есть менеджер снэпшотов, позволяющий удалять эти снэпшоты. Что характерно, кнопка так и называется — Delete. Разработчик, который писал этот менеджер, вместо того, чтобы назвать шорткат Ctrl+Alt+Delete и отдельно кнопку Delete, придумал оптимизацию: в одном месте кода назвал кнопку Delete, а шорткат назвал Ctrl+Alt+ . И когда мы стали переводить интерфейс, кнопка Delete была переведена на все языки. В русскоязычной версии этот шорткат стал называться Ctrl+Alt+Удалить. Пришлось в коде прописывать отдельно названия кнопки и шортката. Другой пример. Когда мы выпускали Parallels Access, на начальном экране была фраза “Welcome to Parallels Access”. По идее, её нужно было прописать в коде как есть. Но поскольку во фразе использовались три разных шрифта, разработчики разбили её на три части: Welcome, to и Parallels Access. И при выводе на экран фраза собиралась из этих частей. Когда дело дошло до переводов, японцы офигели, но добросовестно перевели все три части по отдельности. Только проблема в том, что в японском языке текст читается справа налево. И вместо «Добро пожаловать в Parallels Access» у них получилось «Parallels Access в добро пожаловать». Пришлось менять код. 11) Разные окончания существительных в зависимости от числительного – помню как-то у нас возникали сложности с переводом фраз, в которых были числительные. Например, девелоперам нужно сделать фразу типа «Пробный период кончается через столько-то дней». На английском все просто – “Your grace period expires in %1 days.” Проблема появляется при переводе на языки, в которых окончания существительных меняются в зависимости от числительного. Например, на русский – «пробный период заканчивается через 5 дней/3 дня/1 день». Сначала мы подставляли разнообразные костыли (применяли сокращения в переводе, например, дней – до «дн.», минут – до «мин.», секунд – до «сек.») или колхозили (меняли английскую фразу на “Days left until the grace period expires: %1.”. Потом мы все-таки уделили этому время, залили разные варианты переводов слов, которые часто встречаются после числительных (например, (5)минут, (3) минуты, (1)минута), и сделали в коде так, что после числительного вставляется перевод с правильным окончанием. Проверка локализации перед релизом Как бы тщательно не делались комментарии для перевода, а различные косяки все-таки бывают, поэтому перед релизом хорошо бы проверить качество локализации. Проверять можно одним из следующих способов – или дать переводчикам программу и сценарии, по которым надо осуществить проверку, или предоставить скриншоты продукта и сценарии. Опять же, у каждого из них свои плюсы и минусы. Проверка на живом билде Плюсы : Переводчик получает сценарии, по которым он как обычный пользователь гоняет продукт и отмечает где какое название или сообщение надо изменить или поправить. В таком случае, переводчик выступает еще и как тестировщик и были случаи, когда переводчики находили баги, не связанные с локализацией. Такой тип тестирования проще подготовить, чем по скриншотам, так как надо составить только английские инструкции, и нет необходимости делать кучу скриншотов для 12 языков. Минусы : Этот тип тестирования более затратен в финансовом плане. Зачастую у переводчиков нет необходимого оборудования, поэтому надо им заплатить дополнительно, чтобы они его арендовали. Также они потратят больше времени на проверку живого билда, за каждый час надо заплатить. Плюс, когда они начинают, гонять живой билд, у них как правило что-то не получается, а ответить на многочисленные вопросы 12 переводчиков – тоже требуется время. Проверка по скриншотам Плюсы : Менее затратно по финансам. Ты присылаешь переводчикам английские инструкции и скриншоты, а так же локализованные скриншоты в том же порядке, что и английские. В итоге, переводчик читает инструкции и сравнивает английские скриншоты с локализованными, и отмечает что и где хорошо бы поправить. Такую работу тоже надо оплачивать по часам, но она занимает гораздо меньше времени чем проверка живого билда. Минусы : К такому типу тестирования надо тщательно подготовиться. Надо не только сделать подробные английские инструкции, но и наснимать такие же скриншоты для каждого языка, а их 12. Приходится потратить порядочно времени. В финале хочется сказать, что конечно же создать простой, удобный и понятный программный продукт, который бы еще и сам себя продавал – мечта любого разработчика. В реальности же все складывается по-другому. Наряду с разработкой вашего продукта, словно подводная часть айсберга, появляются десятки смежных задач, причем считать их незначительными можно до определенной поры. Искренне надеемся, что данная статья была вам интересна. С удовольствием ответим на дополнительные вопросы в комментариях к материалу. З.Ы. И лайфхак напоследок!
https://habrahabr.ru/company/parallels/blog/318170/
habrahabr
Топ-10 ключевых анонсов от Microsoft в 2016 году
['microsoft', 'искусственный интеллект', 'ai', 'ии', 'демократизация', 'сатья наделла', 'microsoft cognitive services', 'uber', 'skype translator', 'openai', 'microsoft azure', 'xamarin', 'xamarin studio', 'linux', 'microsoft bot framework', 'azure bot-as-a-service', 'azure baas', 'windows', 'windows 10', 'c#', 'c# 7', 'visual studio 2017', 'visual studio mobile center', 'hololens', 'дополненная реальность', 'смешанная реальность', 'github', 'open source', 'microsoft teams']
Традиционно провожаем уходящий 2016 год подборкой ключевых анонсов от корпорации Microsoft. Под катом мы собрали десять самых ярких и запоминающихся новостей. 1. Стратегия демократизации...
Традиционно провожаем уходящий 2016 год подборкой ключевых анонсов от корпорации Microsoft. Под катом мы собрали десять самых ярких и запоминающихся новостей. 1. Стратегия демократизации искусственного интеллекта Выступая на Microsoft Ignite 2016 в конце сентября, Сатья Наделла озвучил амбициозную цель, которую поставила перед собой компания: « Демократизация искусственного интеллекта ». Она заключается в том, чтобы сделать технологию AI доступной и понятной для всех. Сатья также поделился уникальным на тот момент кейсом с Uber . Компания внедрила новую технологию Real-Time ID Check для повышения уровня безопасности водителей и пассажиров, реализованную на основе Microsoft Cognitive Services . Её суть заключается в том, что каждый водитель устанавливает мобильное приложение, которое распознаёт его с помощью камеры телефона и только после успешного прохождения идентификации водитель сможет приступить к работе. Стоит отметить, что первые шаги в направлении новой стратегии в России Microsoft сделали в начале октября — русский язык появился в Skype Translator . Осенью появились ещё две новости о крупнейших партнёрствах в области AI: Facebook, Amazon, IBM, Google и Microsoft объявили о появлении партнерской программы для совместной работы в области развития искусственного интеллекта, Partnership on AI. Microsoft и OpenAI стали партнерами . Напоминаем, что OpenAI — компания, которая занимается исследованиями искусственного интеллекта, и была основана совместно Илоном Маском, Сэмом Олтманом, Грегом Брокманом и Ильей Суцкевером. Также OpenAI выбрала Microsoft Azure в качестве своей основной облачной платформы для совершенствования их исследований, а также создания новых инструментов и технологий, которые возможны только в облаке. В середине декабря Microsoft поделились первыми результатами по достижению своей цели: анонс Cortana Devices SDK , говорящие боты в Skype, обновления Microsoft Bot Framework , партнерство с Harman Kardon для создания уникальной акустической системы с применением AI. Буквально несколько дней назад компания объявила о появлении в открытом доступе набора данных для обучения компьютеров письменной речи . Он получил название Microsoft Machine Reading Comprehension (MS MARCO) и содержит в себе более 100 тысяч англоязычных вопросов и ответов на них, собранных с помощью анонимных реальных запросов в Bing и Cortana. 2. Microsoft приобретает компанию Xamarin В начале года Microsoft официально объявили о приобретении Xamarin — крупнейшей платформы для разработки мобильных приложений. В рамках последующих конференций ( Build 2016 , Xamarin Evolve 2016 и Connect(); //2016 ) прозвучало еще несколько ключевых анонсов этого года: Xamarin стал абсолютно бесплатным для всех редакций Visual Studio. Анонсирован Xamarin SDK в Open Source, а также проект Mono, являющийся ядром инструментов Xamarin, перевыпущен под открытой лицензией MIT. Появилась поддержка Appium в Xamarin Test Cloud. 3. Microsoft присоединилась к Linux Foundation Microsoft стала платиновым участником некоммерческого консорциума развития Linux, Linux Foundation. В число платиновых участников входят такие компании как Cisco, Fujitsu, HP, Huawei, IBM, Intel, NEC, Oracle, Qualcomm и Samsung. С одной стороны, эта новость многих могла шокировать, но с другой — стоит обратить внимание, что в последнее время появляется все больше новостей от Microsoft о публикации исходного кода PowerShell, Visual Studio Code, JavaScript-движок Edge, анонс Linux-версии SQL Server, а также в начале года Ubuntu интегрировали в Windows 10. 4. Запуск Microsoft Bot Framework + Azure Bot-as-a-Service на Linux В рамках конференции Build 2016 был анонсирован новый инструмент для создания ботов, Microsoft Bot Framework , включая API. Он включает в себя Bot Builder SDK, Microsoft Cognitive Services и Bot Connector, который позволяет привязать бота к одному или нескольким каналам общения, например Skype, Slack, Telegram и другие. Также приятной новостью стал запуск превью-версии Azure Bot-as-a-Service на Linux с поддержкой контейнеров и ASP.NET Core. 5. Юбилейное обновление Windows 10 2 августа Юбилейное обновление Windows 10 стало доступно на устройствах по всему миру. Среди всех функций можно выделить: Windows Ink, который позволяет быстро и легко создавать заметки, рисунки или наброски ваших идей на экране. Повышенный уровень безопасности с Windows Defender и защищенный доступ к приложениям и сайтам с помощью Windows Hello. Улучшенная энергоэффективность с новым Microsoft Edge и появление расширений. 6. C# 7.0: масштабное обновление языка программирования В 2000 году группой разработчиков компании Microsoft был представлен новый язык программирования С#, который сочетал в себе всю выразительность объектно-ориентированных языков программирования, вроде Java, и мощность С++. В этом году появилась новость о новой версии языка C# 7.0, часть функций которого стала общедоступна с выходом Visual Studio “15” Preview 4. Полный набор фич вы сможете найти в статье . Напоминаем, что в начале сентября мы делились с вами интересными фактами про С#. 7. Visual Studio для Mac, превью-версия Visual Studio 2017 и Visual Studio Mobile Center Preview В этом году одна из самых масштабных конференций для разработчиков Connect(); //2016 была насыщена новостями. Ключевым анонсом можно назвать выход Visual Studio для Mac . Это полноценная среда разработки, предназначенная для создания мобильных приложений, облачных сервисов и приложений для Mac. Первый превью-релиз включает поддержку создания нативных iOS и Android приложений на C# и F# с помощью Xamarin, а также создание бэкэнда с помощью Azure сервисов, и, естественно, поддержку ASP.NET Core. Стала доступна превью-версия Visual Studio 2017 Release Candidate. Visual Studio 2017 RC содержит в себе, как исправления, так и новую функциональность, ранее не доступную в предыдущих версиях. А так же этот выпуск Visual Studio 2017 RC включает в себя возможность разрабатывать production решения. Для мобильных разработчиков главной новостью стал анонс Visual Studio Mobile Center Preview . Mobile Center работает с iOS и Android приложениями, написанными на Objective-C, Swift, Java, Xamarin, React Native и собирает вместе облачные сервисы и инструменты для обеспечения жизненного цикла создания приложений для разработчиков, цель которых быстрая разработка качественных мобильных приложений. Инструмент предоставляет возможности для разработки, сборки, тестирования, мониторинга и развертывания приложений на устройства и облегчает разработчикам возможность масштабировать приложения на все платформы и реализовывать в них самые новые и популярные функции. 8. Microsoft HoloLens для разработчиков В начале 2016 года cтартовали поставки Microsoft HoloLens Dev Kit . Мы уже делились с вами руководством по написанию Hello World для HoloLens , а также техническими характеристиками устройства . Осенью HoloLens удостоились престижной награды Popular Mechanics’ 2016 Breakthrough Awards, которая присуждается «новаторам в мире технологий за последний год, тем, кто вышел за границы и сделали мир немного лучше». В данный момент существует несколько российских компаний, которые занимаются активной разработкой под HoloLens. В том числе, HoloGroup, которые выпустили первое русскоязычное приложение дополненной реальности, а также Zengalt, которые стали первой российской компанией, выпустившей приложение под HoloLens. 9. Microsoft стала компанией №1 по открытому коду на GitHub В середине 2016 года появилась новость о том, что Microsoft опередила Facebook и стала компанией №1 по открытому коду на GitHub! Первым об этом написал один из пользователей Reddit. 10. Вышел новый сервис для общения – Microsoft Teams Корпорация Microsoft представила новое приложение для коммуникаций в Office 365 – Microsoft Teams. Оно организовано по принципу чата и расширяет возможности совместной работы в Microsoft Office 365. Также было анонсировано Microsoft Teams Developer Preview. С помощью функции Tabs можно настраивать отдельные темы для общения, также она предоставляет быстрый доступ к часто используемым документам и приложениям. Tabs могут быть созданы для таких сервисов Office 365, как OneNote, SharePoint и Planner, или сторонних решений. Аналогично Exchange новое пространство Microsoft Teams поддерживает уведомления и обновления от сторонних сервисов, например, Twitter или GitHub. Также осуществлена поддержка Microsoft Bot Framework, что позволяет встроить в корпоративную рабочую среду интеллектуальные сервисы. Напоминаем, что мы собрали самые яркие анонсы. В комментариях, вы можете дополнить список или привести свой. :) Доброго Кода!
https://habrahabr.ru/company/microsoft/blog/318130/
habrahabr
Финансовый Telegram-бот за 30 минут с Market Data API
['fintech', 'telegram bots', 'api', 'exante']
Обычно в статьях про финтех пишут о том, как работают биржи, которые обрабатывают огромные объемы данных на огромных скоростях, о том, как гениальные трейдеры и кванты используют отточенные...
Обычно в статьях про финтех пишут о том, как работают биржи, которые обрабатывают огромные объемы данных на огромных скоростях, о том, как гениальные трейдеры и кванты используют отточенные алгоритмы, чтобы зарабатывать (или терять, бывает всякое) миллиарды долларов, или о работе блокчейна, обеспеченной сложными математическими выкладками. Все это создает впечатление, будто уровень входа в финтех-разработку запредельно высок. И отчасти оно правдиво — требования к разработчикам высоконагруженных финансовых приложений строги и специфичны. Но все начинали с малого, и мы считаем, что любой заинтересованный человек способен создать приложение в финансовой сфере. Попробуем разработать собственное небольшое приложение, которое станет полезным для пользователей уже через полчаса. Из обзоров современных технологий взаимодействия с пользователями видно, как быстро набирают популярность всевозможные боты и помощники, понимающие запросы на естественном языке. Поддержим этот тренд и создадим простого Telegram-бота, который сможет что-то рассказать пользователю о рынке по запросу. Доступ к данным Начнем с простой ситуации: приложение будет использовать текущие и исторические данные о торгах, а не отправлять на биржу собственные заявки. Эти данные (т. н. market data , или биржевую информацию) можно получать у ряда компаний за относительно небольшую плату или вообще бесплатно. С отправкой заявок все заметно сложнее (как минимум — дороже), и мы рассмотрим этот процесс подробнее в следующих статьях. Какие существуют технологии для получения биржевых данных? Список их не слишком велик: это FIX-протокол (реализации могут немного различаться от поставщика к поставщику), FAST , ITCH и несколько вариантов бинарных и HTTP API (к примеру, CQG, EXANTE или MOEX). Впрочем, универсализация здесь не так принципиальна: набор предоставляемых данных может сильно различаться, и в любом случае при интеграции придется разобраться с особенностями конкретного поставщика. Мы будем использовать недавно появившийся EXANTE Market Data API : начать разработку с ним можно просто и быстро, регистрация в системе не требует дополнительных подтверждений, а доступ к данным бесплатен. Пока API работает в режиме Tech Preview, но доступ открыт для всех желающих. Функциональность Определив спектр возможностей, нужно решить, что именно будет делать наш чат-бот. Существует масса вариантов: от отображения курсов валют до аналитики торговых стратегий по запросу на конкретный биржевой инструмент. Пока что не станем углубляться в детали финансовых алгоритмов и попробуем сделать что-то полезное, но при этом достаточно простое. Один из самых понятных финансовых инструментов — это акции компаний, торгующиеся на фондовых биржах. С ними и будем работать, выбрав для простоты фондовый рынок США, т. к. по нему легче всего получить фундаментальные данные, и торги там наиболее активны. Что интересует начинающего инвестора? Конечно же, выбор портфеля акций, вложив средства в которые, он сможет получить прибыль. Существует много способов выбирать акции: можно читать обзоры , можно ориентироваться на портфели лучших инвесторов, вроде Уоррена Баффетта или Билла Экмана , а можно пользоваться аналитическими методами. Один из общепринятых и самых распространенных методов — это оценка компании по метрике P/E ( коэффициент цена/прибыль ). P/E рассчитывается как отношение нынешней цены акции компании к показателю Earning Per Share (EPS, прибыль на акцию). Таким образом, наш чат-бот будет помогать инвестору решить, включать ли акции определенной компании фондового рынка США в свой портфель, исходя из текущей оценки коэффициента цена/прибыль. Высокий P/E относительно других компаний этой отрасли покажет, что у акций есть потенциал роста. Низкий же, напротив, даст понять, что в будущем компания может столкнуться с проблемами. Архитектура Итак, в качестве основного источника биржевой информации выберем EXANTE Market Data API (MD API). Для получения фундаментальной информации — информации об общем состоянии финансов компании — будем использовать открытый источник данных datatables.org , с которым можно работать через YQL (Yahoo! Query Language). Для реализации самого бота возьмем Python 3, а чтобы запустить его максимально быстро, применим фреймворк, поддерживающий все необходимые методы Telegram: python-telegram-bot . Для работы с Telegram будем использовать поллинг новых сообщений с сервера, т. к. в прототипе мы не рассчитываем на большой объем трафика. Заранее подумаем о том, чтобы приложение могло работать не только с одним клиентом. Для этого будем обрабатывать запросы в отдельных потоках. Для синхронизации и запуска потоков используем встроенные возможности фреймворка python-telegram-bot и примитивы синхронизации, доступные в Python. Все выбранные внешние сервисы доступны по HTTP, так что для работы с ними будем использовать известный модуль Requests . Наверняка многие инвесторы будут интересоваться одними и теми же акциями, которые на слуху, так что добавим слой кэширования, чтобы эффективнее использовать ресурсы. MD API требует авторизации запросов с помощью JSON Web Token , для генерации токенов возьмем библиотеку PyJWT . Подключение к API Для начала работы с MD API нужно зарегистрироваться на сайте EXANTE для разработчиков . После регистрации на портале становится доступным дэшборд с данными для доступа и управлением приложениями. Создадим там приложение для нашего бота: Самого бота заведем так, как описано в документации к Telegram, через переписку с роботом BotFather : Реализация Начнем с того, что научим бота обрабатывать полученные запросы. Из каждого сообщения будем пытаться выделить тикеры акций и выдавать по ним информацию, чтобы диалог мог выглядеть так: — Привет, робот, сегодня в новостях слышал об AAPL, кажется, это какая-то фруктовая компания, думаю вложить туда деньги, что скажешь? — Акции AAPL (Apple Inc, биржа NASDAQ) имеют текущую оценку P/E 14, цена акции $117,06 — Спасибо, а что насчет NVDA и GOOG? — NVDA (Nvidia Corp., NASDAQ): P/E 69, цена $105.7 GOOG (Alphabet Inc., NASDAQ): P/E 29, цена $796.42 Инициализируем бота и создаем обработчики сообщений: # -*- coding:utf-8 -*- import re from sys import path from configparser import ConfigParser from telegram import ParseMode, Emoji from telegram.ext import Updater, CommandHandler, MessageHandler, Filters config = ConfigParser() config.read_file(open('config.ini')) # Create telegram poller with token from settings up = Updater(token=config[‘Api’]['token']) dispatcher = up.dispatcher # Welcome message def start(bot, update): msg = "Hello {user_name}! I'm {bot_name}. Ask me about stocks!" # Send the message bot.send_message(chat_id=update.message.chat_id, text=msg.format( user_name=update.message.from_user.first_name, bot_name=bot.name)) def process(bot, update): msg = "I will try to show info on {tickers}" tickers = re.findall(r'[A-Z]{1,4}', update.message.text) bot.send_message(chat_id=update.message.chat_id, text=msg.format(tickers=", ".join(tickers))) def main(): # Add handlers to dispatcher dispatcher.add_handler(CommandHandler("start", start)) dispatcher.add_handler(MessageHandler(Filters.text, process)) # Start the program up.start_polling() up.idle() if __name__ == '__main__': main() Сейчас наш бот уже умеет выделять тикеры акций, но ничего больше с ними сделать не может. Напишем интерфейс для работы с Market Data API и генерации токенов. Используем документацию и руководство по авторизации . import jwt # token expiration time in seconds EXPIRATION = 3600 class MDApiConnector(): token = (None, None) algo = "HS256" def __init__(self, client_id, app_id, key): self.client_id = client_id self.app_id = app_id self.key = key def __get_token(self): now = datetime.now() # if there is token and it's not expired yet if self.token[0] and (now - self.token[1]).total_seconds() < EXPIRATION: return self.token[0] claims = { "iss": self.client_id, "sub": self.app_id, "aud": ["symbols", "ohlc"], # NB: only allowed scopes can be accessed "iat": int(now.timestamp()), "exp": int(now.timestamp()) + EXPIRATION } new_token = str(jwt.encode(claims, self.key, self.algo), ‘utf-8’) self.token = (new_token, now) return new_token Полный код всех модулей доступен в репозитории: github.com/exante/telegram-bot-with-md-api Добавим отдельный поток, который будет периодически запрашивать объемные данные по акциям: class DataStorage(Thread): def __init__(self, connector): super().__init__() self.connector = connector self.stocks = {} def run(self): while True: timeout = 15 * 60 # 15 minutes try: self.stocks = connector.get_stocks() except Exception as e: logger.error(e) timeout = 30 # re-read in case of exception time.sleep(timeout) Метод работы с API для получения списка акций США может выглядеть так: def get_stocks(self): stocks = self.__request("/types/STOCK") return {x['ticker']: {"id": x["id"], "exchange": x["exchange"], "description": x["description"]} for x in stocks if x.get("country") == "US"} После запуска этого потока и обращения к нему из обработчика сообщения, бот сможет вывести больше полезных данных (P/E здесь пока еще заглушка): Добавим запрос Earning Per Share, для этого сделаем небольшую обертку над YQL с кэшированием (в скором будущем мы сможем заменить этот вызов на аналогичный из MD API), которая запросит значение «EarningsShare» для выбранной акции. Теперь мы можем вывести полученный показатель EPS: Осталось последнее: получить текущую цену акции. Для большей производительности нам следовало бы подписаться на поток обновлений с ценами, но для прототипа можно выбрать более простой способ: запрашивать последнюю дневную «свечу» — так называют элемент графика цен , популярного среди трейдеров. Пример свечного графика соотношения индекса DJI и цены на золото по годам «Свеча» строится для определенного периода (например, дня или часа) и на одном рисунке объединяет четыре цифры: цену на начало периода, максимальную и минимальную цену за период и цену на момент окончания периода. Сокращение OHLC, обозначающее такую свечу, как раз и расшифровывается как Open-High-Low-Close. Цена Close самой последней свечи будет соответствовать текущей цене акции. Метод получения последней свечи может выглядеть так: def get_last_ohlc_bar(self, symbolId): # NB: we use internal symbolId, not ticker # 86400 (sec) - day duration ohlc = self.__request("/ohlc/%s/86400" % symbolId, {"size": 1}) return ohlc[0] Собрав вместе все вызовы, мы получим такой код обработки одного тикера: stock = storage.stocks.get(ticker) eps = fundamendal_api.request(ticker).get('EarningsShare') price = api.get_last_ohlc_bar(stock['id']) ratio = Decimal("%.4f" % price['close']) / Decimal(eps) msg = "{ticker} ({name}, {exchange}): EPS {eps}, P/E {ratio}, цена ${price} \n".format( ticker = ticker, name = stock['description'], exchange = stock['exchange'], ratio = "%.2f" % ratio, price = price['close'], eps = eps ) И теперь наш бот стал действительно полезен! Он может рассказать о текущем положении дел на рынке акций и даже кое-что посоветовать: Развитие проекта Текущий проект можно найти по адресу github.com/exante/telegram-bot-with-md-api Дальнейшее развитие возможно по многим направлениям. К примеру, можно воспользоваться потоком данных о нынешней цене акции из MD API ( /md/1.0/feed ) и не запрашивать цену каждый раз из «свечек», а просто брать ее из внутреннего кэша, куда та будет попадать при обновлении потока. Можно добавить боту мониторинг и аналитику (например через botan.io ), а также развернуть его на каком-нибудь облачном хостинге, вроде Heroku или Google App Engine. Бота можно сделать более «живым», добавив больше вариантов ответов, а также научить его отображать графики изменения цен, чтобы дать инвестору еще больше информации для анализа. Можно добавить любые другие метрики для оценки акций, сохранять портфель в данных робота, чтобы держать инвестора в курсе всех изменений, и расширить функциональность — например, на российский рынок акций. Заключение Подключив EXANTE Market Data API и воспользовавшись открытой фундаментальной информацией, за короткий срок мы разработали функционального робота, который поможет пользователю быстро оценить ситуацию на рынке. В процессе работы мы узнали о некоторых способах оценки акций на рынке и о терминологии, используемой в биржевой торговле. Кроме того, мы рассмотрели возможности развития, и даже у такого небольшого робота их немало. Есть еще много способов применения market data — и много пользователей, которые заинтересуются вашими финансовыми приложениями. В феврале EXANTE проведет хакатон, посвященный работе с рыночными данными с помощью EXANTE Market Data API. Авторы лучших чат-ботов и приложений получат призы, и сейчас как раз есть время подготовиться :) Подробнее о мероприятии напишем чуть позже. А какие API используете вы? Что бы вы хотели делать с рыночными данными?
https://habrahabr.ru/company/exante/blog/318272/
habrahabr
Штрихкод на страже порядка или порядочное производство
['производительность труда', 'управление персоналом', 'управление проектом', 'организация работы', 'организация труда']
Мы самостоятельно создаём и внедряем у себя на предприятии автоматизированную систему управления производством. По сути можно говорить о работе над двумя разделами — программное обеспечение и...
Мы самостоятельно создаём и внедряем у себя на предприятии автоматизированную систему управления производством. По сути можно говорить о работе над двумя разделами — программное обеспечение и система сбора информации (ССИ). С ПО всё более или менее понятно – хранить (база данных), перерабатывать (алгоритмы, законы) и представлять данные (интерфейс, отчёты, прогнозы, анализы). Маленькую часть этого раздела я затронул в прошлых публикациях. Сегодня я расскажу наше виденье ССИ. Небольшое предупреждение. Наше предприятие довольно небольшое по общим производственным меркам. И мы не можем/хотим инвестировать большие суммы в супер проекты и пользоваться продвинутыми ERP системами. Это экономически невыгодно. Поэтому, если вам покажется, что представленная ниже информация слишком наивная с технической точки зрения или похожа на велосипед, знайте – так и есть. У нас в городе есть действующие с советских времён машиностроительные предприятия. Но на них ориентироваться, по данному вопросу, смысла нет. 15 лет назад я проходил производственную практику на одном из них. Сбор информация из цеха – рутинная ручная работа. И сейчас ничего не изменилось. Зато, какие проходные сделали, есть даже со сканированием лица! Оборонное предприятие, заказов нет, зарплата у инженеров маленькая, но проходные космические. Отвлёкся. Даже если там внедрить продвинутую систему управления, то заносить информацию всё равно будут старыми методами. Например, мастер идёт к токарю, считает заготовки, записывает в блокнот, идёт за компьютер, заносит в Excel и так далее. Но и на частных предприятиях я не встретил ни одного намёка на автоматизацию сбора информации. Глаза-руки-карандаш-Excel, везде стандартная схема. Итак, наш подход к этому вопросу. ССИ должна быть максимально простой в реализации. Мы назвали её HEMP (Human-Equipment-Machine-Product). Обратите внимание на чёрные точки. Это те области пересечений элементов, из которых мы хотим получать информацию. Разберём пару примеров. Человек-Машина. Под машиной понимается любое промышленное оборудование. Пересечение зон даёт нам информацию о том, кто работает на станке, когда начал, когда закончил. Машина-Оборудование. Под оборудованием понимается любая оснастка (штамп) или инструмент. Получаем информацию о том, какой штамп стоит на прессе, когда поставлен, сколько циклов отработал и так далее. Имея информацию из всех точек, можно найти столько применений этим знаниям, что фантазии не хватит. Перечислю малую часть возможностей. Например, можно рассаживать рабочих по местам ориентируясь на их историю работы. Все люди разные. Кто-то приспособился хорошо гнуть деталь, кто-то, стоя лучше работает. Прогоняем всех рабочих по всем операциям. Система запоминает, кто и сколько может делать на конкретном месте и предлагает рассаживать всех так, чтобы получалась максимальная производительность труда. Или обладая данными о том, какой штамп на каком прессе стоял раньше, система сама подберёт комбинации пар (Машина-Оборудование) при анализе производственного плана. Записывая данные в базу о ремонте оборудования и имея информацию о количестве рабочих циклов между ремонтами, система сможет спрогнозировать дату планово-профилактического ремонта. И конечно наблюдение в реальном времени за всеми связками HEMP. Вот и добрались до героя заметки. Для того, чтобы связывать все элементы HEMP мы решили использовать штрихкод. Всем элементам системы присваивается штрихкод. У людей – это пропуска (магнитная карта с напечатанным штрихкодом), у машин, оснастки и продуктов – этикетки, бирки, таблички. Храниться всё в базе данных. Мы начали создавать мобильное приложение. В цех купили телефоны/планшеты. Теперь мастер, усаживая человека на рабочее место, сканирует телефоном 4 элемента HEMP. Карту работника, станок, оснастку и чертёж детали. Один клик и система знает, что происходит! На всё уходит около 15 сек. Естественно, если утром человек садится на место, на котором работал вчера, то ничего не надо сканировать, система помнит всё. Отработал штамп 500 000 циклов, пора на переточку. Опять сканируем и в один клик ставим статус «Ремонт». В следующий раз, до достижения цифры 500 000 система подскажет, что пора шлифовать. Сломался токарный станок, клик и система знает об этом. И уже при планировании производственного плана не будет учитывать его в техническом процессе до полного устранения неисправности. Посмотрите небольшой фрагмент процедуры сканирования Но и этого пока мало. Нам ведь нужно знать сколько циклов отработал станок. Т.е нужны счётчики, которые будут давать информацию в единую базу в режиме реального времени. Без этого система не может полноценно функционировать. Тема очень интересная. Об этом расскажу в другой раз. Вот так выглядит правильная система сбора информации в нашем понимании. Не могу перечислить всех возможностей, не хватит времени. Иногда буду писать здесь о ходе разработки. Спасибо за внимание.
https://habrahabr.ru/post/318292/
habrahabr
Контейнеры двухфазной иммерсионной системы охлаждения
['cooling', 'immersion', 'liquid', 'highload']
Жидкостные системы охлаждения хоть и не новы, но не являются широкораспространёнными. Причин я бы назвал две: страшно и дорого. Вода, как теплоотводящая жидкость, проводит электричество и может...
Жидкостные системы охлаждения хоть и не новы, но не являются широкораспространёнными. Причин я бы назвал две: страшно и дорого. Вода, как теплоотводящая жидкость, проводит электричество и может убить как персональный компьютер так и дата-центр. Другие жидкости могут быть либо дороги сами по себе, как например фторкетоны, либо требовать сложных и дорогих аппаратных решений, как например, масло. Хочу рассказать о нашем опыте создания жидкостной системы охлаждения. Мы попали под очарование «сухой воды», так иногда в просторечии называют фторкетоны. Мы быстро собрали из подручных материалов первый жидкостноохлаждаемый компьютер. Впечатление от погруженного в «воду» и работающего компьютера были настолько сильными, что мы тут же собрали следующий уже более пристойный макет. Мы не остановились и на этом и быстро сделали боооольшой бокс, куда можно опустить стандартный 19-и дюймовый сервер. Да, мы понимаем, что он делался для воздушного охлаждения и наше погружное охлаждение слишком избыточно для него. Такой сервер можно охладить стаканом «сухой воды»! Пластиковый бокс получился удобным в работе. И хоть он и был сделан для сервера, но большую часть времени в нем был погружен обычный кипятильник. Сервер в пластиковый бокс мы вставляли в основном для демонстрации и для сбора статистики наработки на отказ. Мы провели много времени, экспериментируя с различными режимами, для сбора данных был использован промышленный контроллер. Полученные знания были превращены в очередной бокс или как мы его теперь называем контейнер. Это по-прежнему опытный образец и служит он в основном для демонстрации, но на этот раз изготовлен уже из стали, ведь мучим мы его уже в полевых условиях, совместно с заказчиком. Для управления контейнером и контроля его внутренних параметров используется микропроцессорный блок. Этот блок постоянно мониторит параметры внутренней среды контейнера, такие как давление, температура, температура теплоносителя на входе и выходе скорость его движения. Контролируются и параметры энергоснабжения — напряжения и потребляемый нагрузкой ток. Отдельные датчики контролируют уровень жидкости, отслеживается статус открытия и закрытия крышки контейнера для контроля доступа. Получаемые данные в реальном времени передаются на выделенный сервер. Информация доступна для дальнейшей обработки, как машинными методами, так и для визуальной оценки в виде графиков, удобных для понимания. Реализован доступ и с мобильных устройств. Что мы узнали и чего добились на сегодняшний день? Так жидкостная система практически бесшумна. Если вы когда-то были в дата-центре или хотя бы заходили в серверную, то звук постоянно взлетающего самолета для вас не в новинку. С жидкостью все не так. Жидкость передает тепло в 3500 раз лучше воздуха. Соответственно для отбора от нагретого процессора одного и того же количества тепла жидкости нужно в 3500 раз меньше, поэтому объемы прокачиваемые через сервер значительно меньше, а значит и тише. Другим плюсом может быть то, что жидкость не только хорошо отбирает тепло от серверов, но также хорошо отдает его. Технически трудно утилизировать многие кубометры теплого воздуха, а вот найти применение теплой воде гораздо проще, руки помыть и то приятно. Еще одним плюсом использования фторкетонов является их «природная» пожарная безопасность. Некоторое время назад в сети мелькали фотографии сгоревшей фермы для майнинга биткоинов. В нашем случае такое совершенно невозможно. Имеющегося количества жидкости хватит загасить вполне приличный пионерский костер. Отдельная польза становится очевидной, когда ты достаешь сервер из ванны. Он выглядит так, как будто его только что достали из пластиковой упаковки фирмы-изготовителя и совсем не похож на жареный во фритюре кусок железа. Наиболее часто нам говорят о высокой стоимости теплоотводящей жидкости. Отвечая на него, хочется заметить, что эта жидкость и так уже присутствует в любом дата-центре в системе газового пожаротушения. Да, там она спрятана в баллонах, но и у нас она залита в контейнеры и не циркулирует. Для минимизации потерь от испарения при колебаниях нагрузки мы используем холодную ловушку. Вторым аргументом является стоимость ИТ-начинки, которую требуется охладить. В сравнении с ней жидкость совсем не дорога. Погружная система хороша тем, что не зависит от конкретной конфигурации охлаждаемого оборудования. Мы не переделываем ее под изменение серверной платы или другую видеокарту. У нас нет вентиляторов, холодных пластин, индивидуальных радиаторов, насосов, трубок, быстроразъемных соединений, коллекторов, шлангов, фитингов, герметичных разъемов, элементов управления, есть только один контейнер. Циркуляция происходит естественным путем через испарение и последующую конденсацию, без лишнего оборудования и дополнительных затрат энергии. Отсутствует разница температур между устройствами. Отсутствует адвективное сопротивление, одна и та же температура на всех элементах погруженного устройства. Контейнеры являются высокомобильным оборудованием. Поднять его под силу двум или четырем людям. Для его работы требуется лишь охлаждать теплоноситель до температуры кипения. Опробованные нами жидкости кипят при +34С, +49С, +61С, +76С, что позволяет использовать сухую градирню или даже просто прокачивать помпой воду из ручья. Контейнер герметически закрыт, что исключает попадание влаги, песка, пыли и грязи. Работать он может в любом, даже совсем не оборудованном для работы месте. Производимые нами контейнеры могут отводить 1, 5, 10 кВт тепла. Под заказ мы можем изготовить и более мощные контейнеры. Используя контейнеры вы сохраняете полный контроль над своей информацией. Вы не передаете свои данные ни в дата-центр, ни в «облака». Вы сами обеспечиваете физическую безопасность собственных данных. Теперь о том, зачем мы этим занимаемся. Мы хотим дать возможность людям, самостоятельно распоряжаться своими данными, сколько бы велики они не были.
https://geektimes.ru/post/283968/
habrahabr
Android Things
['android development', 'интернет вещей', 'IoT']
Google представила обновленную платформу для интернета вещей — Android Things 13 декабря Google официально объявила о выходе в релиз Developer preview своей платформы для интернета вещей с...
Google представила обновленную платформу для интернета вещей — Android Things 13 декабря Google официально объявила о выходе в релиз Developer preview своей платформы для интернета вещей с поддержкой разработки под Android. Теперь всем знакомым с Android разработкой будет еще легче войти в мир создания IoT устройств. Официально поддерживаются три типа устройств: Intel® Edison NXP Pico i.MX6UL Raspberry Pi 3 Поддержка еще двух ожидается в ближайшее время: Intel® Joule™ 570x NXP Argon i.MX6UL Все что нужно для разработки приложения это Android Studio, и одно из устройств выше. Приложение Структура приложение для Android Things Все примеры Вы можете посмотреть в официальном репозитории . Есть template для старта нового приложения. Как правило на устройства Android Things не могут устанавливаться несколько приложений, поэтому единственное приложение автоматически будет запускаться при старте устройства. Для отображения приложение использует тот же UI toolkit что и обычное Android приложения, не поддерживает system status bar и navigation buttons. Наличие дисплея не обязательно для работы приложения, а все события автоматически доставляются до activity приложения. В gradle-файле приложения устанавливаем minSdkVersion 24 и добавляем provided-зависимость: provided 'com.google.android.things:androidthings:0.1-devpreview' В AndroidManifest в application надо указать: <uses-library android:name="com.google.android.things"/> В приложении всего одна activity которая запускается при старте устройства и уничтожается при выключении. Для обеспечения автоматического старта активити при старте устройства необходимо добавить ей дополнительные параметры: <intent-filter> <action android:name="android.intent.action.MAIN"/> <category android:name="android.intent.category.IOT_LAUNCHER"/> <category android:name="android.intent.category.DEFAULT"/> </intent-filter> Доступны так же стандартные темы оформления: Theme.DeviceDefault Периферия Платформа поддерживает набор интерфейсов оборудования: GPIO, PWM, I2C, SPI, UART. Библиотеки для подключения различный периферийных устройств доступные из коробки: RGB LED apa102 Сенсор температуры bmx280 Кнопка Touch сенсор cap12xx UART GPS Дисплеи HT16K33, TM1637, OLED дисплей ssd1306 Акселерометр MMA7660FC Сервопривод Спикер Rainbowhat Есть возможность для написания своего драйвера. Тут Google представляет концепцию user driver , которая предполагает что драйвера к датчикам будут поддерживать уже существующий сервис работы с драйверами, что позволит легко использовать их на различных платформах. Почти поровну Поддерживается три типа драйверов: GPS Human Interface Devices (HID) Сенсоры Думаю основной интерес представляет подключение всевозможных сенсоров, поэтому остановлюсь на этом подробнее. Для начала необходимо создать объект драйвера. Драйвер датчика должен наследовать абстрактный класс UserSensorDriver и переопределить всего два метода: read — вызывается для получения новых данных от сенсора и должен возвращать данные в виде объекта класса UserSensorReading. setEnabled — используется для возможности перехода в режим сна или экономии энергии. Далее с помощью UserSensor.Builder создаем свой объект UserSensor, указываем его имя, производителя, задаем свой тип и передаем ему драйвер. Регистрируем сенсор в менеджере UserDriverManager и не забываем отключить регистрацию при закрытии приложения. Подробнее почитать о создании драйверов можно тут . Как видно из демо примеров, приложение состоит из двух основных частей. Activity в которой и происходит вся работа и вспомогательный класс BoardDefaults, который возвращает строковые название пинов к которым подключены те или иные устройства в зависимости от платформы на которой запущено приложение. Для работы с поддерживаемыми устройствами в системе предусмотрен PeripheralManagerService с помощью которого можно получить список доступных пинов/шин для конкретной платформы, а так же указать на какой пин подключено наше устройство. Каждый тип устройств имеет свой набор методов для управления и интерфейсов обратной связи. Пример подключения светодиода PeripheralManagerService pioService = new PeripheralManagerService(); mLed = pioService.openGpio(BoardDefaults.getLedGpioPin()); mLed.setDirection(Gpio.DIRECTION_OUT_INITIALLY_LOW); И передаем boolean значение mLedGpio.setValue(value); Пример подключения кнопки mButtonInputDriver = new ButtonInputDriver( BoardDefaults.getGPIOForButton(), Button.LogicState.PRESSED_WHEN_LOW, KeyEvent.KEYCODE_SPACE); mButtonInputDriver.register(); И далее ловим нажатие кнопки @Override public boolean onKeyUp(int keyCode, KeyEvent event) { if (keyCode == KeyEvent.KEYCODE_SPACE) { // button pressed return true; } return super.onKeyUp(keyCode, event); } Подробнее можно посмотреть пример с подключением большого числа сенсоров. Возможности платформы Сначала об ограничениях. В платформе не доступны многие стандартные приложения и контент-провайдеры, а так же некоторые Google API Intents Google Api CalendarContract AdMob ContactsContract Android Pay DocumentsContract Firebase App Indexing DownloadManager Firebase Authentication MediaStore Firebase Dynamic Links Settings Firebase Invites Telephony Firebase Notifications UserDictionary Maps VoicemailContract Play Games Search Sign-In Так как в связи с отсутствием status bar, не поддерживаются уведомления, NotificationManager API не доступны. Но и доступно не мало: Cast Drive Firebase Analytics Firebase Cloud Messaging (FCM) Firebase Crash Reporting Firebase Realtime Database Firebase Remote Config Firebase Storage Fit Instance ID Location Nearby Places Mobile Vision И тут не может не порадовать наличие поддержки Firebase Realtime Database, Firebase Analytics и FCM, которые с легкостью позволят управлять Android Things устройствами через интернет и собирать данные с них. Так же нет необходимости запрашивать разрешения в процессе работы, все разрешения, указанные в AndroidManifest, автоматически будут даны. Google Weave Одновременно с Android Things Google представила платформу Weave . Платформа включает в себя: Weave Server, который осуществляет регистрацию устройств, обмен и хранение данных, а так же интеграцию с другими сервисами Google; SDK для подключения устройств к Weave серверу. Пока поддерживаются платформы: Linux, Qualcomm QCA4010, и Marvell MW302; Набор инструментов для разработки и интеграции, включая специальное приложение. Weave в настоящее время поддерживает: HVAC контроллеры, лампочки, розетки, ТВ и выключатели. Для получения доступа ко всем возможностям платформы необходимо вступить в группу Google. Weave уже используются в устройствах Philips Hue and Samsung SmartThings и есть договоренности об использовании платформы еще рядом производителей Belkin WeMo, LiFX, Honeywell, Wink, TP-Link и First Alert. Стоимость Raspberry Pi 3 model B ~ 4 000р. + блок питания от 500р. (Intel® Edison with Arduino Breakout Kit ~ 7500р. + блок питания от 800р.) + SD card 32GB ~ 700р. Доска для прототипирования от 700 р. В итоге отличный новогодний подарок Вам обойдется около 7 000 рублей. А также имеются уже готовые наборы, включающие Raspberry Pi 3 с некоторым набором сенсоров, примерно за эту же стоимость. Всех с наступающим Новым годом! → Официальный сайт Android Things → Github репозиторий с примерами → Официальный сайт Google Weavr
https://habrahabr.ru/post/318296/
habrahabr
«Чтение на выходные»: 30 материалов об удивительных свойствах звука и аудиотехнологиях
['аудиомания', 'звук', 'музыка', 'аудиотехника', 'винил', 'подкасты']
Сегодня мы подготовили для вас подборку из интересных новостей, интервью, мнений экспертов и исследований, чтобы вы смогли поближе познакомиться с миров звука, узнать, как музыка воздействует на...
Сегодня мы подготовили для вас подборку из интересных новостей, интервью, мнений экспертов и исследований, чтобы вы смогли поближе познакомиться с миров звука, узнать, как музыка воздействует на человека. Помимо этого мы добавили материалы о звуковой составляющей кино, разработке аудиосистем и культуре прослушивания, возникающих и возрождающихся технологиях и даже новых музыкальных инструментах. Фото Wendelin Jacober / PD Эмоции и физиология «Не вижу, но слышу»: О роли звука в ужастиках Статья рассказывает о том, как звуковое сопровождение помогает создавать нужную атмосферу, как музыка в фильмах изменилась с 1895 года и почему именно звук — лучший друг хоррора. Например, вы знали, что именно нелинейные частоты создают атмосферу напряженности? Плачь и танцуй: Почему музыка вызывает у нас эмоции Музыка влияет на всех людей одинаково или по-разному? Что происходит в мозгу человека, когда он слышит мелодию? Почему животные не получают удовольствия от музыки? Ответы на эти и другие ответы ищите в статье. «Листомания»: музыкальные способности делают человека сексуально привлекательным О том, чем покорил женщин один из величайших пианистов, живший во второй половине 19 века, и почему его славе могли бы позавидовать многие современные рок-музыканты. Или пособие по привлечению женского внимания с помощью музыки. «Мурашки побежали»: Как связана музыка и физиология Для «мурашек» от музыки придумали специальное слово — фриссон. В статье приведено научное обоснование такого явления и даже примеры музыки, которая с большой вероятностью вызовет у вас этот самый фриссон. Можете послушать композиции и проверить теорию на собственной «шкуре». Как музыка влияет на наше эмоциональное состояние Ученые уверены, что физиологически музыка влияет на всех людей одинаково. А вот одинаковые эмоции передавать не может. Так что на самом деле происходит со слушателем и от чего зависит наш музыкальный вкус? Кино и подкасты «Звукоцех»: Как создают звуковое оформление для кино Интервью со звукорежиссером и звукооператором Евгением Переяславцевым, который рассказал нам о существующих профессиях, связанных со звуком, в мире кино, о том, как создаются звуки и о том, что делает звуковое сопровождение «вкуснее». А также посоветовал хорошие фильмы с точки зрения звука. Dolby Atmos: Будущее кинотеатров Подробнее о том, как с помощью Dolby Atmos создается ощущение «бесконечного динамика». Описание конструирования системы в кинотеатрах на всех этапах: от записи звука до схемы расположения самих динамиков. «Новое в мире звука»: фонограммы в формате Dolby Atmos будут записывать на «Мосфильме» Теперь на «Мосфильме» есть студия, полностью отвечающая мировым стандартам и позволяющая записывать звук в новом формате. В новости читайте подробнее об используемом оборудовании и сотрудничестве с Dolby. «Ток-шоу»: Как создают, развивают и слушают подкасты История индустрии и небольшой гайд по тому, как записывать подкасты: с чего начать, какое оборудование и софт использовать, а главное, как на этом заработать. Звук дома «Смотрим дома»: Dolby Atmos и его друзья Кому могут быть интересны домашние кинотеатры? Какую систему выбрать: бюджетную и профессиональную? А также об инновациях в области звука — рассказывает эксперт Аудиомании в области проектирования домашних кинотеатров. Домашний кинотеатр: Альтернатива «большому киноэкрану» Качество звука и видео дома может быть ничуть не хуже, чем в кинотеатре, особенно с появлением «погружающих» форматов. Главное, правильно подобрать и настроить технику, и не забыть о подготовке помещения для домашнего кинозала. «Смотрим дома»: Обсуждаем технологии и форматы В интервью читайте подробнее о разнице между технологиями Dolby Atmos, DTS, Auro-3D, о том, почему не стоит использовать офисный проектор для домашнего кинотеатра и как апгрейдить уже существующую систему до современного уровня без полной замены оборудования. Визуализация Как «нарисовать» и «прочитать» звук Теперь даже пачка чипсов может «рассказать» о вашем разговоре, если за нее возьмутся исследователи из MIT, Microsoft и Adobe, которые научились извлекать аудиосигналы из вибраций. И другие способы расшифровать звуковые произведения, записанные в графической форме более 1000 лет назад. Фото Brad Higham / CC Визуализация музыки: от традиционных подходов к современным интерфейсам Немного о нотной записи и передаче особенностей исполнения композиций, когда речь идет о блюзе или джазе. Какие графические средства и системы визуализации существуют сегодня и что они могут рассказать, а точнее, показать, о музыке — читайте в статье. Аудиосистемы Экосистема звука: Почему инженеры постоянно улучшают существующие модели аудиосистем Главное правило улучшения аудиосистем — учитывать вкусы и желания слушателей. А также немного о звуке в машинах, психоакустике и о том, как изменится будущее звуковой техники, если мы научимся передавать электричество по воздуху. «Консервативный звук»: Обсуждаем Arslab и Penaudio Основатель компании Audiomania Артем Фаермарк рассказывает о предпочтениях клиентов, о разработке новых моделей и доработке существующих систем, об особенностях производства колонок и разных подходах к их созданию. Также в статье вы узнаете, почему большинство ценителей Hi-Fi и High-End консервативны. Мифы и реальность: Что нужно знать о современных аудиосистемах Чем на самом деле отличаются домашние и профессиональные аудиосистемы, как правильно выбирать аудиотехнику, как улучшить звук и опасны ли внутриканальные наушники. Разрушаем популярные мифы и рассказываем всю правду. Музыканты и другие звуковые профессии Почему группа Queen так популярна Ищем ответ на вопрос: что повлияло на феноменальный успех группы? — высокий уровень образования, гитарист-астрофизик, обаятельный фронтмен, театрализованные представления или баланс между качественной и популярной музыкой. Почему Рахманинов играл Концерт №3 быстрее других Статья кратко знакомит читателей с биографией Сергея Аркадьевича и мнением экспертов, которые интерпретируют манеру его быстрой игры. Кто-то «винит» во всем его большие руки, а кто-то считает, что композитору просто пытался внести разнообразие в музыку, которую устал играть. Фото Jesus Solana / CC Обсуждение: Почему не всем нравится The Beatles и их музыка Невозможно не любить The Beatles, как и отрицать их влияние на всю рок-индустрию, в том числе и современную. А вы верите, что в каждой современной рок-композиции можно найти что-то, связанное с битлами? «Мастер своего дела»: Искусство мастеринга аудиозаписей Что за зверь мастеринг-инженер и где он обитает? И зачем платить за услуги этого непонятного специалиста, если всю обработку может сделать программа. Или не может? Разберемся в статье. Инструменты и концерты Почему гитаристам тяжело читать мелодию «с листа» Мнения на этот счет разделились: кто-то считает, что гитаристам просто проще играть по табулатурам, поэтому они не заморачиваются с изучением нотной грамоты. Или может, все дело в устройстве самого инструмента, на котором одну и ту же ноту можно извлечь совершенно разными и непохожими друг на друга способами. «Больше чем Аудиомания»: Как научиться играть на барабанах Разберем все за и против самостоятельного обучения, определимся, какую установку лучше выбирать на начальном этапе и узнаем, можно ли обойтись вообще без барабанов. В качестве бонуса — несколько полезных видеоуроков. Инструмент, открывающий дверь в будущее электронной музыки Насколько сложно освоить новый музыкальный инструмент? Если он был создан Роджером Линном, одним из самых известных разработчиком инструментов для музыкантов, то можно быть уверенным, что это будет делом нескольких минут. Электронная музыка вживую: Как преподносят свои выступления музыканты-электронщики Из статьи можно узнать об импровизации как неотъемлемой части такой музыки, об особенностях живого «электронного» выступления, о видах современных инструментов: от специальных столов до контроллеров, и особенностях восприятия электронной музыки. «За сценой»: Что скрывается за магией концерта А вы знали, что работа над концертным звуком и светом начинается примерно за месяц до самого выступления? И еще много закулисных секретов, например, о том, как и почему зрители и музыканты слышат концерт по-разному, зачем нужны таймкоды и какой минимальный набор оборудования необходим для проведения концерта. Возрождение Новые-старые форматы: HD-винил и DIY-пластинки Статья о том, как устаревшие технологии получают новую жизнь. Кто бы мог подумать, что создать виниловую пластинку можно будет намного быстрее и дешевле с помощью 3D-печати. В статье также описываются стандартные методы производства виниловых пластинок, которые почти не изменились с 1960 года. Винил умер, да здравствует винил Практическое пособие по выбору виниловых пластинок даже через интернет, правильной системе хранения и настройкам проигрывателя. А также пара советов для тех, кто очень хочет, но еще не решился на знакомство с винилом. Плэйлисты Как и зачем музыкальные сервисы формируют плейлисты Интернет дал пользователям доступ ко всей музыке в мире. Но как найти в этом разнообразии то, что тебе придется по вкусу? Тем более в мире, где даже за прослушивание музыки приходится платить. Благодаря стриминговым сервисам теперь можно платить за то, что тебе нравится. Вливайся в поток: Настоящее и будущее музыкального стриминга Подробнее о том, какие алгоритмы используют стриминговые платформы, чтобы подобрать идеальные композиции, о существующей конкуренции на рынке стриминговых услуг и проблемах индустрии.
https://geektimes.ru/company/audiomania/blog/283966/
habrahabr
Алихистори — инструменты для смарт-шоппинга
['aliexpress', 'алиэкспресс', 'скидки', 'распродажи']
Зачем мы сделали сервис alihistory.com В сентябре этого (2016) года мы запустили проект по сбору аналитических данных по работе одного из лидеров сегмента e-commerce – aliexpress.com. Целью...
Зачем мы сделали сервис alihistory.com В сентябре этого (2016) года мы запустили проект по сбору аналитических данных по работе одного из лидеров сегмента e-commerce – aliexpress.com. Целью проекта alihistory.com является выявление тенденций и механизмов ведения бизнеса в сфере интернет продаж с дальнейшим составлением бизнес-модели и ее публикацией в открытом доступе. Почему именно Алиэкспресс? На страницах этой площадки продаются десятки миллионов товаров, развернуты тысячи магазинов из Китая и других стран.  Алиэкспресс занимает лидирующие позиции по количеству продаж как в Китае, так и в России. В открытом доступе имеется статистическая информация о товарах, такая как количество заказов, отзывы о товаре, оценка качества, соответствия и доставки и тп. Также стоит отметить огромную аудиторию Алиэкспресс. Изучать, так лидеров. Для исследования был создан ряд инструментов, который, на наш взгляд, будет полезен и для рядовых пользователей. О работе и возможностях оных остановимся более подробно. Немного технических сведений Создан самописный скрипт краулера, который ежедневно обходит все товары из базы и снимает нужные характеристики и сохраняет все изменения в базу данных, чтобы можно было отслеживать временные изменения. Также имеется скрипт, который матчит похожие фотографии по хешам. Все скрипты написаны на php, данные хранятся в mysql. Для работы сервиса используются два VPS-сервера для распределения нагрузки. Ежедневно исследуется более 540 тысяч товаров. За все время (с сентября 2016) исследования зафиксировано 5 млн. изменений цены на товары, и 4.7 млн. изменений размера скидок. Мониторинг цен: зачем и как На Алиэкспресс ежедневно изменяются цены на десятки тысяч товаров. Наш краулер раз в сутки обходит все товары из базы и обновляет показатели. Цены (со скидкой и без) мы собираем в долларах, а потом переводим по курсу алиэкспресс в другие валюты. Мониторинг позволяет наглядно увидеть все колебания цены во времени. Также это позволяет идентифицировать ситуативные скачки стоимости и сигнализировать покупателям о том, что не стоит заказывать товар в данное время. У каждого товара в карточке выводится удобный для быстрого анализа график изменения цен за определенный период времени. Изменение числа заказов Ежедневно на площадке покупаются десятки тысяч товаров. А количество заказов той или иной товарной позиции является одним из факторов качества этого товара (мы сейчас говорим про алиэкспресс, для других площадок могут быть и другие закономерности). С помощью мониторинга изменения числа заказов можно отследить действие маркетинговых инструментов как продавцов, так и площадки в целом. Изменение числа отзывов При покупках в сети, к сожалению, нет возможности «потрогать» покупаемый предмет. Покупателям приходится основываться при выборе товара на второстепенные показатели и признаки, одним из которых является количество отзывов о товаре. Правда, на алиэкспресс особый подход к отзывам. Некоторые продавцы предлагают бонусы или даже вымогают хорошие отзывы у покупателей. Поэтому присматриваться стоит не только к количеству, но и качеству и содержанию отзывов. На данном этапе развития наша система отслеживает только изменение числа отзывов и рейтинга, вычисляемого на основании оценок, проставляемых покупателями. Поиск одинаковых товаров Этот функционал нашего сервиса находится в стадии бета-теста. В данный момент функция поиска похожих товаров находит позиции с одинаковыми изображениями. Поиск работает следующим образом: отдельный скрипт считает хеш-функцию для изображений товара, затем по базе хешей ищутся наиболее близкие хеши для заданного товара (изображения). Такой подход работает очень посредственно — имеются как ложно-позитивные срабатывания (непохожие товары метятся как похожие), так и ложно-негативные срабатывания (заведомо похожие товары не находятся). Мы ищем решение, как заставить систему правильно функционировать. К слову, на самом алиэкспресс данная функция вообще не работает, хотя и заявлена. Тем не менее проблема поиска одинаковых товаров на али очень актуальна, так как многие товары продаются в нескольких магазинах и различаются не только по цене, но и по качеству выполнения, качеству работы продавцов и другим признакам. Имея перед глазами список одинаковых товаров с некоторыми метриками, покупатель может выбрать наиболее выгодное для себя предложение. Например, сэкономить и купить дешевле — мы хотим дать ему инструмент для возможности выбора между одинаковыми товарами от разных продавцов на площадке. Наличие выбора, всегда лучше нежели его отсутствие. Верное срабатывание функции поиска одинаковых товаров Ложное срабатывание функции поиска одинаковых товаров Мониторинг скидок на товары Все мы любим скидки, а халяву любим еще больше. На алиэкспресс просто море товаров со скидками, а ведь еще есть купоны и распродажи – просто рай как для покупателей, так и для маркетологов. Со скидками всегда и везде (не только на али) не все чисто. Мы хотим помочь пользователям найти настоящие скидки, а не мифические 90%. Все значения скидок ежедневно вносятся в нашу базу и фиксируются на графике для удобства восприятия информации. Анонс и анализ распродаж Мы анализируем все товары, которые участвуют и будут  участвовать в распродажах из раздела «бренд-фокус» на Алиэкспресс. Система уведомлений и подписок Наш сервис предлагает систему оповещений об изменении цен на отслеживаемые товары. Пользователям не нужно даже регистрироваться, просто необходимо согласиться на получение браузерных push-уведомлений, которые работают в Chrome, Firefox настольных и мобильных версий. Дважды в сутки мы отправляем уведомление в том случае, если в списке отслеживаемых товарах есть изменения в ценах. Фильтры товаров Шоппинг должен быть комфортным, а не похожим на квест. Мы подумали и решили, что вот такие фильтры и выборки облегчат жизнь покупателей али. Структурирование товаров по значению скидки и категории Удобный инструмент для сортировки товаров с алиэкспресс. Есть возможность выбрать товары из определенной рубрики и определенным значением скидки, например, мужские рубашки со скидкой от 50%. Структурирование товаров по значению цены и категории Пользователи могут найти товары определенной стоимости. Также есть набор уже готовых фильтров – товары до 1 доллара, до 3-х долларов и тд. Более подробную информацию о работе фильтров можно найти в мануале . Выявление липовых скидок На алиэкспресс имеют место так называемые “липовые скидки” (наш более подробный анализ распродажи 11.11 тут ). “Липовая” скидка в нашем понимании — это, когда товар подешевел, но не стал дешевле минимальной цены* за прошлый месяц. * Минимальная цена с учетом действующих скидок (при их наличии). Например, цена товара 1200 рублей без скидки, а со скидкой 896 рублей – значит, минимальная цена составляет 896 рублей. Мы сигнализируем нашим пользователям о том, что скидка, возможно, ненастоящая – у каждого «провинившегося» товара в названии появляется восклицательный знак. Определение курса валют на Алиэкспресс Курс доллара не отображается явно на страницах алиэкспресс и высчитывается по ценам на один и тот же товар в разных валютах. Это основной на данный момент функционал нашего сервиса. Инструкцию по работе с сервисом можно найти на этой странице . Планов на развитие системы и дополнительный функционал очень много, жалко сутки не 40 часов :) Мы выступаем против спонтанных покупок и трат, против “липовых” скидок и прочих маркетинговых уловок продавцов. Мы призываем всех совершать покупки обдуманно.
https://geektimes.ru/post/283964/
habrahabr
Тематические дорожные карты проектов: первый шаг к инновации
['перевод', 'управление проектами', 'управление задачами', 'roadmap']
Хотите ускорить рост, повысить конкурентоспособность, вырваться вперед? Тогда, возможно, пришло время переосмыслить свой подход к планированию продукта. Дженна Бэстоу из Invision делится в блоге...
Хотите ускорить рост, повысить конкурентоспособность, вырваться вперед? Тогда, возможно, пришло время переосмыслить свой подход к планированию продукта. Дженна Бэстоу из Invision делится в блоге компании опытом внедрения тематических дорожных карт в рабочий процесс и рассказывает о преимуществах, которые принесло команде это решение. Тематические дорожные карты проекта — это не пошаговая методика; они не предполагают строгих правил и не привязывают вас к определенному продукту или программе. По сути, это просто гибкий подход к разработке стратегии. Выглядит он так: А звучит так: «Что готовит будущее, мы не знаем. Поэтому вот список того, что мы хотим сделать, в общих чертах, а коррективы вносить будем по ходу дела». С тематическими дорожными картами работа начинается с постановки проблемы и движется к поиску оптимального решения. Процесс не приходится подгонять под заранее заданные схемы и сроки. В вашем распоряжении документ, который можно свободно менять в соответствии с потребностями покупателей и целями, которые они ставят перед вами. Тематические дорожные карты — это стратегия выработки стратегии, которая оставляет вам пространство для настоящего прорыва. Минимум ограничений — значит, максимум креативности, сотрудничества, инноваций. Что представляет собой тематическая дорожная карта? Главная ее цель — четко и в ясной для всех форме определить приоритеты, чтобы команда могла работала на единые цели. — Какие проблемы нуждаются в немедленном решении? — Чего бы вы хотели достичь в данный момент? — Что можно отложить на потом? Каждая колонка карты представляет определенный временной план, позволяя выстроить примерную иерархию приоритетов.На представленной схеме выделены три временных плана, но их количество может варьироваться: Сейчас — то, над чем вы работаете в данный момент. В ближайшем будущем — то, что потребует вашего внимания очень скоро. В перспективе — то, чем вам хотелось бы заняться в будущем, хотя понадобится много подготовительной работы, прежде чем можно будет приступить. Каждая карточка задает тему или проблему, которую вы хотите разрешить. Их можно переставлять и менять местами, если приоритеты поменяются — а скорее всего, так и будет. Таким образом, вы можете проявить гибкость и экстренно поднять соответствующую карточку в случае, если выяснится, что незначительный, как вы думали, недочет на самом деле затрагивает всю пользовательскую базу. И наоборот, решение слишком глобальных проблем, с которыми вы в данный момент не способны справиться, можно сдвигать на более поздние сроки. Как определить тему? Смотрите в корень проблемы. Начать лучше всего с бэклога и пользовательских отзывов — там вы найдете много зацепок. Точно зафиксировать, с какими сложностями сталкиваются ваши пользователи или чего именно они хотят добиться — половина дела. Однако имейте в виду: отзывы выявляют только симптомы и болевые точки. Вы же, формулируя темы, должны думать не о том, какими мелкими доработками можно улучшить пользовательский опыт, но как следует поменять подход, чтобы удовлетворить максимально возможное число потребителей. Тема — это крупная проблема, нуждающаяся в разрешении, которая стоит за разрозненными жалобами на частности. В качестве примера автор приводит следующий кейс. Допустим, у вас есть следующий набор отзывов от пользователей: «Непонятно, куда добавляется товар — в вишлист или в корзину». «После покупки мне не пришло письмо с уведомлением». «Почему нельзя платить через PayPal?» На первый взгляд может показаться, что все это разрешается при помощи мелких правок, но если докопаться до корня проблемы, начинает просматриваться общая тема : ваша схема оплаты покупки не работает. Поэтому лучше задать себе вопрос: «Как лучше подойти к процессу оплаты, чтобы это было удобно для максимально широкого круга пользователей?». Рассмотрите множество решений для каждой проблемы Что здорово в выявлении проблемы, которая лежит в основании, — вы получаете возможность творчески подойти к ее разрешению. Не отбрасывайте идеи как слишком амбициозные или нелепые. Суть в том, чтобы придумать побольше вариантов и мыслить нестандартно, чтобы не пришлось тратить время и ресурсы на недальновидные решения. Давайте посмотрим, как решаются в этой парадигме повседневные проблемы. Допустим, пользователи предлагают вам добавить в приложение выход в социальные сети. Вот какие вопросы стоит задать себе, чтобы разобраться в ситуации: Много ли людей просит об этом? Поможет ли это вам достигнуть поставленных бизнес-целей? Иногда проблема может показаться более серьезной, чем на самом деле из-за пользователей, которые активно выражают свои претензии, в то время как молчаливое большинство вполне довольно текущим положением дел. Ключевой ли это момент или просто приятный бонус для небольшой группы потребителей? Раз в вашем продукте нет социальной составляющей, как пользователи выходят из положения в данный момент? Исследуйте поведение пользователей, чтобы получить ответ. Они копируют ссылки в твиты вручную? На что ссылаются? Не исключено, что они вообще ничего не делают, чтобы решить проблему — в таком случае вы можете заключить, что она стоит не так остро, как казалось. Почему людям хочется делиться контентом? Почему они думают, что для их окружения эта информация важна? Возможно, вы придете к выводу, что никто не захочет размещать контент публично (например, в виде твита) — пользователи скорее предпочтут переслать его личным сообщением на Facebook или через Whatsapp. Помещайте каждое придуманное решение на карточку с заявленной темой и ищите дальше. Заключение Успешные продукты становятся успешными не потому, что у них больше всего функций, а потому, что они разрешают проблемы наилучшим образом. Нет никакого в смысла в том, чтобы расширять функционал, пока вы не знаете, в чем именно состоит проблема. Пытаясь предсказать будущее в своих планах, вы ничего не выигрываете. Истинное преимущество происходит из умения наблюдать за пользователями, выдерживать баланс между их потребностями и возможностями компании и бросать совместные силы всех команд на достижение результата.
https://habrahabr.ru/company/everydaytools/blog/318298/
habrahabr
Что такое ММТС-9 и как в России получается интернет
['интернет', 'связь', 'российский рынок', 'российский интернет', 'история интернета', 'ростелеком']
Начну с анекдота про пиринговые сети. Топ-менеджера телекоммуникационной компании спросили: — Кто ваши конкуренты, а кто ваши партнеры? — Какая разница? Шутка точно отражает действительность...
Начну с анекдота про пиринговые сети. Топ-менеджера телекоммуникационной компании спросили: — Кто ваши конкуренты, а кто ваши партнеры? — Какая разница? Шутка точно отражает действительность в сфере связи. Сети и предоставление доступа к ним — как торт, который хочется попробовать всем. Кому-то из своих друзей ты подашь кусок сам, а у кому-то из врагов захочешь ударить по руке… История российского интернета начинается тогда, когда в ходу еще было словосочетание «компьютерная связь» вместо привычного сегодня иностранного термина. До создания Релкома разработки, касающиеся интернета, лежали в сфере военной промышленности и государственной обороны. Это были некоммерческие сети, существовавшие благодаря совместной работе советских НИИ и американцев. Их популяризация случилась во время путча в начале 90-х — так как они сумели сохранить независимость и возможность свободно говорить правду. С тех дней до сегодня история происхождения интернета в России полна хитрых ходов, технических премудростей, тайных и прямых договоренностей. Мы отобрали самые значимые события, а в конце статьи добавили сюрприз. Релком Андрей Себрант, сотрудник " Гласнета " и нынешний директор (?) по маркетингу Яндекса в интервью журналу Афиша сказал: «К 1991-му году в Москве сетью пользовались несколько сотен людей. Интернет работал бесперебойно в отличие от всех остальных каналов связи. Нас не могли прослушать люди из Первого отдела КГБ » Интересный факт В интерлагерь Байтик в Троицке под Москвой в 1988-м году приезжали школьники из США. Они оставили два модема, которые стали использоваться для международных сетей в закрытом академгородке. По словам Валерия Бардина , одного из организаторов кооператива Демос и самой сети Релком, СССР был в интернете с 1982-го года. В это время Николай Саух и сотрудники Всесоюзного НИИ прикладных автоматизированных систем создали стабильно работающий канал связи с коллегами из Венского института системного анализа. Это стало началом сети Академии Наук. Это была первая сеть всесоюзного масштаба. Ее организовал Алексей Солдатов из Института атомной энергии им. Курчатова в 1990-м году. Он с коллегами соединил компьютеры из научных организаций Москвы, Новосибирска и Петербурга при помощи аналоговых телефонных модемов по протоколу UUCP — так передавалась электронная почта. Работа велась вместе с кооперативом программистов «Демос». В те времена сообщения отправлялись дольше, чем пять минут (!). Первая коммерческая сеть — Релком — появилась, когда разрешили предпринимательство. Она относилась к кооперативу “ Демос ”. Благодаря услугам первого провайдера интернетом начали пользоваться частные лица. В 1989-м году Релком представлял собой группу 14-ти человек. В нее входили сотрудники института Курчатова, министерства автопрома и «присоединившиеся граждане». Их задачей была помощь в создании компьютерных сетей на местах и подключении городов один к другому. В 1990-м состоялось первое соединение с компьютером в Хельсинки, это было 28-го августа, а уже 19-го сентября первый домен верхнего уровня .su был зарегистрирован совместно Релкомом и Демосом. Для обмена информацией использовались конференции Usenet . В сеть приходили остальные советские города. Поначалу у Релкома были почта и телеконференции. Во время путча в 90-е Демос подключил к Релкому огромное количество серверов по всей стране. Буквально за три дня у сети появился более серьезный статус. Сеть базировалась исключительно на технологии электронной почты, причем с возможностью переписки и на русском языке (протокол UUCP/UUPC ). В 1991-м году Релком стала пользоваться выделенным каналом Москва-Таллин-Хельсинки, появилась технология междуузловой передачи C-News и первая версия почтового сервера телеконференций. Как АО Релком была зарегистрирована в 1992-м году. Учредители — РНЦ «Курчатовский институт», РТСБ, Ринако, Технобанк и ряд других. Также в 1992-м году сеть «Релком» официально зарегистрирована в EUnet, крупнейшем в Европе объединении коммерческих сетей, предоставляющих доступ к интернет-услугам. (по данным с ria.ru/history_spravki/20110919/439857350.html ) Позже начали использовать новый западный канал, проходящий через Амстердам. Пропускная способность увеличилась в четыре раза. В головном узле появилась машина SEQUENT, увеличившая его мощность в четыре раза. В декабре активирована первая удаленная точка доступа узла Релком-Москва — «М9». Здесь была использована впервые появившаяся в стране машина SUN (CREMLSUN). Узел Релком-Москва стал комплексом машин, связанных между собой и разнесенных по Москве c Центром управления сетью на территории Курчатовского института. До 1993 года Релком был фактическим монополистом на рынке сетевых услуг и предоставлял своим пользователям в основном электронную почту. Собственно, это еще не было Интернетом, хотя и было компьютерной сетью — для пересылки сообщений использовались не интернетные протоколы, а более старый протокол под названием UUCP. Монопольное положение Релкома с неизбежностью приводило к довольно высокому уровню цен на его услуги. В 1994-м заработал FTP-mail-сервер, с доступом по электронной почте к FTP-серверам, внешним для узла Релком-Москва. А в 1996-м создали магистральные линии с большой пропускной способностью. Появился ISDN , расширялись пропускные способности существовавших каналов, организовывались новые. Только за 1996-й год количество «выделенок» в регионы выросло в два раза, число телефонных линий — больше, чем в два раза, а число выделенок в Москве как минимум в полтора раза. С регионами связывались по цифровым выделенным каналам с максимальной скоростью в 2 Мбит\с. Что же произошло в 1997-м важного для Релкома. Общая пропускная способность из сети Релком на запад была равна 6 Мбит\с — они стали лидером на российском рынке интернета. А пропускная способность скоростного канала в зарубежную часть интернета в 1998-м составил 34 Мбит/с. Канал проходит по земле и проходя из Москвы через Петербург попадает в стокгольмский узел магистральной сети компании UUNET . В это же время «серийник» 995-1050 расширяется до 60 линий, а в эксплуатацию вводится новый 30-линийный 737-8107. Серия находится в едином цифровом потоке сети и ее обрабатывает сервер CISCO 5300, скорость передачи данных: 56 Кбит/с по протоколу K56flex. Компания «Деловая сеть» (проект Релкома) предоставляет доступ в интернет по радиомодему в Москве. В 1999-м основные модемные пользовательские серии получили актуальное оборудование с поддержкой протокола V.90. Чтобы расширить емкость международных каналов организовали подключение к московскому узлу «Ростелекома» с пропускной способностью 34 Мбит/с. После этого пропускаем несколько лет и в 2002-м видим так называемый «Пиринговый раскол», когда крупные провайдеры, в том числе МТУ-Интел, Голден Телеком и РТКомм остановили обмен трафиком напрямую со всеми остальными. Трафик был перенаправлен на зарубежные каналы, а небольшие компании ушли с поля конкуренции. Сейчас на официальном сайте Релкома говорится, что компания работает как оператор связи, предоставляя услуги коммерческим и государственным предприятиям, а также физическим лицам. Тем временем в Ростелекоме Согласно информации из Википедии до 1990-го связь контролировал Минсвязи, а 26 июня основали государственное акционерное общество «Совтелеком» с правами на эксплуатацию всесоюзной сети электросвязи. Через год это уже был Интертелеком, а еще через год — Ростелеком. В 1994 году «Ростелеком» получил лицензию на предоставление услуг междугородной и международной связи. В этом же году «Ростелеком» включен в состав холдинга «Связьинвест». Продолжим 1998-м, когда компания была российским монополистом в сфере международной и междугородней телефонной связи. Вместе с Релкомом они создали новую компанию под названием Релком — ДС (Деловая Сеть). Считается самым крупным поставщиком услуг Интернета в РФ. Большую часть территории государства покрывают и сети Глобал Один, Совам Телепорт. В 2006-м года «Ростелеком» получает сертификат качества своей IP-MPLS сети и становится магистральным Интернет-провайдером. Далее совместно с телекоммуникационной компанией из Японии KDDI в проекте «Транзит Европа — Азия» заключается соглашение о строительстве линии Находка — Наоэцу с общей пропускной способностью в 640 Гбит/с вместо прежних 560 Мбит/с. Далее следует череда слияний и поглощений с межрегиональными компаниями связи. ММТС-9 Все сети и провайдеры пытались сделать свой пиринг, но центральную роль во все времена играл так называемый «девятый узел». В 1990-м на государственном предприятии «Московский и междугородный и международный телефон» введены два мощных цифровых комплекса международной связи AXE-10. В 1991-м Московский узел был уже системой из трех MicroVAX 3. В 1995 году основные московские интернет-провайдеры: Демос, Релком, МГУ, НИИЯФ МГУ (Radio-MSU), FREEnet, Ассоциация RELARN и Роспринт — создают точку взаимообмена IP-трафиком. Местом размещения точки обмена трафиком была выбрана Московская междугородная телефонная станция № 9. На M9 приходили международные и междугородные каналы связи и размещалось оборудование основных интернет-провайдеров. Как акционерное общество «Московская междугородная телефонная станция №9» основано в 1994-м. Основной акционер Общества — «Ростелеком» — 74,86 % от Уставного капитала. На сегодня ММТС-9 уже более 20 лет с успехом работает на рынке телекоммуникаций и является крупнейшей в Москве технологической площадкой для взаимодействия московских, российских и международных операторов связи. Клиенты — более 440 телекоммуникационных компаний. АО «ММТС-9» — крупнейшая пиринговая точка в России. Техническая начинка «девятки» В здании станции: современная инженерная инфраструктура, системы бесперебойного электропитания, климатконтроль, газовое пожаротушение, телемониторинг видеонаблюдение. Все технологические помещения связаны структурированными межэтажными соединительными кабельными линиями. Благодаря высоким технологиям девятка работает в отказоустойчивом режиме. Автор этой карты сделал пинг в каждую сеть в первой версии, а в последней (на картинке) он использовал таблицы маршрутизации интернета. Функции узла размещает телекоммуникационное оборудование с энергопотреблением 5,5 кВт на стойку, высоконагруженные стойки с энергопотреблением до 24 кВт на единицу; обеспечивает возможность предоставления индивидуальной гермозоны, выделяет антенно-места на крыше; выполняет монтажные-демонтажные работы, проектные работы по размещению оборудования; осуществляет оперативно-техническое обслуживание оборудования и линий связи; организует доступ к сетевым ресурсам операторов связи, предоставляет терминальный доступ в Интернет (предоставление услуги IP-транзит), обеспечивает круглосуточную техническую поддержку. В 2013-м стартовал проект обновления технологических площадей ММТС-9. Последний задействованный машинный зал по энергопотреблению и установленным в нем системам электропитания и холодоснабжения является полноценным дата-центром высокого уровня надежности. На начало 2015-го: суммарная площадь всех серверных залов, с 1497 стойками, составляет 6900 кв. м, подведенная электрическая мощность — 6,5 МВт, дополнительно ведутся работы по подведению дополнительных электрических мощностей в размере 8,8 МВт. Таким образом, общая энерговооруженность ММТС-9 скоро достигнет 15,3 МВт. Сегодня ММТС-9 стабильно развивающаяся технологическая площадка России, которая занимает лидирующую позицию на рынке телекоммуникаций. Партнерами и клиентами М9 являются крупнейшие компании России, занимающиеся передачей информации: MSK-IX, МТС, Beeline, Мегафон, ТТК, Orange Business Services и многие другие. Высокотехнологичная инженерная инфраструктура позволяет ОАО «ММТС-9» обеспечить организацию отказоустойчивой точки присутствия за счет обеспечения необходимых условий функционирования серверного и телекоммуникационного оборудования операторов связи. Новая компания MSK-IX Ускоряет коммуникации между интернет-компаниями, предоставляя нейтральную платформу Internet eXchange для обмена IP-трафиком между сетями и глобальную распределенную сеть DNS-серверов для поддержки корневых доменных зон. Более 500 организаций используют сервисы MSK-IX для развития сетевого присутствия в 9 российских городах. К MSK-IX подключены операторы связи, социальные сети, поисковые системы, видеопорталы, провайдеры облачных сервисов, корпоративные и научно-образовательные сети. Основным узлом компании также является «девятка». Контел Контел базируется на расстоянии меньше километра от ММТС-9, до которого из дата-центра протянуто 256 волокон, проложенных совершенно независимыми друг от друга маршрутами, так что ситуация когда “бульдозер порвал наш кабель” совершенно исключена. Весь интернет «идет» в России через узел М9. Положение Контел максимально выгодное — они используют М9 со своим центром обработки данных. В отличии от м9 дата-центр компании Контел сможет принять (но и охладить их) высоконагруженные стойки вплоть до 24 квт. Дата-центр помимо двух вводов от совершенно независимых подстанций так же оснащен источниками бесперебойного питания компании Emerson, которых хватит для снабжения центра обработки данных питанием в течении 40 минут (при полной загрузке ) или до 4-х часов при существующей, этого времени вполне хватит для того, чтобы запустить дизель-генераторы. Своим клиентам Контел предоставляет любое количество темных волокон до оптического кросса на ММТС-9, либо готовый канал от компании Ростелеком с полосой до 10 Гб. Так же ЦОД предоставляет услуги по аренде как бюджетных выделенных серверов, так и профессионального оборудования Blade серверов HP серий G7-G8 Так же есть возможность арендовать коммуникационное оборудование компаний Cisco Systems, Arista с услугой мониторинга и системного и сетевого администрирования компании Контел (CCNP минимум). Некоторые из преимуществ: возможность круглосуточного доступа к оборудованию установка высоконагруженных стоек, что невозможно на М9 из-за отсутствия достаточного охлаждения и ограничения максимальной мощности на стойку в 7 киловатт возможность размещения оборудования на крыше, что особенно пригодится провайдерам IPTV Примеры цен Intel Core Processor i5-6400 8GB RAM HDD 500gb SATA или 280 SSD всего за 2074,5 руб(цена по акции) Intel Xeon Processor E5-2609v4 8GB RAM HDD 500gb SATA или 280 SSD всего за 3189 руб
https://habrahabr.ru/company/contell/blog/317382/
habrahabr
«МегаФон» купит контрольный пакет Mail.Ru Group у Усманова за $740 млн
['МегаФон', 'Mail.ru Group', 'сотовая связь', 'покупки', 'приобретения', 'ВКонтакте', 'Одноклассники', 'Mail.ru']
Сегодня компания «МегаФон» сообщила о намерении приобрести 63,8 % голосующих акций Mail.Ru Group у группы компаний USM, основанной Алишером Усмановым. За контрольный пакет «МегаФон» выплатит...
Сегодня компания «МегаФон» сообщила о намерении приобрести 63,8 % голосующих акций Mail.Ru Group у группы компаний USM, основанной Алишером Усмановым. За контрольный пакет «МегаФон» выплатит 640 миллионов долларов США на момент закрытия сделки и ещё $100 млн — через год. В пресс-релизе «МегаФон» объясняет необходимость в сделке упрощением совместных проектов компаний и благоприятными условиями для активного сотрудничества между телеком-операторами и Интернет-компаниями: Сделка направлена на получение существенных синергетических эффектов для обеих компаний, включая расширение ассортимента и способов продвижения цифровых услуг «МегаФона», запуск специального предложения VKmobile для пользователей социальной сети «ВКонтакте» и другие возможные инициативы. Генеральный директор «МегаФона Сергей Солдатенков и генеральный директор Mail.Ru Group Борис Добродеев назвали конкретные примеры такого сотрудничества: создание и продвижение приложения VKmobile на базе социальной сети «ВКонтакте», улучшение таргетирования и предиктивной аналитики. Как подчёркивает «МегаФон», после покупки команды оператора связи и Mail.Ru продолжат работать независимо, с сохранением в обеих сложившихся корпоративных культур и методов управления. Сотрудничество и соглашения между компаниями будут заключаться на рыночных условиях. Теперь совет директоров «МегаФона» созывает собрание акционеров для одобрения покупки 11,5 млн акций класса A и 21,9 млн обычных акций Mail.Ru Group Limited. Для завершения покупки также нужно получить одобрение Федеральной антимонопольной службы России. В октябре этого года в СМИ появилась информация о создании виртуального оператора связи для «ВКонтакте» на инфраструктуре «МегаФона». Тогда сообщалось, что услуги создаваемого VKmobile могут быть бесплатными: за них нужно будет расплатиться действиями (просмотреть рекламу, вступить в группу и пр.). В начале ноября стало известно о переговорах «МегаФона» по возможности сотрудничества и покупки пакета Mail.Ru Group. Последняя на тот момент отрицала, что участвует в переговорах по слиянию. «МегаФон» — один из крупнейших операторов сотовой связи в РФ, член так называемой «большой тройки». У оператора 77,3 млн абонентов. В активах приобретаемой компании Mail.Ru Group находится сам портал Mail.Ru с почтовой службой и прочими сервисами, крупнейшие социальные сети российского сегмента Интернета «Вконтакте» и «Одноклассники», система мгновенного обмена сообщениями ICQ и доли в различных проектах: Sape, Qiwi, AdRiver и т. д. На международном рынке Mail.Ru работает под брендом My.com. Как «МегаФон», так и Mail.Ru Group сейчас контролируются предпринимателем Алишером Усмановым через структуры USM Holdings.
https://geektimes.ru/post/283974/
habrahabr
Волшебный хостинг в Нидерландах без учета потребляемых серверных ресурсов обновлен и стал дешевле, чем где-либо
['хостинг без учета нагрузки', 'хостинг в Нидерландах', 'волшебный хостинг']
Почти два года прошло с того момента, когда мы анонсировали впервые услугу хостинга с прозрачной и на 100% понятной тарификацией. Мы отказались во все считать потребляемые клиентами ресурсы...
Почти два года прошло с того момента, когда мы анонсировали впервые услугу хостинга с прозрачной и на 100% понятной тарификацией . Мы отказались во все считать потребляемые клиентами ресурсы выделенного сервера CPU/RAM/IOPS и учитывали только трафик. Ведь это — максимально понятно и прозрачно для клиента. Тем более для пользователей, которых интересует только то, сколько посещений их проектов обеспечит тот или иной тарифный план и как при этом не потерять посетителей в результате скрытых ограничений хостинг-провайдера или внезапного превышения нагрузки, не получить отказ в обслуживании. Мы убедились на своем опыте, что были правы, что не стоит измерять нагрузку в попугаях, как это делают не совсем честные коллеги, к примеру указывая допустимую нагрузку в CP, при этом умалчивая характеристики процессора ноды, приводя при этом лишь расплывчатое объяснение: CP — это абстрактная величина, характеризующая количество процессорного времени потраченного процессорами на обработку процессов пользователей, получаемая стандартными средствами ядра linux. Значение данного параметра зависит как от посещаемости сайта, так и от самого сайта, от подключённых модулей и т.п. Поэтому оценить какую нагрузку будет создавать тот или иной сайт можно только примерно и при детальном изучении сайта. В данном случае правильнее и быстрее перенести к нам сайт и посмотреть создаваемую им нагрузку. И совсем не указывая то, что выделяемое, к примеру, 65 CP — почти ничто, и оно еще очень сильно будет зависеть от процессора ноды, не только от частоты, но и от инструкций, которые поддерживает тот или иной процессор. Что явно на каком-то этапе порождает конфликты с пользователями, которые ожидали одно, а получили на деле совсем другое. Но то такое... Сегодня мы хотим сообщить о том, что наше решение обновляется, ввиду приобретенного опыта, прозрачная работа позволила нам удовлетворить потребности многих абонентов, не получив при этом ни единой жалобы из-за расплывчатой или несовершенной тарификации. Теперь мы готовы представить надежный, понятный и обновленный волшебный хостинг уже для сотен тысяч наших будущих пользователей, еще более обрушив цены и даже добавив базовую защиту от DDOS-атак, возможность использования нескольких IP-адресов без доп. оплат и другие интересные бесплатные плюшки. Для еще большей простоты в выборе по-прежнему доступно только 4 тарифных плана, которые отличаются лишь количеством сайтов и трафика (количеством просмотра страниц Ваших сайтов Вашими посетителями в месяц): SSD BASIC Квота: 3GB SSD Полноценных сайтов на аккаунте: 3 Баз данных: 3 MySQL Примерное число просмотров страниц *: 300000 Стоимость: $0,99 в месяц SSD BUSINESS Квота: 10GB SSD Полноценных сайтов на аккаунте: 10 Баз данных: 10 MySQL Примерное число просмотров страниц *: 1500000 Стоимость: $2,99 в месяц SSD ENTERPRISE Квота: 30GB SSD Полноценных сайтов на аккаунте: 30 Баз данных: 30 MySQL Примерное число просмотров страниц *: 7500000 Стоимость: $5,99 в месяц SSD VIP Квота: 100GB SSD Полноценных сайтов на аккаунте: 100 Баз данных: 100 MySQL Примерное число просмотров страниц *: 15000000 Стоимость: $9,99 в месяц * Для расчета взят средний размер веб-страницы 700 КБ, количество просмотров — результат деления ежемесячного трафика на усредненный размер веб-страницы, например для минимального тарифного плана 200*1024*1024/700 = 299 593,14. Таким образом, если средний размер страниц Вашего веб-сайта будет ниже, к примеру составлять 200 КБ, а не 700, Вы можете получить гораздо больше просмотров — 200*1024*1024/200 = 1 048 576, и наоборот. Наш хостинг в Нидерландах на SSD-накопителях без учета потребляемых серверных ресурсов можно заказать здесь . Теперь: — В Вашем распоряжении минимум 2 двенадцатиядерных процессора 2хIntel Dodeca-Core Xeon E5-2650v4, 48x2.2GHz с учетом гипертрейдинга (мы отказались от использования 4-х процессорных платформ и увеличили количество нод в разы, а за счет того, что новые процессоры имеют больше ядер, более новое поколение и обновленные инструкции, решение стало еще более производительным для каждого абонента и также более экономически эффективным); — Мы уменьшили Интернет-канал до 1 Гбит / с на каждой из нод (было минимум 10 Гбит /с), так как потребностей в таком большом трафике никто не испытывал и такой канал был закуплен только с целью фильтрации возможных атак и предоставления непрерывного сервиса, сейчас же на стороне корневого маршрутизатора реализована автоматическая защита от DDOS-атак, и мы предоставляем защиту бесплатно для всех наших абонентов при условии атак, которые не превышают 1 Гбит / с, что также позволило снизить стоимость услуги; — Появилась возможность использовать 3 общедоступных IP-адреса БЕСПЛАТНО, в пределах одного хостинг-аккаунта, нужны еще ай пи? Приобретите дополнительный хостинг-аккаунт на другой хостинг-ноде, либо покупка выделенных IP, поможет обеспечить Ваши потребности. Помимо прочего мы предоставляем: — Удобную панель управления ISPManager 5 Business; — Возможность выбора версии PHP для определенного веб-сайта (PHP 5.2, PHP 5.3, PHP 5.4, PHP 5.5, PHP 5.6 или PHP 7.0); — В то время, как большинство хостинг-провайдеров до сих пор применяют «медленные» жесткие диски SATA, обеспечивающие не более 50-140 операций чтения / записи в секунду (IOPS), мы строим решения исключительно на твердотельных накопителях SSD, которые обеспечивают 50 000 IOPS и более! — Бесплатный перенос от другого провайдера по запросу и бесплатный SSL-сертификат Let's Encypt! Ограничения: — Для выбранного Вами тарифного плана ограничивается только максимальное количество посетителей в месяц — трафик, тем не менее Вы можете приобрести столько трафика, сколько Вам необходимо, увеличить Ваш тарифный план до необходимого Вам предела; — Так как потребляемый трафик неразрывно связан с потребляемыми ресурсами CPU / RAM / IOPS — мы практически не применяем их ограничения, ведь благодаря производительному оборудованию потребление носит мгновенный характер, что позволяет использовать ресурс хостинг-серверов полноценно и более эффективно; — На хостинг-сервере запрещено размещение проектов с целью проксирования трафика, конвертации медиафайлов или проведения других подобных сложных вычислений (стандартные сайты не подпадают под эти ограничения, имеются ввиду вычислительные процессы занимающие минуты процессорного времени, как при конвертации больших видеофайлов); — Запрещено размещение политических сайтов, сайтов, подверженных DDOS-атакам (свыше 1 Гбит / с), а также ресурсов, заблокированных для пользователей из России Роскомнадзором либо с высоким потенциальным риском такой блокировки; — Нормы пользования сетью, принятые рабочей группой OFISP, а также Договор-оферта, должны соблюдаться в полной мере. Почему цены столь низкие? Процитирую свой же ответ из обсуждения на большом известном форуме веб-мастеров: Проблема в том сейчас, что как раз вот эти «хостинг-компании» из 1 человек, увы, но в большинстве своем (не буду обобщать на всех, есть очень профессиональные люди, которых есть за что уважать и которые предоставляют по истине индивидуальный подход), привносят на рынок не пользу, а разрушение. Ибо демпингуя, предоставляя услуги по ценам ниже разумного предела, вызывают отток клиентской базы у провайдеров с достойным качеством услуг, вынуждая их в свою очередь снижать цены и продавать услуги порой ниже себестоимости. Ведь цены на услуги хостинга уже стали на порядок ниже, чем 5 лет назад, при этом ресурсов больше и серверы мощнее также, наверное, на порядок. Вопрос в том, почему нельзя сохранить цены 5-летней давности, если порядки идентичны, а зар. платы сейчас выше, нежели 5 лет назад? Ведь если мы отнимем эти порядки, прийдем к выводу, что для предоставления качественных хостинг-услуг, цены должны быть идентичны (а то и выше, если речь идет о достойных зар. платах персоналу), должно измениться лишь количество включенных ресурсов. Низкая же пороговая цена для старта хостинг-«бизнеса», привела к тому, что в среду пришли идиоты, лишь с целью заработать, а не предоставить качественный сервис, и в попытках монетизации они идут на все, чтоб задавить провайдеров, предоставляющих услуги более высокого качества. И они это могут. Можно долго говорить, что есть клиенты, которым важно качество, но по факту, оказывается, что люди настолько привыкли экономить деньги, что для них играет «огромное значение», разница в стоимости на 4 доллара в месяц. И они пойдут заказывать за доллар, пусть и падающий и лагающий хостинг без поддержки, чем за 5 что-то волшебное и удобное. Пойдут клепать гс-ы, поисковый спам, чтоб «заработать» жалкие копейки на SEO, чем СДЛ (сайт для людей). Вы много проектов новых интересных в последнее время видели? А ведь сайты для людей стало делать значительно проще. Только возникает другая проблема, они, как правило, не приносят сразу денег и надо очень много работать, а это никому не интересно. Огромная проблема в том, что непрофессионалы заполнили рынок и теперь доверие, в первую очередь адекватным хостинг-провайдерам, тяжело получить. Так как много кто из этих шарлатанов, ставил на фоне низких цен высокие, предоставляя то же низкое качество, но уже по большим деньгам и у некоторых клиентов существует в связи с этим определенный стереотип, зачем платить больше за то же самое? Вас устраивает, когда качество 80% хостинг-услуг находится на низком уровне? Меня нет. И мы будем это менять. Как? Продадим еще дешевле, себе в убыток. Информировать шарлатанов мы не будем, они также легко потеряют клиентов, как их получили. Ведь если ранее клиенты шли к ним, потому, что цена отличалась на «5 рублей», и устраивались игры перебежчиков, когда где-то цена становилась на рубль ниже, то как Вы думаете, какой эффект будет, если разница в «100 рублей»? Разумеется, что цены через год-два могут быть пересмотрены, будем смотреть по результатах. Но сейчас у Вас есть возможность попробовать действительно качественный сервис, по низкой цене, без подводных камней. Возможно эта услуга окажется для Вас хорошим базовым этапом, перед тем, как выбрать полноценный аналог выделенного сервера с еще более обширными возможностями и меньшими ограничениями, которые уже признаны очень экономически эффективными многими пользователями Habrahabr и Geektimes (услуга получила десятки предзаказов еще до начала предоставления) : http://ua-hosting.company/vds — виртуальные серверы в Нидерландах с выделенными накопителями (полноценный аналог выделенных серверов для 95-99% веб-проектов): VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 240GB SSD / 1Gbps 10TB — $29 в месяц VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 /480GB SSD / 1Gbps 20TB — за $49 в месяц VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 4TB SATA / 1Gbps 10TB — $29 в месяц VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 / 2 x 4TB RAID1 SATA / 1Gbps 20TB — за $49 в месяц Ожидаем Ваши комментарии и отзывы.
https://habrahabr.ru/company/ua-hosting/blog/318290/
habrahabr
Как мы подложили компании «свинью»
['agile', 'golang', 'react', 'команда', 'новый продукт']
В очередной раз столкнувшись с проблемой сбора денег, мы решили посмотреть, какие существуют готовые решения на рынке. Провели анализ существующих продуктов, выявили их недостатки и решили...
В очередной раз столкнувшись с проблемой сбора денег, мы решили посмотреть, какие существуют готовые решения на рынке. Провели анализ существующих продуктов, выявили их недостатки и решили сделать свой продукт (ведь в IT свои "велосипеды" всегда ближе). В этой небольшой статье мне бы хотелось поделиться опытом сбора команды, взаимодействия со смежными подразделениями в рамках большой компании и попыткой использовать готовые решения, на первый взгляд подходящие под наши нужды. Сбор команды: После утверждения проекта на верхах и появления product owner’а, встал вопрос "а кто же будет делать?". По имеющимся процедурам, задачи должны были разлететься по разным группам: front-end, back-end, database. С разными очередями задач, приоритетами и владельцами. О каждой понемногу. Front-end — нужна была интеграция в сайт небольшой формы, и проблем по началу не было — сказали, что ресурс есть и все сделают за пару недель. Но радость длилась недолго — видимо, по совокупности парада планет, полнолуния и прочих мистических событий (точно мы так и не узнали) в "закрытый клуб" нас не пустили. Ресурс не выдали и отложили задачу на потом. Back-end — тут было проще, нам сразу сказали, что ресурса нет и в ближайшее время не будет. У Product owner пропало желание ходить дальше и узнавать "а когда будет ресурс?", "а может выделите пару спринтов?". После чего она пожаловалась нам, в общем — тлен. Но, после удачно подвернувшегося Agile-тренинга, на котором нас зарядили энергией на успех и рассказали, что можно делать любой проект любой командой, мы решили создавать проект силами команды, которая косвенно связана с web-разработкой. Так началась история одной маленькой, но гордой команды. Начало: Получив добро на верхах попробовать новый формат ведения проекта, мы стартовали. Собрали backlog, завели доску, обсудили MVP, начали распределять роли. С последними вышел курьез, поскольку каждый участник должен иметь роль, полезную для команды. Это, на мой взгляд, является плюсом такого подхода, так как в команде остаются только "нужные" люди. Менеджеры, например, стали тестировщиками. Выбрали недельные спринты, несмотря на то, что обычно в компании они двухнедельные. Как потом оказалось, не зря — короткий спринт положительно сказался на проекте, и команда чаще была в курсе хода работ, было проще учитывать и влиять на изменения вокруг проекта. Неожиданно, одной из сложностей стало заставить людей вовремя приходить на утренние ежедневные встречи. Для чего даже был введен налог на опоздания в виде сладостей, в результате команда немного прибавила в весе :) Технологии: Продукт очень хорошо попадал в общую концепцию продуктов в компании, и мы хотели по максимуму использовать уже готовые решения и архитектуру. Но в итоге основная боль от использования готовых "велосипедов" сводилась к тому, что зачастую это был моноцикл, ехал он только направо, а как крутить его педали, знала от силы пара человек. Front-end: Чтобы не ждать ресурса для внедрения в сайт, оптимальным для нас вариантом оказалось сделать собственный сайт для продукта. Для разработки сайта за основу архитектуры была взята связка SPA, React JS, Redux. От isomorphic-приложения решено было отказаться, дабы не связываться с NodeJS (хотя без ноды не обошлось), в этом плане SPA выгодно выделялся. Поначалу все шло хорошо. Приложение обретало все больше функционала, придавая команде уверенности. Проблемы начались после пентестов ИБ. Оказалось, что схема авторизации содержала в себе архитектурную ошибку. Это заставило нас побегать по нескольким подразделениям и попутно забраковать похожую схему в соседнем проекте. Но решение в итоге было найдено. Следующие грабли, на которые мы наступили — это SEO. Роботы не умеют работать с javascript рендерингом. В итоге было два варианта: Prerender.io — сторонний сервис, и у него есть некий интервал для создания кешированных страниц. Нам же нужно было получать статику в режиме реального времени. Свой пререндер — bingo!!!, свои "костыли" всегда лучше Для раздачи статики роботам был использован NodeJS. Back-end: От бэкэнда требовалось немного: принимать запросы от фронта, работать с базой, общаться с другими сервисами в контуре QIWI. Нагрузку заложили как у основного сайта. Проект пришелся на волну активного внедрения в компании микросервисной архитектуры, что позволило нам уменьшить время разработки, так как часть функционала окружения на себя брали уже готовые микросервисы. После оценки требований и возможностей встал вопрос "на чем же писать?". Среди претендентов были Java, NodeJS, Golang. Java — основной язык разработки back-end в компании, который нам активно советовали потому что его многие "умеют". Однако поизучав один проект, пришли к выводу, что многие "умеют" его по-своему. Кроме того, вариантов решения одной задачи за годы существования и смены трендов в Java существует очень много. Node.js — тренд, достаточно легкий в понимании и освоении. Обсудив этот вариант, мы пришли к выводу, что очень просто отстрелить себе ногу, попутно повредив еще что-нибудь. JS есть JS, со всеми своими плюсами и минусами. Golang — Из коробки в Go доступны все необходимые инструменты, включая легковесную многопоточность, тестирование и бенчмарки. Также есть внушительный список сторонних библиотек на все случаи жизни. Выгодно смотрится и заявленная поддержка обратной совместимости версий Golang. Смутили лишь каналы, которым не смогли найти применение в коде, да и к автоформатированию с синтаксисом пришлось привыкать некоторое время. В итоге выбор пал на Golang, что нам аукнулось в дальнейшем в организационном плане, так как админы не умели собирать и разворачивать приложения, а у ИБ не было инструментов для анализа кода. Но, конечно, все проблемы в результате были решены. В качестве базы выбрали PostgreSQL — с задачей хранения данных она справляется, и нам этого хватило. Тестирование: В команде не было изначально профессионального тестировщика, поэтому в какой-то момент скопилось очень много задач для тестирования, и это стало напрягать. По сути, это была классическая для начинающих в agile ситуация — завал задач в одном месте, который нужно разгрести, прежде чем продолжать разработку. Но мы нашли выход: забили отступили от Agile и продолжили работать. В итоге мы не стали брать тестировщика в команду, а использовали команду QA как сервисное подразделение, отдавая задачи на тестирование. Неожиданно для нас, подход оказался удачным: ребята-аутсорсеры очень быстро и хорошо прошерстили наш продукт, найдя кучу багов и прибавив новых стикеров на доску. Это приносило радость и понимание, что проект движется к продакшену. Как запускались: Пилотный запуск произошел внутри компании, что позволило нам собрать предложения, пожелания, баги, но в целом отзывы были положительные. Исправив все критичные баги прямо в проде, направили небольшой трафик с основного сайта, проведя тестирование уже на реальных пользователях. После чего был произведен обзвон пользователей и проведен небольшой опрос о продукте. Выяснили, что продукт пользователям понятен и полезен. Они к тому же подкинули нам еще несколько хороших идей в бэклог, и мы решили масштабироваться и сразу же запускать второй этап проекта с доработками, которые сделают жизнь юзеров еще проще. Итог: По ходу выполнения проекта были как положительные так, и отрицательные моменты. Пройдя этот путь вместе с командой, я получил для себя бесценный опыт и сделал некоторые выводы: Agile оказался очень удобным набором инструментов для запуска продукта. Но для внедрения agile менеджер подразделения должен признаться в своей ненадобности. В смежных командах работают тоже люди. Но чаще на этих людей начинаешь смотреть по-другому, несмотря на то, что они работают в компании уже давно. ИБ находится в своем контексте и не всегда понятно, что и зачем надо сделать, поэтому лучше лишний раз переспросить и уточнить. Не стоит бояться нового и делать то, что никогда не делал. SPA, React, Redux — хорошо и модно, но без NodeJS никуда. Go легок, быстр и стабилен, для некритичных продуктов подходит отлично. Регулярные стендапы — хорошая практика "держать руку на пульсе". Когда решения обсуждаются и принимаются коллективно, каждый участник команды чувствует свой вклад. Груминг — это не только стрижка собак, но и отличный способ планирования активностей. P.S. О чем вообще пишет этот человек и при чем тут "свинья"? Я о нашем новом продукте. Встречайте QIWI Копилка — сервис для простого и удобного коллективного сбора денег. Вам достаточно только создать тематическую копилку и делиться ссылкой со своими друзьями для ее пополнения. Никаких лишних реквизитов.
https://habrahabr.ru/company/qiwi/blog/318300/
habrahabr
Yii2 RESTful API-интерфейс для AngularJS
['api', 'amazon ec2', 'Yii', 'json']
Здравствуйте, дорогие читатели! Судя по вашим комментариям к предыдущим статьям, многим из вас очень интересно, как именно мы будем использовать AngularJS в связке с нашим приложение на Yii2...
Здравствуйте, дорогие читатели! Судя по вашим комментариям к предыдущим статьям , многим из вас очень интересно, как именно мы будем использовать AngularJS в связке с нашим приложение на Yii2 фреймворке. В этой статье я подниму занавес и опишу процесс подключения фреймворка AngularJS и способы его применения. Я планирую использовать Yii2 для основной массы приложения, но Angular я буду использовать для таких частей приложения, как модальное окно добавления объявления, поиск по сайту, карбилдер (часть функциональности сайта, позволяющая собрать машину своей мечты и отправить запрос на нее администратору сайта и дилерам партнерам) и т.д. Ничего такого, что бы изменило текущий роут, но подобный подход придаст нашему приложению отзывчивости и простоты взаимодействия с посетителем. В перспективе мы будем переводить проект в одностраничное приложение на AngularJS, которое будет взаимодействовать с бэкендом Yii2 REST. Но на данный момент, я не хочу это делать, потому что тогда нам нужно будет обрабатывать маршрутизацию, валидацию, авторизацию, права доступов и тому подобное как в Angular.js, так и на бэкенде. Структура RESTful API Yii предоставляет нам чистый API, который может обмениваться данными со встроенным AngularJS приложением, или же, с нашим мобильным приложением в будущем. Так как мы заботимся о производительности, мы будем обеими ногами идти в сторону REST. Хорошо структурированное RESTful приложение является большим плюсом, особенно если там проработана хорошая система кэширования с гибкой стратегией. Также, мы планируем разместить бэкенд и базу данных на сервере Amazon EC2 и предоставлять только JSON данные для минимального использования полосы пропускания. Тем более, что Amazon EC2 обладает такой особенностью, как автоматическое масштабирование, которое позволяет ему автоматически адаптировать вычислительные мощности в зависимости от трафика сайта. А что касается нашего статического контента, мы будем хранить его на оптимизированной CDN Amazon S3, которая имеет самую низкую стоимость и более быструю скорость ответа. Об этом я буду писать более подробно в своих следующих статьях. Yii2 фреймворк предоставляет целый набор инструментов для упрощения реализации и внедрения RESTful API. Сейчас я продемонстрирую пример, как можно построить набор RESTful API, с минимальными затратами усилий на написание кода. Для начала, создадим контроллер для API в модуле Lease , он будет находиться по пути modules/lease/controllers/frontend файл ApiController.php и в нем пропишем следующее: <?php namespace modules\lease\controllers\frontend; use yii\rest\ActiveController; class ApiController extends ActiveController { public $modelClass = 'modules\lease\models\frontend\Lease'; } Класс контроллера наследуется от yii\rest\ActiveController , который реализует общий набор RESTful действий. Указав modelClass , как modules\lease\models\frontend\Lease , контроллер знает, какая модель может быть использована для извлечения и манипулирования данными. Для того, чтобы предоставить возможность пользоваться нашим API посредством ajax-запросов с других доменов, можно добавить поведение cors в контроллер, если это необходимо: ... public function behaviors() { $behaviors = parent::behaviors(); $behaviors['corsFilter' ] = [ 'class' => \yii\filters\Cors::className(), ]; // В это место мы будем добавлять поведения (читай ниже) return $behaviors; } ... Обратите внимание, что мы хотим сохранить конфигурацию поведения из yii\rest\Controller , вот почему мы сохраняем его в первой строке $behaviors = parent::behaviors(); и продолжаем добавлять к нему поведения. Yii2 REST API-интерфейс способен отдавать ответы в XML и JSON форматах. Мы будем использовать только формат JSON, — сообщим об этом фреймворку: ... $behaviors['contentNegotiator'] = [ 'class' => \yii\filters\ContentNegotiator::className(), 'formats' => [ 'application/json' => \yii\web\Response::FORMAT_JSON, ], ]; ... Мы также легко можем конфигурировать различные права доступов к действиям контроллера API c помощью класса yii\filtersAccessControl . Укажем, что создавать, редактировать и удалять листинги могут только авторизованные пользователи: ... $behaviors['access'] = [ 'class' => \yii\filters\AccessControl::className(), 'only' => ['create', 'update', 'delete'], 'rules' => [ [ 'actions' => ['create', 'update', 'delete'], 'allow' => true, 'roles' => ['@'], ], ], ]; ... Также, для обеспечения контроля доступа к действиям можно переопределить метод CheckAccess() , для того, чтобы проверить, имеет ли текущий пользователь привилегию на выполнение определенного действия над указанной моделью данных. Например, напишем проверку, чтобы пользователь мог редактировать или удалять только свои листинги: … public function checkAccess($action, $model = null, $params = []) { // проверяем может ли пользователь редактировать или удалить запись // выбрасываем исключение ForbiddenHttpException если доступ запрещен if ($action === 'update' || $action === 'delete') { if ($model->user_id !== \Yii::$app->user->id) throw new \yii\web\ForbiddenHttpException(sprintf('You can only %s lease that you\'ve created.', $action)); } } ... Этот метод будет вызываться автоматически для действий класса yii\rest\ActiveController . Если вы создаете в контроллере новое действие, в котором также необходимо выполнить проверку доступа, вы должны вызвать этот метод явным образом в новых действиях. Следующим этапом мы изменим конфигурацию компонента urlManager в бутстрэппинг классе модуля в файле modules/lease/Bootstrap.php ... $app->getUrlManager()->addRules( [ [ 'class' => 'yii\rest\UrlRule', 'controller' => ['leases' => 'lease/api'], 'prefix' => 'api' ] ] ); … Приведенная выше конфигурация в основном добавляет URL правило для контроллера API таким образом, что данные могут быть доступны и ими можно будет манипулировать с использованием короткого URL-адреса и соответствующего HTTP заголовка. Мы добавили prefix , для того, чтобы все ссылки для обращения к API сервисам начинались с /api/* , таким образом, по этому паттерну этот контент можно будет запросто скрыть от поисковых машин в файле robots.txt. В дальнейшем, в каждом модуле, который будет участвовать в RESTful API-интерфейсе, мы таким же образом будем добавлять контроллер для API. Написанным выше минимальным количеством кода, мы уже выполнили свою задачу по созданию RESTful API-интерфейса для доступа к данным из модели Lease . Мы создали API-интерфейсы, которые включают в себя: GET /api/leases: Получить все листинги HEAD /api/leases: Получить заголовок ответа на запрос GET /api/leases POST /api/leases: Создать новый листинг GET /api/leases/3: Получить данные листинга с id=3 HEAD /api/leases/3: Получить заголовок ответа GET /api/leases/3 PATCH /api/leases/3 и PUT /api/leases/3: Изменить данные листинга с id=3 DELETE /api/leases/3: Удалить листинг id=3 OPTIONS /api/leases: Получить список доступных методов запроса для /api/leases OPTIONS /api/leases/3: Получить список доступных методов запроса для /api/leases/3 С помощью механизма RESTful API фреймворка Yii2, мы реализовали API эндпоинты в виде действий контроллера и используем эти действия для одного типа данных (для одной модели). На данный момент, мы реализовали часть бэкенда для приложения и теперь можем приступить к реализации фронтенда – начнем с того, что подключим AngularJS. Делать это будем используя composer, нам просто нужно будет добавить следующие строки в секцию “require” в файле composer.json . ... "bower-asset/angular": "^1.5", "bower-asset/angular-animate": "^1.5", "bower-asset/angular-bootstrap": "^2.2" … И выполнить команду в командной строке php composer.phar update . Теперь давайте сделаем AssetBundle в файле так, чтобы мы могли с легкостью подцепить AngularJS файлы к лейауту. Вот так будет выглядеть файл \frontend\assets\AngularAsset.php <?php namespace frontend\assets; use yii\web\AssetBundle; use yii\web\View; class AngularAsset extends AssetBundle { public $sourcePath = '@bower'; public $js = [ 'angular/angular.js', 'angular-animate/angular-animate.min.js', 'angular-bootstrap/ui-bootstrap.min.js', 'angular-bootstrap/ui-bootstrap-tpls.min.js' ]; public $jsOptions = [ 'position' => View::POS_HEAD, ]; } public $jsOptions = [ ‘position’ => View::POS_HEAD, ]; сообщает Yii, что необходимо подключить JavaScript файлы в секции head нашего лейаута вместо того, чтобы размещать их в самом конце секции body, таким образом, ядро AngularJS загрузится настолько быстро, насколько это возможно. Мы также должны добавить этот Bundle в зависимости главного asset bundle приложения и там же подключить еще один файл ‘js/app.js’ , в котором будет находится экземпляр AngularJS приложения. <?php namespace frontend\assets; use yii\web\AssetBundle; /** * Main frontend application asset bundle. */ class AppAsset extends AssetBundle { public $basePath = '@webroot'; public $baseUrl = '@web'; public $css = [ 'css/site.css', ]; public $js = [ 'js/app.js', 'js/controllers.js', 'js/directives.js', 'js/services.js', ]; public $depends = [ 'yii\web\YiiAsset', 'yii\bootstrap\BootstrapAsset', 'frontend\assets\AngularAsset' ]; } Давайте заодно добавим файл controllers.js в этот же бандл. В дальнейшем, мы пропишем в нем контроллеры нашего фронтенда, directives.js и services.js для описания директив и сервисов соответственно. Начнем имплементировать Angular во вьюхи приложения с добавления директивы ng-app к элементу html – это будет запускать наше AngularJS приложение, которое мы назовем “app” . ... <html lang="<?= Yii::$app->language ?>" data-ng-app="app" > ... Обратите внимание, что я написал директиву data-ng-app именно так, иначе, наша html разметка не пройдет W3C валидацию. На работу директив это никакого влияния не оказывает, а верстка у нас должна проходить валидацию согласно спецификации по проекту. Поэтому для всех нестандартных директив мы будем дописывать приставку data- . Код для Angular приложения будет располагаться в frontend/web/js/app.js . Там мы определим приложение и подключим к нему модули, которые мы собираемся использовать. 'use strict'; var app = angular.module('app', [ 'ngAnimate', 'ui.bootstrap', 'controllers' //наш модуль frontend/web/js/controllers.js ]); В файле frontend/web/js/services.js напишем сервис LeaseService , который будет выполнять CRUD операции для листингов посредством общения с REST API бэкенда: 'use strict'; var app = angular.module('app'); app.service('LeaseService', function($http) { this.get = function() { return $http.get('/api/leases'); }; this.post = function (data) { return $http.post('/api/leases', data); }; this.put = function (id, data) { return $http.put('/api/leases/' + id, data); }; this.delete = function (id) { return $http.delete('/api/leases/' + id); }; }); На сегодняшний день, наш модуль controllers будет содержать в себе очень простой контроллер LeaseController . Он будет запрашивать данные от /api/leases и передавать данные в отображение. 'use strict'; var controllers = angular.module('controllers', []); controllers.controller('LeaseController', ['$scope', 'LeaseService', function ($scope, LeaseService) { $scope.leases = []; LeaseService.get().then(function (data) { if (data.status == 200) $scope.leases = data.data; }, function (err) { console.log(err); }) } ]); Используем этот контроллер в файле \modules\lease\views\frontend\default\index.php указав через директиву ng-controller и выводим в таблицу данные, которые нам предоставил API: <div class="lease-default-index" data-ng-controller="LeaseController"> <div> <h1>All Leases</h1> <div data-ng-show="leases.length > 0"> <table class="table table-striped table-hover"> <thead> <th>Year</th> <th>Make</th> <th>Model</th> <th>Trim</th> </thead> <tbody> <tr data-ng-repeat="lease in leases"> <td>{{lease.year}}</td> <td>{{lease.make}}</td> <td>{{lease.model}}</td> <td>{{lease.trim}}</td> </tr> </tbody> </table> </div> <div data-ng-show="leases.length == 0"> No results </div> </div> </div> Теперь, когда мы просмотрим страницу по пути /lease/default/index , мы увидим список всех листингов, записанных в базу данных. Надеюсь, вы убедились, насколько быстро и легко можно создать RESTful API-интерфейс на базе фреймворка Yii2. Весь описанный в этой и предыдущих статьях код, доступен для вас в репозитории . Материал подготовили: greebn9k (Сергей Грибняк), pavel-berezhnoy (Павел Бережной)
https://habrahabr.ru/post/318242/
habrahabr
Обзор лазерных резаков-граверов с ЧПУ до 1 млн рублей
['laser', 'cnc laser', 'laser cutter']
Наряду с 3D-принтерами и фрезерными станками, лазерные резаки и гравировщики — ещё один класс ЧПУ-устройств, без которого сложно представить современное высокотехнологичное производство....
Наряду с 3D-принтерами и фрезерными станками, лазерные резаки и гравировщики — ещё один класс ЧПУ-устройств, без которого сложно представить современное высокотехнологичное производство. Лазерный луч способен с высокой скоростью и точностью обрабатывать широчайший спектр материалов, оставляя после результат не требующий дополнительной финишной обработки. В этом обзоре мы познакомим читателей с несколькими образцами лазерных резаков, которые могут применяться во многих областях — производство рекламных материалов, мебели, различной техники и товаров народного потребления. Эти резаки-гравировщики штатно не работают по металлу, камню или минеральному стеклу, у них не то назначение и не та мощность, но со своими задачами они справляются отлично. На большинство моделей указаны цены, но цены эти ориентировочные — они могут меняться как в большую, так и в меньшую сторону по разным причинам. Для получения более точной информации можно посетить сайт. Raylogic (бывший Qualitech) Лазерный гравер Raylogic 304 mini Мощность лазера: 30 Вт Размер рабочего поля: 300 Х 400 мм Цена: 136 000 руб Применение: маркировка, реклама, производство сувениров. Один из самых недорогих лазерных станков. Незаменим в изготовлении рекламных и промо-материалов из бумаги, ткани, пластика. С легкостью режет акрил толщиной до 5 мм. Не самый мощный лазер, но надежные электронная начинка и механизм позволяют этому станку обрести своих пользователей. Raylogic серия 11G Лазерные резаки-гравировщики серии 11G — производятся по высоким международным стандартам промышленного оборудования и с учетом нормативов Российских производственных компаний. От предыдущей серии отличаются рядом нововведений увеличивших надежность, универсальность и простоту обслуживания и работы станков. Резаки оснащены последним поколением DSP-контроллеров с множеством новых функций увеличивающих скорость и производительность работы. В базовой комплектации установлены лазерные трубки компании Reci с ресурсом 10 000 часов непрерывной работы. Реечный стол делает удобной работу с листовыми материалами. Лазерный станок Raylogic 11G 530 лайт Мощность лазера: 40 Вт Размер рабочего поля: 500 x 300 x 300 мм Цена: 245 000 руб. Применение: маркировка, реклама, производство изделий из фанеры и пластика. Обновленная материнская плата, удобная система управления, усовершенствованное крепление лазерной трубки позволяющее легко производить настройку. Работает с резиной, деревом, бумагой и фанерой, широким спектром натуральных и синтетических тканей, кожей и кожзамом, различными пластиками. Лазерный гравер Raylogic 11G 530 лайт+ Мощность лазера: 40 Вт Размер рабочего поля: 500 x 300 x 300 Цена: 260 000 руб. Применение: реклама, производство табличек. Характеристики аналогичны Raylogic 11G 530 лайт, лайт + отличается наличием в комплекте поворотного устройства для работы с цилиндрическими предметами. Лазерный гравер Raylogic 11G 640 лайт Мощность лазера: 60 Вт Размер рабочего поля: 600 х 400 Цена: 325 000 руб. Применение: маркировка, реклама, производство сувениров. Легко гравирует пенополиуретан, резину, двухслойные пластики от 0,1 до 3,2 мм, полиэтилен. Работа с деревом, фанерой и шпоном тоже не представляет сложности. Лазерный гравер Raylogic 11G 690 лайт Мощность лазера: 90 ватт Размер рабочего поля: 600 х 900 Цена: 425 000 руб. Применение: реклама, производство табличек и сувенирных изделий. Ресурс работы излучателя увеличен до 10 000 часов. Разборная конструкция каркаса станка и электровинтовой подъемный стол позволяют разместить гравер в любом удобном месте. Рельсовые направляющие из коррозионно устойчивых сплавов увеличивают ресурс механической части. С легкостью режет древесину, композиты и широкий круг пластиков. Лазерный гравер Raylogic 11G 1290 лайт Мощность лазера: 90 Вт Размер рабочего поля: 1200 х 900 Цена: 456 000 руб. Применение: производство изделий из пластика, фанеры, кожи и ткани. Режет и гравирует фанеру, дерево и их производные, бальзу (от 1 до 20мм), оргстекло (от 1,2 до 20 мм), полистирол (от 2 до 4 мм), пенополистирол (до 50 мм), бумагу и все ее производные, в том числе гофрокартон толщиной до 5 мм, пенокартон до 10мм. Также гравирует кожу и кожзаменитель и режет всевозможные ткани и нетканые материалы. Работает с двухслойными пластиками до 3,2 мм и резиной. Лазерный гравер Raylogic 11G 1610 Мощность лазера: 120 Вт Размер рабочего поля: 1600 x 100 Цена: 518 000 руб. Применение: производство изделий из оргстекла, пластика, других листовых материалов. Мощный 120 Вт лазер и охладитель на 3000 Вт, увеличенная рабочая зона и качественные лазерные трубки Reci — с ними этот резак становится хорошим рабочим вариантом для любого рекламного производства и производителей деревянных и фанерных товаров. Лазерный гравер Raylogic 11G 1490 Мощность лазера: 120 Вт Размер рабочего поля: 1400 х 900 Цена: 530 000 руб. Применение: рекламное производство, производство сувениров, изделий из пластика, фанеры, кожи и ткани. Лазерный гравер Raylogic 11G 1620 Мощность лазера: 100 / 130 Вт Размер рабочего поля: 1600 x 100 мм Цена: 950 000 руб. Применение: производство крупноформатных изделий из различных листовых материалов. Рекламное производство. Ремесла. Портальный станок крупного формата и увеличенной мощности. Удобная и простая панель управления. Надежный механизм с большим ресурсом. Suda Лазерные комплексы под торговой маркой Suda уже хорошо известны потребителю и зарекомендовали себя как надежное и в меру бюджетное оборудование. Эти гравировально-разрезные машины занимают достойное место в производстве сувенирной и рекламной продукции. Лазерный гравер Suda SL-40B Мощность лазера: 40 Вт Размер рабочего поля: 220 x 200 мм Количество осей: 3 Цена: 225 050 руб. Применение: производство изделий из различных листовых материалов. Создание изображений на древесине и производных (фанера, ДСП и ДВП, шпон и т.д.). Рекламное производство. Ремесла. Аппарат обладает оптимизированной отражающей системой и сорокаваттной лазерной трубкой, которая может резать акрил толщиной до 20 миллиметров. Аппарат снабжен системой завершения задания после перебоев с питанием и отличается совместимостью с большим количеством векторных программ. Лазерный гравер Suda SL-4030 Мощность лазера: 25 Вт Размер рабочего поля: 380 x 280 мм Количество осей: 3 Цена: 315 070 руб. Применение: производство изделий из различных листовых материалов. Рекламное производство. Усовершенствованная система водяного охлаждения излучателя и линз сочетается в этом гравере с воздушным охлаждением рабочей поверхности и удалением дыма с помощью компрессора. Мощность лазерного луча регулируется программой, что позволяет изменять его интенсивность в рамках одной операции. Лазерный гравер Suda SL-6040 Мощность лазера: 60 / 80 Вт Размер рабочего поля: 600 x 400 мм Количество осей: 3 Цена: 514 400 руб. Применение: производство крупноформатных изделий из различных листовых материалов. Рекламное производство. Ремесла. Производство сувениров и игрушек. Модель с мощным углекислотным лазером и удобным управлением. Поддерживает работу с векторными файлами из разных программ. Скорость гравировки этим станком составляет до 1000 мм/с, резки — до 600 мм/с, при глубине до 20 мм. Лазерный гравер Suda SL-1216 Мощность лазера: 80 / 120 Вт Размер рабочего поля: 1200 x 1600 мм Количество осей: 3 Цена: 555 556 руб. Применение: Рекламное производство, промо-изделия и таблички. Станок обладает увеличенными площадью рабочего поля и мощностью лазера по сравнению с предыдущей моделью (SL-6040), при сохранении остальных параметров идентичными. … и другие Лазерный гравер MINIMO 0503 Мощность лазера: 50 (опционально 60...130) Вт Размер рабочего поля: 500 x 300 мм Количество осей: 3 Применение: производство изделий из различных листовых материалов. Рекламное производство. Ремесла. Работа с тканями и картоном. Интересный китайский аппарат для лазерной резки и гравировки, с возможностью комплектации лазерными трубками мощностью от 60 до 130 Вт. Удобство обеспечивается работой с векторными файлами из разных источников в программе LaserWork и двумя вариантами подключения к компьютеру — через USB или локальную сеть. Собственная память позволяет станку работать без соединения с компьютером. Скорость гравировки до 700мм/сек. Лазерный гравер Rabbit HX — 1290 SC Мощность лазера: 100-120 Вт Lasea F4 Размер рабочего поля: 1200 x 900 мм Количество осей: 3 Применение: производство изделий из различных листовых материалов. Рекламное производство. Ремесла. Полиграфия (фигурная резка). Мощный гравер для работы с древесиной, фанерой, различными пластиками и оргстеклом, а также тканями и кожей. Скорость работы достигает 700 мм/сек. Лазерный гравер Rabbit HX — 1290 SE Мощность лазера: 100-120 Вт Lasea F4 Размер рабочего поля: 1200 x 900 мм Количество осей: 3 Применение: производство изделий из различных листовых материалов — фанеры, пластика, тканей и кож. Рекламное производство. Легкая промышленность. Главное отличие модели SE от SC — толщина обрабатываемого материала увеличена со 160 до 280 мм, при использовании подъемного механизма. Также отличаются и размеры самого станка — 1705×1365×1100 мм (против 1705×1365×1200 мм у SC). ___ Мы рассмотрели несколько образцов бюджетных лазерных резаков, один из которых может себе позволить любая мастерская или небольшое производство. Конечно, это не полный список доступных аппаратов — есть станки и помощнее, и подороже, но — даже эти, не самые дорогостоящие лазерные резаки, могут многое: от персонализации сувениров, до изготовления достаточно крупных рекламных изделий, от нанесения рисунка на кожу и древесину, до быстрого и точного раскроя ткани. Применений им множество. Нужен ли такой аппарат именно вашей организации? Решайте сами. Мы свой выбор сделали. Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/283976/
habrahabr
Как работают ИТ-специалисты. Петр Зайцев, генеральный директор и основатель Percona
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'percona', 'гики']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Петр Зайцев, генеральный директор, основатель Percona . Он считает себя не самым организованным руководителем. Более того, Петр, будучи человеком технического склада, называет себя «нетипичным СЕО». Чем занимаетесь в компании? Я занимаюсь как стратегической частью управления компанией, так и нашими продуктами – сервисами и open source. Я, наверное, нетипичный СЕО, потому что обычно гендиректор уделяет больше времени продажам и маркетингу. Несколько лет назад я долго размышлял над этим вопросом: стоит ли мне быть ближе к СТО и нанять СЕО, или нужно построить отношения в команде так, чтобы она могла работать со мной как с СЕО, несмотря на то, что я человек технического склада. Я решил, что мне ближе второй подход. На мировом рынке есть такие люди, как Илон Маск или Марк Цукерберг, которые в душе такие «гики», несмотря на то, что занимают пост СЕО. В этом году, например, Марк Цукерберг рассказывал о планах сделать себе робота, который будет помогать ему по хозяйству. Вот это классно – наш человек. Одно слово (словосочетание), лучше всего описывающее, как вы работаете: Жонглер. Я не самый организованный СЕО в мире. Мне удобно заниматься несколькими задачами параллельно. Сколько часов в сутки вы уделяете работе? С годами это менялось. Сейчас примерно 10 часов в рабочие дни, в выходные – меньше. Вообще, для человека, который работает головой, это сложный вопрос. Мы можем продумывать решения рабочих задач когда угодно и где угодно. Сколько часов вы спите? Обычно 7 часов. Иногда меньше. Вы завтракаете? Да, легкий завтрак – кофе и йогурт. Много времени уходит на дорогу? 20-25 минут. Что еще делаете по пути на/с работы? Слушаю новости или образовательные подкасты. Каким todo-менеджером пользуетесь лично вы? Я пользовался несколькими, но лист бумаги для меня лучше всего. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь? Для разработки мы используем JIRA, репозиторий – Git. Какие инструменты, фреймворки вы используете для разработки? Jenkins – для continuous integration, Vagrant, Docker. Drupal – для веб-сайта, WordPress – для блога. Есть ли в вашей компании какие-то внутренние проекты, библиотеки и для чего они создавались? Самый большой проект, который мы создали, – система тайм-трекинга и учета информации о клиентах. Мы раньше делали такие внутренние проекты: например, специальный продукт для учета времени был сделан именно таким образом, как нам хотелось. С годами мы поняли, что поддерживать свой внутренний софт дорого и за стандартными решениями тяжело угнаться — в последние годы мы как можно больше всего переводим на стандартные системы — Zendesk, Salesforce, Liquid Planner и так далее. Что вас раздражает больше всего, когда вы работаете? Люди не в достаточной мере являются «роботами». Если компьютер делает в точности, что ему сказано, то люди могут не понять с первого раза. Объясняешь десять раз, потом тебя человек неправильно поймет, а если даже поймет правильно, все равно сделает по-своему. Какую профессиональную литературу вы бы могли порекомендовать? Мне нравится американский автор Patrick Lencioni. Он пишет книги про работу в команде. Очень хорошие книги, легко читаются. Еще одна книга, которую бы я порекомендовал, – это The Hard Thing About Hard Things. Там очень много детальных рекомендаций для бизнесменов. Кроме того, я читаю книги о том, как думают люди, и как думать лучше. Книги Nasstim Taleb — такие, как Black Swan, Antifragile или Halo Effect. Что предпочитаете: электронные читалки или бумажные книги? И то, и другое. Читать электронные книги получается чаще, но бумажные больше нравится, так как можно помечать ручкой и так далее. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? Я использую Windows на ноутбуке. Наверное, в нашей области сейчас более популярен Mac, но меня устраивает. Мне нравится, что в этом случае можно выбирать не из трех моделей лэптопов, а из тридцати. По этой же причине я использую Android. На работе есть тестовый стенд, где я использую несколько маленьких серверов на Linux. Вы слушаете музыку, когда работаете? Нет, я отвлекаюсь. Какой лайфхак позволяет вам быть эффективнее? Многие советуют: вместо того, чтобы сфокусироваться на чем-то маленьком, на том, что вам хочется сделать, наоборот, возьмите большую задачу. С одной стороны, это важно, но я считаю, что если у вас что-то «горит», то есть вам сильно хочется это сделать, нужно начать именно с этого. Лично мне так намного легче: потом уже я могу работать значительно эффективнее над большой, важной и нудной задачей, не отвлекаясь. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? Прежде всего, Google Docs. Не столько почта, сколько документы, потому что с ними можно коллаборативно работать. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Прежде всего, это фокус. У меня часто бывали проблемы с фокусом, поэтому нужно было дисциплинироваться. Ментор мне часто говорил: «Петя, ты любишь начинать проекты, но важнее научиться их заканчивать». Со временем у меня менялся подход. В начале работы я сильно фокусировался на возможностях. Но когда компания становится больше, прыгать туда-сюда будет сложно. Поэтому нужно формировать какую-то стратегию, чтобы достичь успеха. Еще очень важно терпение. Раньше мне казалось, что все очень просто. Я думал, что могу сделать все, что угодно, за уикенд. Поэтому нужно спокойнее и осторожнее планировать. И последнее: мне пришлось потратить время, чтобы понять, что все люди разные. У людей могут быть другие мотивации, и мозг работает по-другому. Если бы в компании были одни мои «клоны», мы, наверное, все передрались бы, а компания не смогла бы функционировать.
https://habrahabr.ru/post/318302/
habrahabr
Первые шаги с STM32 и компилятором mikroC для ARM архитектуры — Часть 1
['STM32', 'Maple-mini', 'microC', 'Микроконтроллеры для начинающих']
Еще в студенческие годы мне пришлось весьма тесно обобщатся с микроконтроллерами, тогда это были 8-битные 8051 и AVR. Сейчас, захотев вернутся этому занятию, перевел свой взгляд на весьма широкое...
Еще в студенческие годы мне пришлось весьма тесно обобщатся с микроконтроллерами, тогда это были 8-битные 8051 и AVR. Сейчас, захотев вернутся этому занятию, перевел свой взгляд на весьма широкое семейство контроллеров STM32. О них немало написано на просторах Сети, тем не менее я изъявил желание написать небольшой цикл статей о работе с STMками. Знакомство с ними я хотел бы начать, как говорят, с полного 0. Для экспериментов мною была приобретена простая и дешевая (3$) отладочная плата Maple Mini. Используемый в ней контроллер STM32F103CB обладает весьма внушительным букетом возможностей. (особенно в сравнении с решениями в своей ценовой категории). Подробно можно почитать в сети, и конечно же, в даташите. . Родная Ардуиноподобная среда разработки мне сразу не пришлаcь по вкусу (на вкус и цвет, как говорят...). Из всего изобилия разнообразных сред разработки я остановил свой взгляд на mikroC for ARM компании mikroelektronika. Когда-то я сталкивался с их компиляторами(для 8081), мне весьма понравилось. Хоть и не без косяков, но решил попробовать. Плата имеет такой вид, все очень просто и лаконично: Принципиальная схема платы тоже проста, но все самое необходимое здесь есть: Программатором выбран китайский клон ST-LINK2 (3$), тем не менее он отлично работает с mikroС Ссылка на демо-версию mikroC . Ограничение демо-версии: максимум 4KB бинарного кода. Не много, но для ознакомления вполне достаточно. С установкой приложения проблем возникнуть не должно, единственное нужно драйвера на ST-LINK2 поставить перед запуском инсталлятора mikroC. После запуска и создания проекта нас приветствует окно приложения: Первым делом после выбора типа используемого микроконтроллера необходимо настроить свойства нашего проекта. Конфигурация проекта mikroC вызывается сочетанием клавиш Shift-Ctrl-E (Project — Edit Project). Именно в этом окне настраиваются все прелести, связанные с непростой внутренней организацией системы тактирования STM32 микроконтроллеров. Вообще я советую хотя бы вкратце ознакомится с Reference manual на данное семейство микроконтроллеров. К нему мы будем неоднократно возвращаться. Блок-схема системы тактирования из даташита STM32F103 В данном окне задается конфигурация регистров RCC_CR и RCC_CGGR Internal high-speed clock enable — Включение или отключение встроенного генератора 8МГц(HSI) (oscillator OFF) External high-speed clock enable — Включение или отключение встроенного генератора 8МГц(HSE) (oscillator ON) External high-speed clock enable — Возможность подключения к входу OSC генератора тактовых импульсов вместо кварца. Мы настраиваем на использование кварца (HSE oscillator not bypassed) Clock seсurity system enable — Включение встроенной в контроллер систем защиты от пропадания синхросигнала; пока не используем (Clock detector OFF) PLL Enable — Включение/отключение модуля умножения частоты (PLL ON) System clock switch — Выбор тактового сигала SYSCLOCK: PLL, внешний или внутренний генератор. Мы используем PLL. Именно на частоте HSE умноженного на коэффициент PLL и работает ядро нашего контроллера (PLL selected as system clock) Set and cleared by software to control the division factor of the AHB clock — Установка предделителя SYSCLOCK для шины AHB, которая обслуживает периферийные модули МК; пока отключаем предделитель * (SYSCLOCK not divided) APB low-speed prescaller APB1 — делитель частоты для низкоскоростной периферии МК, например шины I2C, максимальная частота работы:36 МГц (HCLK divided by 2) APB high speed prescaller APB 2- делитель частоты для высокоскоростной периферии МК, например портов ввода-вывода, таймеров и т.д. (HCLK not devided) ADC prescaller — предделитель для модуля АЦП относительно APB 2 (PCLK2 divided by 2) PLL entry clock source — источник тактового сигнала на вход PLL, на выбор либо 1/2 встроенного RC генератора либо внешний генератор, прошедший через PREDIV1; именно его и используем (Clock from PREDIV1 selected as the PLL input clock) HSE divider for PLL entry — настройка этого самого PREDIV1; пока не используем (HSE clock not divided) PLL multiplication factor — коэффициент умножения PLL. На входе у нас частота кварца 8 МГц, при коэффициенте 9 имеем частоту 72 МГц для SYSCLOCK (PLL input clock х 11) USB prescaller — частота шины USB. USB по спецификации работает на частоте 48 МГц, выбираем предделитель 1,5 (PLL clock divided by 1.5) MSU clock frequency выбираем частоту SYSCLOCK — 72МГц (72.000000) Теперь можем сохранить настройки для нашего МК. Все готово для написания 1 программы. Как всегда поморгаем светодиодом (подключен к ножке PB1): Для установки выходов GPIO порта на выход в microC есть функция GPIO_Digital_Output(&GPIOх_BASE, _GPIO_PINMASK_ALL);// Настройка порта на выход она включает тактирование блока GPIOх и прописывает значения в конфиграционный регистр. Данные которые записываем в порт заносим в регистр GPIOх_ODR . GPIOх_ODR = ; // Региcтр записи в порт Компилятор позволяет получить доступ к конкретному биту регистра или переменной. Для этого номер бита (начиная с 0) пишем после названия регистра через точку REGx.by; // Доступ к отдельному (y) биту регистра (х) Для формирования задержек используем встроенную функцию Delay_ms() (или Delay_us() ) компилятора. Вот наша первая программа: void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); //Делаем PB1 выходом GPIOb_ODR.b1 = 0; //Записываем в регистр GPIOb_ODR в 15 бит = 0 while(1) // Бесконечный цикл { GPIOb_ODR.b1=~GPIOb_ODR.b1; //Инверсия 15 бита Delay_ms(500); //Задержка 500 мс } } Чтобы одна команда инициализации применялось сразу к нескольким ножкам порта пишем _GPIO_PINMASKn через оператор "или", например: GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1 | _GPIO_PINMASK_7); //PB1 и PB7 настроены на выход GPIO_Digital_Output(&GPIOa_BASE, _GPIO_PINMASK_ALL ); //Все ноги PA настроены на выход Теперь попробуем вывести меандр на один из выводов МК, переключая состояние вывода порта PB15 с интервалом 5 мс. : void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_15); GPIOb_ODR.b15 = 0; while(1) { GPIOb_ODR.b15=~GPIOb_ODR.b15; Delay_ms(5); // Задержка 5 мс.(Импульс 10 мс, частота 100 Гц) } } На выводе PB15 имеем такой сигнал: Если нам необходимо считать состояние порта, то используем регистр GPIOх_IDR , предварительно настроив порт на вход при помощи функции GPIO_Digital_Input (*port, pin_mask). На нашей плате есть кнопка, подключенная к выводу порта PB8. Следующая программа зажигает мигающий светодиод на выводе PB1 при нажатой кнопке. void main() { GPIO_Digital_Output(&GPIOb_BASE, _GPIO_PINMASK_1); GPIO_Digital_Input(&GPIOb_BASE, _GPIO_PINMASK_8); // Настраиваем вывод PB8 на вход GPIOb_ODR.b1 = 0; while(1) { if (GPIOb_IDR.b8) //Если кнопка нажата бит 8 регистра GPIOb_IDR равен 1 { GPIOb_ODR.b1=~GPIOb_ODR.b1; Delay_ms(500); //Задержка 500 мс } else { GPIOb_ODR.b1 = 0; //Если кнопку отпустили, погасить светодиод } } } На этом 1 часть подошла к концу. Во второй части я постараюсь Вас познакомить с реализацией ШИМ модуляции, работой с таймерами и функцией подавления дребезга контактов на кнопке.
https://habrahabr.ru/post/318306/
habrahabr
Leaf Browser Alpha — браузер с древовидными вкладками
['tree style tab', 'google chrome', 'браузеры', 'open source', 'софт']
Поклонникам расширения Tree Style Tab (древовидные вкладки) для Firefox, и тем кто не может без него жить, но хотел бы найти достойную альтернативу Firefox посвящается открытый проект Leaf...
Поклонникам расширения Tree Style Tab (древовидные вкладки) для Firefox, и тем кто не может без него жить, но хотел бы найти достойную альтернативу Firefox посвящается открытый проект Leaf Browser. Он представляет собой браузер на базе Google Chrome, но с древовидными вкладками. Браузер реализован в качестве приложения для Google Chrome, и может быть установлен в пару кликов из Chrome Web Store прямо в ваш браузер. К сожалению это пока только alpha-версия и многое не реализованно, периодически встречаются какие-нибудь глюки и падения. Так что пользоваться этим браузером на постоянной основе сейчас практически невозможно. Но уже сейчас можно скачать и попробовать, понять насколько это быстро и удобно. На данный момент проект развивается силами одного разработчика Sam Lanning и его исходники доступны на GitHub . К сожалению автор проекта немного потерял энтузиазм в его разработке, но я думаю что это связанно с небольшой популярностью проекта. Хотя недавно он вроде изменил свое мнение в лучшую сторону. Тем не менее очень хочется чтобы проект получил более широкое распространение и что бы разработчиков и пользователей, заинтересованных в этом проекте, стало больше. Если вам понравился этот проект, пожалуйста делайте форки, присылайте баг-репорты и пишите комментарии на Chrome Web Store. Покажите автору, что его творение вам не безразлично. Ссылки: Приложение в Chrome Web Store Страничка и исходный код на GitHub
https://geektimes.ru/post/283972/
habrahabr
AppCode 2016.3: поддержка Swift 3, новые настройки форматирования, улучшения быстродействия и многое другое
['ios', 'osx', 'swift', 'objective-c', 'рефакторинги', 'мобильная разработка', 'appcode', 'create from usage']
Привет, Хабр! Совсем недавно вышел AppCode 2016.3, и в этом посте мы расскажем о самых интересных изменениях в нем. Swift Поддержка Swift 3 Одной из основных задач, над которыми мы...
Привет, Хабр! Совсем недавно вышел AppCode 2016.3, и в этом посте мы расскажем о самых интересных изменениях в нем. Swift Поддержка Swift 3 Одной из основных задач, над которыми мы работали в этом релизе, была поддержка Swift 3. Многое мы успели реализовать, а над оставшимися задачами продолжим работать в будущих обновлениях. Create from usage В каждом новом обновлении мы стараемся расширить возможности кодогенерации для Swift. Это и Live Templates , в том числе позволяющие «обернуть» выделенный участок кода, и рефакторинг Introduce Variable , и Override/Implement ( ^O / ^I ), с помощью которого можно сгенерировать определения сразу для нескольких методов. В этом релизе мы добавили возможность создавать переменные, функции, методы и даже свойства классов из их использований. Особенно это удобно, если нужно что-то быстро cпрототипировать. Пусть метода ещё нет, напишем его, передадим нужные аргументы, вызовем ⌥⏎ — и все, остается лишь немного исправить автоматически сгенерированную сигнатуру функции, если это необходимо: Как видно на гифке, используя тот же принцип можно создавать и другие сущности в коде. Аналогичную возможность для генерации типов (классов, структур и т. п.) мы планируем добавить для Swift чуть позже. А вот в Objective-C/C/C++ все эти возможности уже давно есть, и пользоваться ими можно и нужно прямо сейчас. Форматирование кода Для Objective-C/C/C++ в AppCode есть масса настроек форматирования: Применить их можно, вызвав ⌘⌥L на выделенном участке кода (а если код не выделен, будет отформатирован файл целиком). Базовые возможности для Swift были реализованы еще в версии 3.1 , при этом многих настроек форматирования, специфичных для языка, среди них не было. В этом релизе мы решили их добавить. Теперь в AppCode можно настраивать различные правила переноса для: Параметров замыканий Простых замыканий в различных случаях их использования в коде: Параметров в объявлениях методов и функций Аргументов методов и функций, используемых в коде Последовательных вызовов методов: Нескольких условных конструкций на одной и той же строке Также добавлен блок для пробелов до и после двоеточий в спецификациях типов переменных, словарей и парах «ключ: значение» в самих словарях: Быстродействие Мы улучшили быстродействие AppCode при работе со Swift по нескольким основным направлениям. Первое — вывод типов. От него в AppCode зависит и скорость подсветки кода, и скорость автодополнения, и многое другое. В итоге удалось даже для сложных конструкций кода его существенно ускорить. Второе — скорость автодополнения. Здесь мы основательно поработали над кэшированием списка вариантов, что позволило сделать его значительно более быстрым. Также удалось исправить несколько проблем в интеграции с SourceKit, которые отражались на скорости показа ошибок, предупреждений и исправлений (fix-it). UI-тесты Теперь в AppCode можно запускать ( ^⌥R ) и отлаживать ( ^⌥D ) UI-тесты. Упавшие тесты можно отфильтровать от пройденных и после исправлений перезапустить только их: Результаты запуска тестов можно отсортировать по продолжительности (или по имени): Все они сохраняются во встроенной истории, и позже их можно просмотреть прямо в IDE: Семантическая подсветка Как и во многих других продуктах JetBrains, в AppCode появилась возможность подсветки параметров функций и переменных уникальными цветами. Включить ее можно для Swift/Objective-C/C/C++ в настройках Editor → Colors & Fonts → Language Defaults → Semantic highlighting : C/C++ По традиции, улучшения поддержки C/C++, реализованные командой CLion , доступны и в AppCode. Про них можно прочитать в этом посте в разделах Поддержка C и Поддержка С++ , соответственно. Кстати, различные платформенные изменения (такие как улучшения в поддержке контроля версий, San Francisco в качестве дефолтного шрифта в меню и другие), описанные в этом посте, также доступны в AppCode. Демо Небольшое демо (на английском) с демонстрацией новых возможностей от нашего девелопер-адвоката Фила Нэша: Читайте о других возможностях продукта у нас на сайте , следите за обновлениями в нашем англоязычном блоге , и задавайте любые возникшие вопросы в комментариях к этому посту.
https://habrahabr.ru/company/JetBrains/blog/318304/
habrahabr
Архитектура FX: революция для конвергенции данных
['Dell EMC', 'сервера', 'Архитектура FX']
Гибкость вычислительных систем и систем хранения позволила в корне изменить конвергентное пространство, а FX позволяет совершить еще большую революцию. Будучи одной из первых конвергентных...
Гибкость вычислительных систем и систем хранения позволила в корне изменить конвергентное пространство, а FX позволяет совершить еще большую революцию. Будучи одной из первых конвергентных инфраструктур с возможностью управления rack и blade-серверами, FX ломает барьеры, которые ранее сдерживали пользователей от работы в гиперплотном конвергентном пространстве. Архитектура FX состоит из нескольких элементов: корпус PowerEdge FX2 в форм-факторе 2U; мощных серверов для значительного масштабирования производительности и плотности; блоков хранения данных половинной ширины с прямым подключением, разработанных специально для FX платформы, и агрегаторов ввода-вывода для оптимизации производительности сети. Эффективное управление модульной инфраструктурой Модульное стоечное шасси FX2 в форм-факторе 2U позволяет вам адаптировать под свои нужды любую вычислительную среду, свободно устанавливая в нее компактные ИТ-модули, включающие серверы, хранилище и подсистемы ввода-вывода. Вы сможете легко и быстро масштабировать ресурсы в соответствии с потребностями нагрузок вашего бизнеса. Чтобы помочь повысить производительность ИТ и предотвратить простои бизнеса заказчиков, компания Dell EMC обновила портфолио управления системами для модульной инфраструктуры FX2. Обновления повышают эффективность работы пользователей, благодаря упрощенному выделению ресурсов для виртуализированных рабочих нагрузок, плагинам для пользователей Nagios, полному обзору состояния инфраструктуры и гибкости для запуска приложений с открытым исходным кодом. Таким образом, PowerEdge FX2 может помочь заказчикам достичь своих целей, поддерживая традиционные приложения и новые рабочие нагрузки, обусловленные внедрением социальных, мобильных, аналитических технологий и облачных вычислений в модульной инфраструктуре. С помощью PowerEdge FX2 и программного обеспечения Dell EMC для управления системами, заказчики в 70 странах пользуются преимуществами интегрированных строительных блоков серверов, систем хранения данных и сетевого обеспечения, что помогает им достичь гибкости и эффективности ЦОД без необходимости капитальной замены существующей инфраструктуры. От малого до великого: компоненты архитектуры FX Если у вас крупный центр обработки данных, где нужно работать с широким спектром приложений и средами виртуализации, то вам подойдет мощный четырехпроцессорный серверный модуль FC830 полной ширины в форм-факторе 1U. Данный сервер обладает высокой плотностью размещения вычислительных ресурсов, масштабируемой памятью и подсистемой хранения данных с исключительными возможностями расширения. FC630 — это серверный модуль половинной ширины форм-фактора 1U. Такой вариант оптимален для размещения сред виртуализации или выполнения приложений бизнес-аналитики, баз данных и частных облаков. Еще более компактный FC430 обладает шириной в четверть стойки и обеспечивает идеальное сочетание производительности, объема памяти и высокоскоростной системы ввода-вывода для стандартных корпоративных нагрузок, в том числе сред виртуализации и баз данных среднего размера. В архитектуру также входят модули половинной ширины FD332 и FM120x4. FD332 может содержать до 16 накопителей малого форм-фактора (SFF) с прямым подключением. В сочетании с серверами на платформе FX модули FD332 предоставляют универсальное решение с возможностью горизонтального масштабирования. FM120x4 поддерживает до 16 микросерверов на каждое шасси FX2, представляя собой экономичное решение высокой плотности, идеально подходящее для веб-служб, выделенного хостинга и упрощенной аналитики. Специально для PowerEdge FX2 также разработан модуль ввода-вывода FN (FN IOM). Модульная инфраструктура FX2 поддерживает до двух модулей ввода-вывода FN на каждое шасси и включает до восьми внутренних портов 10GbE, а также вентиляторы охлаждения и блоки питания с резервированием. Преимущества архитектуры FX для заказчика Архитектура FX создает новый уровень универсальности для центров обработки данных. Продвинутые технологии управления и модульная инфраструктура упрощают развертывание и эксплуатацию центров обработки данных и частного облака. Вы сможете легко и быстро масштабировать ресурсы в соответствии с потребностями нагрузок и вашего бизнеса, адаптируя инфраструктуру под ваши бизнес-задачи. Беспрецедентный уровень плотности ИТ-инфраструктуры с большим числом сервисов и с меньшим количеством ресурсов позволяет сократить общие расходы и повысить производительность нагрузок. Это также ведет к повышению производительности важных бизнес-приложений, от бизнес-аналитики до ресурсоемких высокопроизводительных вычислений (HPC), стабильной поддержке частных облачных сервисов, баз данных и сред виртуализации. Архитектура FX обеспечивает более эффективный рост предприятий благодаря упрощению выделения ресурсов центра обработки данных и управления ими. ИТ-менеджеры смогут результативнее обеспечивать соответствие сложным бизнес-тенденциям и реагировать на непрогнозируемые нагрузки. Гибкость FX предоставляет вашему бизнесу неограниченный потенциал роста, с этой архитектурой ваш бизнес получит мощную поддержку самых современных и производительных систем вычисления, хранения и виртуализации от Dell EMC.
https://habrahabr.ru/company/muk/blog/318310/
habrahabr
Глубокое обучение и Raspberry PI
['deep learning', 'raspberry pi model b+', 'torch', 'lua']
«Что у нас есть?» — спросил горбоносый поворачиваясь. «Алдан-3», — сказал бородатый. «Богатая машина, — сказал я.”[1]Недавно я решил заняться изучением глубокого обучения. На работе мне выдали...
«Что у нас есть?» — спросил горбоносый поворачиваясь. «Алдан-3», — сказал бородатый. «Богатая машина, — сказал я.”[1] Недавно я решил заняться изучением глубокого обучения. На работе мне выдали новую карточку с поддержкой CUDA и шеф выразил пожелание что эта вершина инженерной мысли позволит нашей лаборатории сделать рывок вперёд, ну или по крайней мере, не отстать от массы конкурентов. У меня уже был некоторый опыт общения с Tensor Flow, но в этот раз я решил попробовать Torch. Привлекало что он написан на языке Lua и C, является достаточно легковесным и легко расширяемым через FFI. И ещё мне не нравится Python. Недавно на Хабрахабр я наткнулся на статью, в процессе обсуждения которой я вспомнил что где-то в тумбочке у меня пилится Raspberry Pi, модель B+ и мне захотелось посмотреть — а смогу ли я поднять на ней torch и запустить что-нибудь несложное. Естественно первым делом я захотел посмотреть как на моем десктопе с новой карточкой GPU будет тренироваться alexnet и другие известные сети. На гитхабе есть небольшой проект в котором несколько популярных сетей реализованы на Torch . Поигравшись с ними, я перешёл на решение своих задач, но про них я тут говорить не буду. А теперь переходим к малинке (Raspberry PI модель B+). Установка Копируем инсталлятор torch на малинку : apt-get install git-core git clone https://github.com/torch/distro.git ~/torch --recursive Первым делом, я решил что мне не хочется ждать пока стандартный установщик Torch скомпилирует OpenBLAS и установит QT со всеми зависимостями, поэтому я решил проделать это вручную: apt-get install -y build-essential gcc g++ curl cmake libreadline-dev libjpeg-dev libpng-dev ncurses-dev imagemagick libzmq3-dev gfortran libopenblas-base libopenblas-dev Запускаем компиляцию torch: cd ~/torch; ./install.sh У меня компиляция всего занимает примерно час. — А что это там у вас за лампа? — подозрительно спросил Фарфуркис. [1] И тут нас ждёт первый облом: создатели torch: не предполагали что его будут компилировать на архитектуре arm, но без поддержки NEON: [ 6%] Building C object lib/TH/CMakeFiles/TH.dir/THVector.c.o In file included from /home/pi/torch/pkg/torch/lib/TH/THVector.c:2:0: /home/pi/torch/pkg/torch/lib/TH/generic/THVectorDispatch.c: In function ‘THByteVector_vectorDispatchInit’: /home/pi/torch/pkg/torch/lib/TH/generic/simd/simd.h:64:3: error: impossible constraint in ‘asm’ asm volatile ( "cpuid\n\t" Пришлось пофиксить это дело . И после этого, всё заработало! Если вам лень делать это всё самому и хочется быстро попробовать пример, я сделал архив с пред-компилированным torch для Raspberry PI -B (без поддержки NEON): https://github.com/vfonov/deep-pi/releases/download/v1/torch_intstall_raspbian_arm6l_20161218.tar.gz , распаковывается в /home/pi Тестирование Для проверки я решил посмотреть скорость тренировки распознавания рукописных цифр MNIST , соответствующий пример есть в наборе демок для Torch: th train-on-mnist.lua <torch> set nb of threads to 4 <mnist> using model: nn.Sequential { [input -> (1) -> (2) -> (3) -> (4) -> (5) -> (6) -> (7) -> (8) -> (9) -> (10) -> output] (1): nn.SpatialConvolutionMM(1 -> 32, 5x5) (2): nn.Tanh (3): nn.SpatialMaxPooling(3x3, 3,3, 1,1) (4): nn.SpatialConvolutionMM(32 -> 64, 5x5) (5): nn.Tanh (6): nn.SpatialMaxPooling(2x2, 2,2) (7): nn.Reshape(576) (8): nn.Linear(576 -> 200) (9): nn.Tanh (10): nn.Linear(200 -> 10) } <warning> only using 2000 samples to train quickly (use flag -full to use 60000 samples) <mnist> loading only 2000 examples <mnist> done <mnist> loading only 1000 examples <mnist> done <trainer> on training set: <trainer> online epoch # 1 [batchSize = 10] [===================>.................... 471/2000 ....................................] ETA: 2m20s | Step: 92ms В общем неплохо, для сравнения — на десктопе с i5-4590 CPU @ 3.30GHz, без использования GPU: [=======================>................ 571/2000 ....................................] ETA: 27s613ms | Step: 19ms Т.е в этом примере малинка работает примерно в 5 раз медленнее чем современный десктоп. Распознавания изображений одушевлённый теперь «Алдан» иногда печатал на выходе: «Думаю. Прошу не мешать» [1] Теперь настал черёд заставить малинку распознавать изображения с помощью натренированной googlenet. Тут меня ждал второй подвох: в Alexnet такое огромное количество параметров, что памяти малинки уже не хватает. Но тут на выручку приходит squeezenet и Network-in-Network, автор последней даже сделал натренерованную модель в формате для torch . Для начала надо преобразовать модель так чтобы её можно было использовать на архитектуре ARM (тренировать на Raspberry PI не стоит — результаты будут готовы лет через сто). На десктопе надо загрузить модель в бинарном формате torch, и записать в формате ‘ascii’, потом на малинке — преобразовать обратно: Desktop: model=torch.load(‘blah.t7’) torch.save(‘blah_ascii.t7’,model,’ascii’) Raspberry PI: model=torch.load(‘blah_ascii.t7’,’ascii’) torch.save(‘blah_arm.t7’,model) Версию для arm можно загрузить тут . Я сделал маленький скриптик для проверки работоспособности на малинке: Полный текст тут . ... local m=torch.load(prefix..'nin_bn_final_arm.t7') ... local input=image.load(prefix.."n07579787_ILSVRC2012_val_00049211.JPEG") ... local output=model:forward(cropped) ... И вуаля, запускаем с изображением из тестового набора ImageNET : >th test_single.lua n07579787_ILSVRC2012_val_00049211.JPEG loading model:0.57sec Running neural net:13.46sec 25.3%: n07579787: plate 13.8%: n07873807: pizza, pizza pie 8.8%: n04263257: soup bowl 8.0%: n07590611: hot pot, hotpot 7.2%: n07831146: carbonara T.e за 14 сек малинка удачно справилась с процедурой распознавания образов! Настало время сделать пример поинтересней: приделываем интерфейс к камере из пакета camera и веб интерфейс из пакета display, и у нас получается интерактивная машина, раз в 14 секунд объявляющая миру что она видит. Надо только установить пакет для работы с камерой (luarocks install camera) и для визуализации через веб-интерфейс (luarocks install display). Полный текст тут . … -- подцепляем камеру local cam = image.Camera {idx=0,width=iW,height=iH} ... local frame = cam:forward() local cropped = image.crop(frame, w1, h1, w1+oW, h1+oH) -- center patch … -- отправляем кадр зрителю display_sample_in.win=display.image(cropped,display_sample_in) … -- прогоняем его через нейросеть local output=model:forward(cropped) … -- отправляем описание - чего увидели display_output.win=display.text(out_text,display_output) Перед запуском надо запустить демона из пакета display: nohup th -ldisplay.start 8000 0.0.0.0 & Испытания Тестовая установка: Результат: Заключение Итак у нас получилась недорогая машинка для распознавания образов, которой вы можете порадовать ваших друзей во время новогодних праздников. Естественно, задача классификации изображения может быть заменена на что-то более продуктивное, например можно легко сделать систему для идентификации человека по физиономии, несколько примеров есть тут или можно идентифицировать фигуры людей на камере наблюдения за вашим огородом. Для оптимизации производительности можно попробовать использовать nnpack , или даже сделать интерфейс к векторному ускорителю встроенному в процессор малинки как тут . Примечания: Цитаты из "Понедельник начинается в субботу" и "Сказка о тройке" А. и Б. Стругацких. Описание процедуры на английском и репозиторий со всеми исходниками находится на гитхабе .
https://geektimes.ru/post/283984/
habrahabr
Новые MacBook впервые не получили рекомендацию от Consumer Reports (из-за браузера Safari)
['Apple', 'Consumer Reports', 'Safari', 'Chrome', 'энергопотребление', 'аккумулятор']
Лаборатория Consumer Reports для тестирования яркости и долговечности лампочек. Фото: Consumer Reports Союз потребителей США — некоммерческая организация, которая в течение последних 80 лет...
Лаборатория Consumer Reports для тестирования яркости и долговечности лампочек. Фото: Consumer Reports Союз потребителей США — некоммерческая организация, которая в течение последних 80 лет ежемесячно выпускает журнал Consumer Reports . Это в своём роде уникальный журнал. Он вообще не публикует на своих страницах рекламу. Он также не принимает у компаний образцы продукции и запрещает использование результатов своих тестов для продвижения товаров. Всё это делается ради одного: сохранить максимальную объективность, независимость и беспристрастность тестирования, которое проводится в 50 специализированных лабораториях. Ежегодный бюджет на покупку товаров тайными покупателями в розничных магазинах и тесты составляет около $21 млн. Ежегодно в лабораториях Consumer Reports тестируют около 1000 изделий потребительской электроники примерно в 20 категориях, в том числе телевизоры, мобильные телефоны, компьютеры, цифровые камеры, электронные книги, ноутбуки и т.д. Самые ходовые товары стараются протестировать сразу после появления в продаже. Это касается практически всех изделий компании Apple, которые в последнее время стали очень модными и востребованными на рынке. Изделия Apple часто удостаивались высоких оценок и рекомендаций к покупке , несмотря на высокую стоимость. Но в 2016 году случилось неожиданное событие. Впервые в истории модель ноутбука MacBook не смогла нормально пройти тестирование и не получила рекомендации к покупке от Consumer Reports. Беда случилась с линейкой MacBook Pro 2016 года. Соответствующий пресс-релиз с объяснением произошедшего вчера был опубликован на официальном сайте Consumer Reports. Ноутбуки были закуплены тайным покупателем в обычном магазине, в соответствии со стандартной процедурой. Это произошло осенью вскоре после их появления в продаже. В отчёте говорится, что процедура тестов только что завершена: «Ноутбуки проявили себя очень хорошо по замерам качества дисплея и производительности, но по длительности работы от батареи результаты тестирования кардинально отличались в разных тестах». Эксперты отмечают, что жалобы на странную работу аккумуляторов новых MacBook Pro появились в интернете сразу же после начала их продаж в ноябре. Производитель заявлял, что они должны работать до 10 часов от одной зарядки, но и на форумах Apple жалуются , что аккумулятора хватает всего на три-четыре часа. Информационное сообщение в новом ноутбуке MacBook Pro 15" с показателем заряда 95%. Пользователь жалуется, что простой сёрфинг однажды израсходовал заряд аккумулятора примерно за 3 часа, без просмотра видео Очевидно, что система прогнозирования времени работы в операционной системе не может работать идеально точно. Если индикатор сразу после включения заряженного ноутбука показывает прогноз 2 часа 38 минут, то ноутбук вполне вероятно сможет работать дольше этого времени. Но вряд ли он протянет заявленные 10 часов. Инженеры проверили три модели: 13-дюймовый MacBook Pro с тачбаром 13-дюймовый MacBook Pro без тачбара 15-дюймовый MacBook Pro (эти все с тачбарами) Результаты тестирования оказались крайне странными. 13-дюймовый MacBook Pro с тачбаром проработал 16 часов в первом тесте, 12,75 ч во втором таком же тесте и 3,75 ч в третьем. 13-дюймовый MacBook Pro без тачбара проработал 19,5 часов в первом тесте и 4,5 часа во втором. Для 15-дюймовой модели показатели составили 18,5 и 8 часов. Тест состоит из бесконечного количества циклов по открытию 10 страниц в браузере, которые передаются с локального сервера по WiFi. Цикл начинается при полном заряде аккумулятора, а заканчивается при выключении ноутбука. Тест проводился на стандартном браузере (в данном случае это Safari) на ОС с последними патчами. Проверку начали несколько недель назад, потом продолжили после выхода macOS Sierra 10.12.2, но разницы не было. На этих ноутбуках запускали множество тестов на время работы от аккумулятора, но эти результаты самые странные. Обычно разница между результатами одинаковых тестов не превышает 5%, а итоговая оценка вычисляется как средний результат. Что делать с такими результатами — сотрудники тестовой лаборатории не смогли понять. По их мнению, c таким разбросом средняя оценка не будет репрезентативной, то есть будет в любом случае вводить потребителя в заблуждение. Поэтому было решено взять минимальную оценку времени работы от батареи, и с таким показателем MacBook Pro не сумел показать достойный итоговый результат. Инженеры говорят, что минимальное время работы от батареи — единственное, что они могли официально и объективно сообщить пользователям без доступа к электрической схеме ноутбука. Они связались с Apple для разъяснений. Но компания ограничилась фразой: «Любому пользователю, у которого есть вопросы по компьютеру Mac или его работе, следует обратиться в службу AppleCare». Специалисты Consumer Reports отметили, что в последнее время операционные системы и ПО всё чаще оказывают значительное влияние на время работы бытовой электроники от аккумуляторов. Если Apple обновит ПО и исправит этот недостаток, они готовы повторить тесты. Например, в данном случае они повторили тесты на тех же ноутбуках с браузером Chrome, и время работы от аккумулятора оставалось высоким и не изменялось значительно в каждом из шести запусков. Методология Consumer Reports не позволяет выставлять оценку с помощью даже маленьких «хаков» (типа установки стороннего браузера), но для пользователей это может быть выходом.
https://geektimes.ru/post/283980/
habrahabr
Истории о новогодних багах
['bugs', 'christmas', 'pvs-studio', 'amazon', 'ios', 'новый год']
Верите ли вы в волшебство? С логической точки зрения — конечно, нет! Программисты, разработчики — серьезные люди, с хорошим образованием и реалистичным взглядом на мир. Может вы и в детстве не...
Верите ли вы в волшебство? С логической точки зрения — конечно, нет! Программисты, разработчики — серьезные люди, с хорошим образованием и реалистичным взглядом на мир. Может вы и в детстве не любили сказки? Нет, я не буду больше отвечать за вас. Просто попрошу налить кружечку чая, почистить мандарин, взглянуть на снежинки за окном и только после этого начать читать эту Историю. Перед вами рассказ о Злобном Баге. О том, как он неоднократно пытался испортить новогодние праздники. Часто ему удавалось воплотить свои коварные замыслы, но, к счастью, в каждой Сказке «злу» противостоит настоящее «добро». Елочка-вирус 17 декабря 1987 года студент немецкого университета Клаустал-Зеллерфилд, будучи еще совсем молодым программистом, решил оригинально поздравить своих друзей. Он отправил всем близким и дорогим рождественскую ель! Конечно, он не срубил ее в лесу и даже не купил в магазине. Не забывайте, наш герой — программист, поэтому он написал программу на языке REXX для VM/CMS , которая после запуска выводила на экран милую елочку и теплые поздравления. Рисунок 1 — Программа Christmas Tree — елочка вирус С благими намерениями и искренним желанием сделать добро писал код наш герой. Но Злобный Баг вклинился в процесс, произошла перегрузка сети и самовоспроизводящаяся программа Christmas на два дня парализовала работу частной почты IBM Vnet (цепочка: университетская сеть — EARN — BitNet — IBM-Vnet) по всему миру. Возникли сомнения: а не является ли герой — антигероем, а трогательное поздравление — вирусом? Доказать злой умысел автора программы Christmas Tree не удалось. Но без влияния Злобного Бага здесь точно не обошлось. Аттракцион невиданной щедрости Рождество и Новый год — праздники, на которые принято дарить подарки. Красивые коробки под ёлкой или милые сувениры в рождественских носках, подвешенных у камина, — так выглядят традиционные новогодние подарки. Но особенно приятны сюрпризы. Amazon — один из первых интернет-сервисов, на котором ежедневно продаются и покупаются десятки тысяч разнообразных товаров. Идеальное место для выбора подарков! Именно этим и занимались пользователи 12 декабря 2014 года. Особый ажиотаж вызвала потрясающая цена на тысячи товаров — всего 1 пенни ( источник ). Благодаря сервис за великолепный рождественский подарок, люди с особым энтузиазмом занялись покупками. А Злобный Баг ухмылялся в сторонке, ожидая реакции продавцов, еще не знающих о том, что они понесли огромные убытки. Ошибка закралась в программное обеспечение RepricerExpress , отвечающее за синхронизацию цен в онлайн-магазинах. С его помощью продавцам проще конкурировать на рынке, оперативно реагируя на изменение цен аналогичных товаров. Что сделал Злобный Баг? Он проник в RepricerExpress еще на этапе проектирования и тестирования, но не заявлял о себе до того момента, пока… Один из поставщиков, закрутившись в предпраздничной суете, случайно установил единую цену на весь свой ассортимент — 1 пенни. Программа приняла это значение за минимальное и снизила цену на товары других продавцов. Причина такого поведения объясняется тем, что в ходе разработки пользовательского интерфейса не была предусмотрена возможность установки собственной минимальной цены на товар. Кроме того, через определенные временные промежутки происходила автозамена цены. При последующем обновлении баг был исправлен. Рисунок 2 — Правильный интерфейс системы (появился столбец Your Minimum Price) День, когда произошла данная ошибка, продавцы Amazon запомнят надолго. Они потеряли тысячи долларов, многие оказались на грани банкротства ( источник ). Если бы не оперативные меры Amazon, сумевшего аннулировать большую часть заказов, то репутация крупнейшего интернет-магазина была бы совершенно испорчена. Разработчики RepricerExpress извинились за сбой ПО, опубликовав заявление в своем официальном блоге . Apple против Нового года Помните фильм " Гринч — похититель Рождества "? Видимо, Злобный баг вдохновился его сюжетом, решив нанести удар «яблочным» девайсам. В феврале 2016 года владельцы техники Apple обнаружили занятный баг. В социальных сетях зародилась легенда о том, что если установить дату 1 января 1970 года, а затем выполнить перезагрузку устройства, то произойдет полный крах системы, а вместо смартфона или планшета у вас в руках окажется кирпич с эмблемой «яблочко». При этом возможности откатить действие нет. Были сведения о присутствии данной ошибки на устройствах с 64-битным процессором: Apple A7, A8, A8X, A9 и A9X: iPhone 5S и последующие, iPad Air и iPad Mini 2 и новее, а также 6-е поколение iPod Touch. Версия операционной системы значения не имела. Нашлись ли желающие опытным путем проверить наличие бага? Несомненно! По всему миру прокатилась волна убийств гаджетов Apple. К счастью, умельцы нашли способ вернуть работоспособность «кирпичам». В Apple официальную причину ошибки не озвучили, но заявили о возможности такого бага, при ручной установке на iOS-устройстве дату в мае 1970 года или ранее. Пользователи провели собственное расследование. В результате сформировалась следующая версия: к ошибке могла привести переменная с отрицательным значением, хранящая в себе время в формате UNIX. Почему это могло произойти? Вариант 1. По причине того, что время представлено в UNIX-формате, начало отсчета ведется с 1 января 1970 года, т.е. является нулем. При изменении часового пояса, переменная может принять значение меньше нуля. Вариант 2. Баг характерен для 64-х битных устройств, поэтому возможно, в первую очередь вычисляется 32-х битная метка времени, затем происходит смещение по часовому поясу, метка конвертируется в размер указателя, по этой причине старшие биты заполняются неверно и… Добро пожаловать в XXII век! Сон от IPhone Продолжительный сон, не прерываемый звуком будильника, — разве это не мечта большинства из нас? iPhone — не Газпром, но исполняет мечты своих пользователей! Все те, кто хотел бодро начать новый 2013 год и поставил будильник на 1 января, благополучно проспали. Злобный баг явно замыслил ввести огромное количество пользователей в режим «спящей царевны», т.к. вплоть до 3 января будильник на iPhone не работал. Apple снова решил отмолчаться. Но версия о причинах возникновения ошибки все равно распространилась. Для отображения года используется стандарт ISO week date , он широко применяется в финансовых организациях для удобства формирования отчетного (финансового) года. Его особенность состоит в том, что новый год считается новым только с той недели, которая содержит первый четверг года. Календарь в стандарте ISO week date содержит 52 или 53 недели (364 или 371 день). Таким образом, iPhone жил по старому году, а новый 2013 наступил только 7 января — с новой полной недели года. Была и альтернативная версия, в которой в качестве Злобного бага выступал сам Стив Джобс. Якобы, основатель Apple любил спать, вот и придумал такую фичу. Конечно, это шутка. А вот последствия у такого, казалось бы, несерьезного бага оказались более чем неприятными: люди проспали работу, потеряли деньги, опоздали на важные встречи ( Источник ). Полет отменяется Цена ошибки в программном обеспечении — фактор, который разработчики никогда не должны игнорировать. Доказательство — в следующей предновогодней истории о баге. 12 декабря 2014 года в британском центре УВД Национальной службы воздушного движения Великобритании (NATS) произошел программный сбой. Работа части аэропортов, в том числе таких загруженных гигантов, как Хитроу, Гатвик, Станстед, Бирмингем, Кардифф и Глазго была остановлена. Усугубило проблему и время, которое Злобный баг выбрал для атаки — пятница, вторая половина дня, преддверие рождественских праздников. Сбой длился чуть более получаса — 36 минут, но его последствия свидетельствуют о крайне высокой цене ошибки. Злобный баг постарался на славу: 92 рейса отменено 170 рейсов задержано 10 воздушных суден были вынуждены уйти на запасные аэродромы 125000 пассажирам были причинены неудобства 623 млн фунтов стерлингов потеряла британская казна Подобная ситуация не могла остаться без внимания. Было проведено расследование. Управление гражданской авиации (CAA) и NATS в заключительном отчете описывают баг в программном обеспечении System Flight Server (SFS). Этот сервер отвечает за то, чтобы в систему управления NATS в режиме реального времени поступали данные на контроллер рабочих станций. В системе существует два одинаковых SFS — работающий и запасной. Оба вычисляют одни и те же данные. При отключении основного SFS, в работу вступает запасной. Система работала при аппаратных сбоях, но по каким-то причинам ни на одном из серверов не была предусмотрена защита от программных исключений. Максимальное количество одновременно функционирующих рабочих станций (мест управления полетами и наблюдения за ними) — 193. Теоретически. Фактически же в коде SFS прописано совершенно другое значение — 151. Поэтому, когда произошла попытка одновременного подключения 153 рабочих станций, началась перезагрузка и последующее «падение» системы. Позже выяснилось, что «скрытая неисправность программного обеспечения» была допущена еще в 1990 году. Удивительно, что она не проявилась раньше. Проблема 2000 и 2038 2000 год был одним из самых ожидаемых. Смена тысячелетия, по мнению ряда экспертов самых разных областей, непременно должна сопровождаться Концом света или, что не менее страшно — восстанием машин. Чем же аргументировался страх перед Терминаторами? Логикой! Первые компьютеры были медлительны, поэтому, чтобы не тратить столь ценную производительность на пустяки, разработчики приняли решение использовать два знака представления кода в датах. Например, 23 марта 1991 года выглядело как 23.03.91. Визуально такое обозначение не «режет глаз», данный вариант записи даты кажется абсолютно привычным. Но с точки зрения компьютера все не так просто: 2000 год и 1900 получают одинаковое обозначение: 00. Таким образом, при наступлении 2000 года внутренние часы компьютера переведутся на 1900 год. Последствия подобного сбоя представлялись крайне ужасными: выход из строя программ, самопроизвольный запуск ракет, обрушение финансового рынка. А самые страшные события должны были произойти в России, как в стране, наименее готовой к новому летоисчислению. Но совсем скоро наступит уже 2017 год, а значит, Конец света не произошел. Впрочем, некоторые сбои при смене тысячелетия все же произошли: Пострадали компьютерные сети British Telecom. Их работала была парализована, а для восстановления потребовалось проанализировать около миллиона строк кода. Обошлось это British Telecom недешево — около $0.5 млрд. В Испании были зафиксированы происшествия на 9 ядерных реакторах. К счастью, обошлось без последствий. В Монголии «Проблема 2000» затронула систему начала движения поездок и билетные кассы. Некоторые баги были весьма забавны: Сроки заключения в одной из испанских тюрем выросли/сократились на 100 лет В некоторых магазинах Греции люди при покупке получили чек, датированный 1900 годом В южнокорейском госпитале компьютерная программа «Контроль за пациентами» объявила годовалого ребенка 99-летним стариком А жители небольшого города в США получили просроченные на 100 лет счета за пользование электроэнергией Проблема 2000 — это яркий пример того, как СМИ способны воздействовать на человечество. Следующей волны паники по аналогичному поводу стоит ожидать в 2038 году. 19 января 2038 года в 03:14:07 по Гринвичу компьютеры и другие устройства с 32-битной системой не смогут больше верно отсчитывать время. Многие вычислительные устройства отсчитывают системное время с 1 января 1970 года в секундах, используя 32-битное значение, а секунда хранятся в виде signed int (32-битного целого со знаком). В 2038 году наступит 2 147 483 648-я секунда, которую просто не будет возможности записать системой, и тогда счётчик примет отрицательное значение. Как предотвратить системную ошибку? Заменить все 32-битные процессоры на 64-битные. Как помочь Добру? По традиции, Добро побеждает Зло, но борьба не прекращается ни на миг. Можно ли истребить всех Злобных багов? Скорее всего, нет, но вполне реально сделать так, чтобы их армия понесла значительный урон. Для этого программисты, сражающиеся за Добро, т.е. качественный код, должны ответственно подойти к выбору вспомогательных средств. Вооружайтесь статическим анализатором PVS-Studio! А также вы можете посмотреть хоррор-короткометражку о том, как Единорог PVS-Studio спасает Пингвина Linux от Злобного бага. Вдохновились? Тогда предлагаем всем разработчикам помочь Добру! Команда PVS-Studio уже сделала значительный шаг в этом направлении, предложив бесплатную версию анализатора . Уважаемые программисты, желаем вам удачи в Новом году и пусть ваши истории о Злобных багах всегда заканчиваются победой Добра!
https://habrahabr.ru/company/pvs-studio/blog/318312/
habrahabr
C++ Russia 2017
['c++', 'конференция']
Good news, everyone! Надеюсь, у вас пока нет планов на февральские праздники, потому что в 2017 году конференция C++ Russia пройдет 24-25 февраля. Коротко о главном. Что: блины, матрешки,...
Good news, everyone! Надеюсь, у вас пока нет планов на февральские праздники, потому что в 2017 году конференция C++ Russia пройдет 24-25 февраля. Коротко о главном. Что: блины, матрешки, C++! Когда: основная программа 24-25 февраля, день мастер-классов 23 февраля. Где: Москва, отель Бородино (Москва, ул. Русаковская, дом 13, строение 5) Цена билета: 9500 рублей основная программа, 4000 рублей мастер-класс, 2000 рублей онлайн билет. Купить билеты можно здесь Keynotes Появление Core Guidelines и Guideline Support Library — важное событие в недавней истории C++. Пока вопросов возникает больше чем ответтов. Поэтому, решили пригласить людей, которые расскажут о GSL и о Core Guidelines из первых уст. Открывать конференцию будет Neil MacIntosh: principal software engineer в Microsoft, мейнтенер реализации GSL от Microsoft. Он расскажет что такое GSL, зачем она нужна, как её можно использовать, есть ли уже проекты, использующие её, в каком состоянии разные реализации GSL и так далее. О Core Guidelines расскажет Сергей Зубков: разработчик из компании Morgan Stanley, который принимал непосредственное участие в их создании. Доклады На конференции, будут представлены доклады на самые разные темы: boost, Qt, функциональное программирование на C++, сопрограммы, C++17, многопоточность, специфика различных компиляторов, изменение кода большого проекта и ещё много всего. Если Вы тоже хотите поделиться своей болью своим опытом, отправляйте заявку на talks@cpp-russia.ru . Требования к докладу: не более 45 минут, технический доклад о C++ и всём, что рядом. Мы с удовольствием обсудим любые темы. Программа первого дня конференции 24.02.2017 Время Track A Track B Track С 10:00 — 12:00 Neil MacIntosh, Guideline Support Library 12:00 — 12:45 Кофе-брейк 12:45 — 13:45 Rainer Grimm, Programming at compile time Евгений Рыжков, Андрей Карпов, Как потратить 10 лет на разработку анализатора кода Василий Сорокин, REST сервер на Qt 13:45 — 14:45 Григорий Демченко, Универсальный адаптер Роман Орлов, Догнать и перегнать boost::lexical_cast или быстрое преобразование целого числа в строку. Денис Кормалев, История одного бага 14:45 — 16:00 Обед 16:00 — 17:00 Павел Филонов, Learning C++ coroutines from examples Илья Шишков, Пишем код большого проекта: быстро, надёжно, удобно Евгений Крутько, C++17: параллельная версия стандартных алгоритмов 17:00 — 18:00 Антон Полухин, Велосипедостроение для профессионалов С++ Михаил Матросов, Повседневный С++: алгоритмы и утилитарные типы Максим Хижинский, Итераторы в lock-free структурах данных Мастер-классы 23 февраля 1947 года была основана Международная организация по стандартизации (ISO). Ровно через 70 лет: 23 февраля 2017 года в рамках конференции C++ Russia впервые пройдёт день мастер-классов. В рамках него мы представляем два мастер-класса: Павел Филонов «Continuous integration для C++ разработчика» и Rainer Grimm «Embedded programming with modern C++». Подробнее о каждом из этих мастер-классов я расскажу позднее в отдельной заметке. Пока могу сказать только, что мастер-класс идет около шести часов. Вам понадобится ноутбук с установленным современным компилятором C++ (требования к ПО будут указаны в описании). Билеты на этот праздник знаний продаются отдельно, в билет входит участие в мастер-классе и питание. Онлайн-билеты При покупке онлайн-билета Вы получаете индивидуальную ссылку и можете смотреть любой доклад в реальном времени. После конференции по этой ссылке будут в течении двух месяцев доступны видеозаписи докладов. Студентам Как и в прошлом году, есть льготные билеты для студентов. Для того чтобы получить скидку Вам необходимо прислать скан или фото студенческого/аспирантского на адрес students@cpp-russia.ru. В ответ мы пришлем Вам промокод и Вы сможете купить билет за 3500 рублей. Замечания, предложения, жалобы, пожалуйста, пишите нам на conf@cpp-russia.ru . Ещё мы сделали общий чат в телеграмме . Надеюсь, он поможет решать вопросы более оперативно. Увидимся на конференции!
https://habrahabr.ru/company/cpp_russia/blog/317386/
habrahabr
Пятничный формат: Удачный отпуск для ИТ-специалиста или еще немного любимой работы
['1сloud', 'gtd', 'работа и отдых']
Трудоголиков становится все больше, а предприниматели, программисты, дизайнеры и маркетологи часто объясняют свои переработки тем, что им просто нравится своя работа. По результатам...
Трудоголиков становится все больше, а предприниматели, программисты, дизайнеры и маркетологи часто объясняют свои переработки тем, что им просто нравится своя работа. По результатам исследования , проведенного в Стэнфордском университете, программисты, которые проводят в офисе на 20 часов в неделю больше нормы (то есть 60 часов вместо стандартных 40), выполняют свою работу менее качественно. Таким работникам чаще нужен отдых, чтобы их производительность не страдала. Мы в 1cloud рассматриваем самые разные темы, связанные с ИТ. Сегодня мы решили немного поговорить о культуре работы и отдыха, рассмотрели примеры отпускных поощрений некоторых ИТ-компаний и общую ситуацию с модой на трудоголизм. / Flickr / Nick Kenrick / CC Можно предположить, что самые классные бонусы, связанные с отпускными путешествиями, предлагают своим сотрудникам туристические агентства или авиалинии. Но на стыке travel'а и технологий находится самый известный пример отпускной «плюшки» — 2 тысячи долларов , которые Airbnb выделяет своим сотрудникам на оплату жилья в любой точке мира через собственный сервис. По такому же пути решили пойти в компании Rocketmiles (онлайн-платформа, которая дает возможность получить мили за проживание в отеле). Каждому сотруднику, уходящему в отпуск, компания выделяет тысячу долларов , которые можно потратить на сайте работодателя. А в Epic Systems работникам начисляют мили и баллы, которые можно потратить на оплату полетов и проживания в отелях. Есть и другие примеры щедрости компаний. Сотрудники американской ИТ-компании Loadspring уже после двух лет работы могут получить дополнительный отпуск и до 6 тысяч долларов на оплату путешествий за пределами США. Кроме того, компании часто увеличивают размер отпуска в зависимости от стажа работы: например, в Google отпуск увеличивается с 15 дней при трудоустройстве до 25 дней после пяти лет работы . В Intel оплачиваемый отпуск в размере 4 недель (подряд) можно взять после 4-х лет работы, а раз в 7 лет можно получить целых 8 недель. Безлимитный отпуск Такую систему выбирают все больше и больше компаний: например, Twitter, Pinterest, Zynga, Automattic. А самыми первыми ее ввели в Netflix еще в 2004 году. Точнее, они лишь открыто отказались от системы расчета отпусков и строгого контроля. Такой подход дает сотрудникам возможность чаще брать оплачиваемые отгулы на несколько дней, тогда как раньше приходилось вычитать их из общего количества отпускных дней. Конечно, в случае экстренной ситуации работодатели пойдут вам навстречу, но гораздо комфортнее знать, что раз в пару месяцев можно запланировать дополнительный выходной. Первоначально у компании были опасения относительно потенциальных злоупотреблений и возможной потери контроля над рабочей обстановкой, но как правильно написано в корпоративной политике компании Netflix: «у нас также отсутствует дресс-код, однако никто не приходит на работу голый». Сотрудники понимают, что от них ожидают выполнения рабочих обязанностей. В этом и заключается основная проблема такого бонуса — культура трудоголизма просто не дает решиться на полноценный отпуск. Кроме того, компании часто пишут в правилах, что длина отпуска должна быть приемлемой. Но кто определяет эту приемлемость? Особенно если в компании нет сезонного затишья и весь год горят сроки и проекты, то времени даже на мысли об отпуске может не быть. Кроме того, при обычной системе, все неотгуленные отпуска суммируются как в российских, так и в западных компаниях. Когда сумма дней приближалась к сгораемой, кадровики могли попросить сотрудника отдохнуть хотя бы пару дней. А если вы упорно трудились все годы работы и не брали отпуск, то при увольнении вам выплачивали компенсацию. В системе свободных отпусков суммировать нечего, и компенсировать, соответственно тоже. Отдыхать-то некогда Жесткая конкуренция, а в сфере IT она еще выше за счет большого количества квалифицированных специалистов, которые могут работать из любой точки планеты, не дает расслабиться. Но не только в крупных компаниях принято перерабатывать — работая в маленьком стартапе, вы с большой доли вероятности будете перегружены дополнительными функциями и должностными обязанностями. Как тут уедешь, когда даже не на кого переложить свою работу? Вот и получается, что, даже если и удастся выбраться в отпуск, скорее всего, придется работать дистанционно. Конечно, все зависит от компании. Где-то принято брать по 2-3 дня в течение года, где-то, наоборот, частые отгулы считаются неуместными. Но главное, что очень мало сотрудников решаются отпроситься у начальника в длительный отпуск. В Китае, как известно, дела с трудоголизмом обстоят еще хуже. Там айтишникам в прямом смысле приходится жить на работе в течение недели. Как отмечают сотрудники стартапов, конкуренция на рынке огромная, и переработка просто необходима. А зачем тратить по 4 часа в день на дорогу, когда можно выспаться на рабочем месте? К тому же дневной сон тоже не возбраняется и для перезагрузки мозгов можно вздремнуть минут 30. Российские компании еще не дошли до таких крайностей, хотя небольшие переработки тоже воспринимаются как что-то само собой разумеющееся. Хотя все познается в сравнении : из-за того, что в Китае нет нормированного рабочего дня, в среднем житель Гонконга работает по 2606 часов в год, что почти на тысячу часов больше, чем среднестатистический москвич (1674 часов). Важное отличие в отпускной системе — в США оплачиваемый отпуск не является обязательным на законодательном уровне и у 25% американцев его просто нет. С этой точки зрения ситуация на ИТ-рынке выглядит не так уже плохо. Россия же находится на первом месте по суммарному количеству государственных праздников (12 дней) и отпускных дней (28). Если обратиться к статистике по отпускам, то на 2016 год 53% американцев не уезжало в отпуск длиной больше 7 дней за последние 12 месяцев, а 37% никуда не выезжали уже два года подряд. В пересчете на дни, американцы не потратили 658 миллионов оплачиваемых отпускных дней. В России в этом году продолжительность отпусков в летний период сократилась на 24%, а 48% опрошенных намеревались полностью отказаться от отпуска в этом году. P.S. Ну а мы продолжаем работать. Наш сегодняшний материал — Личный опыт: Как мы автоматизировали работу с DNS-записями в хостинг-панели .
https://habrahabr.ru/company/1cloud/blog/318316/
habrahabr
Аналог .Net Entity Framework в Delphi посредством RTTI. Часть первая, вступительная
['Delphi', 'RTTI']
После того, как в Embarcadero оживили Delhi, я вернулся с разработки на C# к более привычному инструменту. Серьезно порадовало, что большинство синтаксических возможностей, классов и различных...
После того, как в Embarcadero оживили Delhi, я вернулся с разработки на C# к более привычному инструменту. Серьезно порадовало, что большинство синтаксических возможностей, классов и различных «рюшечек» волшебным образом переехало из шарпа. К сожалению, такая приятная возможность, как отображение выборки из базы данных на коллекции классов осталась за скобками. В своих проектах мы часто сталкиваемся с необходимостью алгоритмической обработки различных выборок, реализация которых невозможна средствами SQL. Для каждой выборки создавался класс и каждый раз, когда нужно создать новую выборку, приходилось проводить абсолютно одинаковые движения, с той разницей, что заполнять поля классов приходилось ручками. Раскинув мозгом и оценив возможности RTTI, трудозатраты и наличный запас бубнов, у нас получился список «хотелок» для работы с БД, которых не хватает в нашей скучной жизни: Автоматическая генерация классов по структуре таблиц разрабатываемой БД. Заполнение списков классов данными из таблиц. Для реализации создания классов будет не лишним считывать структуру таблиц БД. Имея на руках структуру БД можно автоматизировать: Сравнение структуры существующей БД с эталонной для предупреждения ошибок при обновлении разрабатываемого ПО у конечного пользователя; Формирование «контракта БД», содержащего в себе константы названий таблиц, полей, хранимых процедур и функций; Создание классов из пп. 1. с учетом связей между таблицами. Создание «оберток» для вызова хранимых процедур и функций. И при правильной реализации и аккуратной работе вдалеке начинает маячить возможность кроссплатформенной работы между различными типами SQL серверов. Начнем с простого Проверим саму возможность отображения данных из DataSet-ов на классы. Обновленный RTTI позволяет перечислять имена свойств класса, а также, получать и устанавливать значения свойств. Создадим пример выборки из простой таблицы и заполнения списка классов, содержащих публичные свойства, совпадающие по названию с полями таблицы. Работать будем MS SQL сервером. Создадим БД, в ней таблицу с физ. лицами и парой записей: USE [master] GO CREATE DATABASE [TestRtti] GO USE [TestRtti] GO CREATE TABLE [dbo].[Users_Persons]( [Guid] [uniqueidentifier] ROWGUIDCOL NOT NULL CONSTRAINT [DF_Users_Persons_Guid] DEFAULT (newid()), [Created] [datetime2](7) NOT NULL CONSTRAINT [DF_Users_Persons_Created] DEFAULT (getutcdate()), [Written] [datetime2](7) NOT NULL CONSTRAINT [DF_Users_Persons_Written] DEFAULT (getutcdate()), [First_Name] [nvarchar](30) NOT NULL, [Middle_Name] [nvarchar](30) NOT NULL, [Last_Name] [nvarchar](30) NOT NULL, [Sex] [bit] NOT NULL, [Born] [date] NULL ) ON [PRIMARY] GO ALTER TABLE [dbo].[Users_Persons] ADD CONSTRAINT [PK_Users_Persons] PRIMARY KEY NONCLUSTERED ( [Guid] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, IGNORE_DUP_KEY = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] GO INSERT [dbo].[Users_Persons] ([Guid], [Created], [Written], [First_Name], [Middle_Name], [Last_Name], [Sex], [Born]) VALUES (N'291fefb5-2d4e-4ccf-8ca0-25e97fabefff', CAST(N'2016-07-21 10:56:16.6630000' AS DateTime2), CAST(N'2016-12-09 16:22:01.8670000' AS DateTime2), N'Петр', N'Николаевич', N'Иванов', 1, CAST(N'1970-01-01' AS Date)) GO INSERT [dbo].[Users_Persons] ([Guid], [Created], [Written], [First_Name], [Middle_Name], [Last_Name], [Sex], [Born]) VALUES (N'11ad8670-158c-4777-a099-172acd61cbd3', CAST(N'2016-07-21 10:59:02.2030000' AS DateTime2), CAST(N'2016-12-09 16:22:10.4730000' AS DateTime2), N'Андрей', N'Юрьевич', N'Смирнов', 1, CAST(N'1970-01-01' AS Date)) GO Ручками в модуле UsersPersonsEntity.pas создадим класс TUsersPersonsEntity и, забегая вперед, объявим его список и создадим для него тип класса-читателя: unit UsersPersonsEntity; interface uses Generics.Collections, DataSetReader; type TUsersPersonsEntity = class(TBaseDataRecord) private FGuid: TGUID; FCreated: TDateTime; FWritten: TDateTime; FFirstName: String; FMiddleName: String; FLastName: String; FSex: Boolean; FBorn: TDate; public property Guid: TGUID read FGuid write FGuid; property Created: TDateTime read FCreated write FCreated; property Written: TDateTime read FWritten write FWritten; property First_Name: String read FFirstName write FFirstName; property Middle_Name: String read FMiddleName write FMiddleName; property Last_Name: String read FLastName write FLastName; property Sex: Boolean read FSex write FSex; property Born: TDate read FBorn write FBorn; end; TUsersPersonsList = TDataRecordsList<TUsersPersonsEntity>; TUsersPersonsReader = TDataReader<TUsersPersonsEntity>; implementation end. В текущей ситуации нам даже не понадобится конструктор класса. Теперь самое веселое — надо отобразить строку из DataSet на экземпляр класса. Весь код чтения вынесен в отдельный модуль и занимает без малого полторы сотни строк. unit DataSetReader; interface uses System.TypInfo, System.Rtti, SysUtils, DB, Generics.Collections, Generics.Defaults; type TBaseDataRecord = class public constructor Create; overload; virtual; procedure SetPropertyValueByField(ClassProperty: TRttiProperty; Field: TField; FieldValue: Variant); procedure SetRowValuesByFieldName(DataSet: TDataSet); procedure AfterRead; virtual; end; TBaseDataRecordClass = class of TBaseDataRecord; TDataRecordsList<T: TBaseDataRecord> = class(TObjectList<T>); TDataReader<T: TBaseDataRecord, constructor> = class public function Read(DataSet: TDataSet; ListInstance: TDataRecordsList<T> = nil; EntityClass: TBaseDataRecordClass = nil): TDataRecordsList<T>; end; implementation var Context: TRttiContext; { TBaseDataRecord } constructor TBaseDataRecord.Create; begin end; procedure TBaseDataRecord.AfterRead; begin end; procedure TBaseDataRecord.SetPropertyValueByField(ClassProperty: TRttiProperty; Field: TField; FieldValue: Variant); function GetValueGuidFromMsSql: TValue; var Guid: TGUID; begin if Field.IsNull then Guid := TGUID.Empty else Guid := StringToGUID(Field.AsString); Result := TValue.From(Guid); end; var Value: TValue; GuidTypeInfo: PTypeInfo; begin if Field = nil then Exit; GuidTypeInfo := TypeInfo(TGUID); Value := ClassProperty.GetValue(Self); case Field.DataType of ftGuid: begin if Value.TypeInfo = GuidTypeInfo then ClassProperty.SetValue(Self, GetValueGuidFromMsSql) else ClassProperty.SetValue(Self, TValue.FromVariant(FieldValue)); end; else ClassProperty.SetValue(Self, TValue.FromVariant(FieldValue)); end; end; procedure TBaseDataRecord.SetRowValuesByFieldName(DataSet: TDataSet); var Field: TField; FieldName: String; FieldValue: Variant; ClassName: String; ClassType: TRttiType; ClassProperty: TRttiProperty; begin ClassName := Self.ClassName; ClassType := Context.GetType(Self.ClassType.ClassInfo); for ClassProperty in ClassType.GetProperties do begin Field := DataSet.FindField(ClassProperty.Name); if Field <> nil then begin FieldName := Field.FieldName; FieldValue := Field.Value; SetPropertyValueByField(ClassProperty, Field, FieldValue); end; end; end; { TDataReader<T> } function TDataReader<T>.Read(DataSet: TDataSet; ListInstance: TDataRecordsList<T>; EntityClass: TBaseDataRecordClass): TDataRecordsList<T>; var Row: T; begin if ListInstance = nil then Result := TDataRecordsList<T>.Create else begin Result := ListInstance; Result.OwnsObjects := True; Result.Clear; end; DataSet.DisableControls; Result.Capacity := DataSet.RecordCount; while not DataSet.Eof do begin if EntityClass = nil then Row := T.Create() else Row := EntityClass.Create() as T; Row.SetRowValuesByFieldName(DataSet); Row.AfterRead; Result.Add(Row); DataSet.Next; end; end; initialization Context := TRttiContext.Create; end. Для удобства оперирования generic классами желательно создать базовый класс сущности строки таблицы с виртуальным конструктором TBaseDataRecord и порождать от него реальные сущности строк таблиц (см. объявление TUsersPersonsEntity). Помимо базового класса, в модуле присутствует generic класс «читатель». Его задача пробегаться по DataSet-у, создавать экземпляры строк и подсовывать текущую строку выборки созданному экземпляру наследника TBaseDataRecord и складировать его в результирующий список. Функционал отображения данных из выборки на класс вынесен в TBaseDataRecord. При переборе свойств класса производится поиск в DataSet полей с таким же именем. Если поле найдено, то после легкого шаманства с вариантными типами и TValue, в свойстве оказывается требуемое значение. К сожалению, «не всё так однозначно». В методе SetPropertyValueByField приходится проверять, что текущее свойство имеет тип TGUID. MSSQL отдает GUID в виде строки и прямое присвоение даст ошибку. Приходится явно преобразовывать строку к GUID. Более того, дальнейшее применение показало необходимость дополнительных приседаний для: MSSQL, OLEDB и DATE, DATETIME Обработка BLOB-ов Firebird и GUID при хранении в CHAR(16) CHARACTER SET OCTETS Firebird и TIMESTAMP Список постоянно пополняется по мере обнаружения. Но главное — оно работает. И работает следующим образом (собственно текст программы): program TestRtti; {$APPTYPE CONSOLE} {$R *.res} uses DB, ADODB, System.SysUtils, ActiveX, DataSetReader in 'DataSetReader.pas', UsersPersonsEntity in 'UsersPersonsEntity.pas'; var Connection: TADOConnection; Query: TADOQuery; UsersPersons: TUsersPersonsList; UserPerson: TUsersPersonsEntity; Reader: TUsersPersonsReader; i: Integer; begin ReportMemoryLeaksOnShutdown := True; UsersPersons := nil; try CoInitialize(nil); Connection := TADOConnection.Create(nil); try Connection.ConnectionString := 'Provider=SQLNCLI11.1;Integrated Security=SSPI;Persist Security Info=False;User ID="";' + 'Initial Catalog="TestRtti";Data Source=localhost;Initial File Name="";Server SPN=""'; Connection.Connected := True; Query := TADOQuery.Create(nil); Reader := TUsersPersonsReader.Create; try Query.Connection := Connection; Query.SQL.Text := 'SELECT * FROM Users_Persons'; Query.Open; UsersPersons := Reader.Read(Query); Writeln('Прочитано записей: ', UsersPersons.Count); for i := 0 to UsersPersons.Count - 1 do begin UserPerson := UsersPersons[i]; Writeln(Format('%d. %s %s %s %s', [i + 1, UserPerson.First_Name, UserPerson.Middle_Name, UserPerson.Last_Name, FormatDateTime('dd.mm.yyyy', UserPerson.Born)])); end; Writeln('Нажмите Enter для завершения...'); Readln; finally Query.Free; Reader.Free; end; finally Connection.Free; if UsersPersons <> nil then FreeAndNil(UsersPersons); end; except on E: Exception do Writeln(E.ClassName, ': ', E.Message); end; end. Главное в коде это строка UsersPersons := Reader.Read(Query); . И всё. Компактненько, однако. А вот и вывод приложения: Что дальше Это только проверка возможностей. Хотя для «плоских» простых запросов приведенный механизм вполне работоспособен. А дальше -­ автоматическое создание контракта БД и сущностей таблиц, создание эталонной схемы БД, связывание списков сущностей, обновление данных, сериализация списков и кроссплатформенное чтение.
https://habrahabr.ru/post/318318/
habrahabr
Обзор NFV MANO платформ от open source community
['nfv', 'mano', 'nfvi', 'vnf', 'etsi', 'telecom']
Вступление В прошлой моей статье мы с вами рассмотрели исторический контекст развития сетей передачи данных и предпосылки, которые привели к появлению и развитию концепций SDN и NFV. Экономический...
Вступление В прошлой моей статье мы с вами рассмотрели исторический контекст развития сетей передачи данных и предпосылки, которые привели к появлению и развитию концепций SDN и NFV. Экономический вывод для телеком-индустрии из статьи такой, что существует требование к повышению инвестиций в телеком-инфраструктуру и это связано с требованиями к большей пропускной способности каналов связи. Одновременно есть тенденция к сокращению средней выручки на абонента за счет развития конкуренции и демпинг со стороны крупных операторов в стремлении удержать долю рынка. Эти два сходящиеся графика – расходы на инвестиции и уменьшение доходов рано или поздно пересекутся, что приведет к банкротствам среди телеком-операторов и переделу рынка в сторону укрупнения. Для нивелирования этой угрозы, крупные телеком-гиганты должны с одной стороны повышать отдачу от своих инвестиций, и с другой стороны создавать новые сервисы для повышения выручки с одного абонента. Обе задачи можно выполнить за счет виртуализации сетевых функций. Более плотное использование аппаратных ресурсов при виртуализации показало свой успех на рынке вычислительных мощностей – несколько виртуальных машин на одном физическом сервере утилизируют CPU, RAM и Storage гораздо эффективней. Запуск нескольких виртуальных сетевых функций на одном аппаратном сервере тоже снизит капитальные расходы на оборудование. Помимо этого, даст гибкость в управлении, позволяя быстрее производить обновление ПО, устранять баги и запускать новые сервисы в короткие сроки. ETSI MANO Для достижения этих целей требуется система управлением инфраструктурой виртуальных сетевых функций – NFVI (network function virtualization infrastructure). Эта система должна уметь в автоматизированном режиме запускать сетевые функции, отслеживать их состояние, масштабировать в случае увеличения нагрузки, перезапускать при аварийном поведении, терминировать в случае отсутствия необходимости. Все это легло в основу того, что назвали MANO – management and orchestration. Крупные игроки телеком-индустрии, осознавая неизбежность движения в этом направлении, начали координировать свои усилия! Это невероятно в эпоху капитализма и закрытости бизнес-моделей, которые присутствовали в 20 веке, но видимо неизбежно в 21 веке, в котором темп изменений растет экспоненциально. Началось все с того, что участники телеком-рынка стали создавать стандарты, по которым должны реализоваться программные компоненты этой индустрии. Под эгидой европейского института стандартизации в телеком-сфере ETSI была создана рабочая группа для создания целого списка стандартов, описывающих самые разные процессы этой идеи. Представительство компаний-контрибьюторов, которые вносят свой вклад в создание стандартов, очень внушительное. Посмотрите на список участников стандарта ETSI MANO : NEC, Tech Mahindra, Orange, Cisco, Amdocs, Wind River Systems, Alcatel-Lucent, HP, Oracle, Orange, Juniper, ZTE, Intel, Telecom Italia, Wipro, EnterpriseWeb, NSN, Huawei, ASSIA, Telefonica, China Unicom, AT&T, Verizon, Docomo, Deutsche Telekom, Sprint, Vodafone, 6Wind, BT, tech Mahindra, Sonus, Brocade, ETRI, Ooredoo, Fujitsu, Ericsson. Тут и вендоры, и телеком-операторы. При таком солидном составе очевидно, что принятые стандарты будут имплементированы как в программных компонентах от вендоров, так и на сетях телеком-операторов. Стоит заметить, что работа над стандартами еще продолжается, так как при реализации заложенных подходов происходит уточнение функционала, формата данных, стыковочных интерфейсов, процессов и прочего. Каждая компания-контрибьютор имеет право (и активно им пользуется!) на внесение доработок в стандарт. Это помогает производителям ПО добавлять те функции, которые они знают как реализовать в исходном коде. И это помогает операторам, которые знают реальные бизнес-кейсы и как они должны быть решены с помощью разрабатываемого ПО. В итоге была создана референсная архитектура компонентов MANO. Представим вам ее в красивой картинке от замечательных коллег из sdnblog: Обзор всех компонентов данной архитектуры, как и обзор всего списка разрабатываемых стандартов это тема для отдельной статьи. Коллеги в параллельных потоках уже сделали несколько хороших обзоров данных компонентов ( здесь и здесь ). Нас же, в рамках этого поста, интересует, какие инициативы дали свой результат в open source среде. Коммерческие проприетарные разработки вендоров, которые зарабатывают на продаже ПО и лицензий к ним, сложно оценить взглядом со стороны, не находясь внутри рынка. При этом опен-сорс проекты активно обсуждаются и их можно изучать, не будучи вендором. Таких проектов в области ETSI MANO родилось достаточное количество: • Open Source MANO • Open-O • SONATA • OpenBaton • ECOMP • OpenStack Tacker • Gohan • OPNFV Рассмотрим подробнее три из них. Open Source MANO Open Source MANO (OSM) разрабатывается рабочей группой под руководством самого ETSI. При этом лидирующую роль занимают представители операторов Telefonica, BT, Telenor и вендоров Intel, RITF.io, Ubuntu, VMWare. Полный список контрибьюторов можно посмотреть здесь . Первый релиз OSM уже состоялся и доступен для скачивания . Доступный функционал представлен следующими компонентами: Архитектура OSM уже сейчас позволяет производить дизайн сетевых сервисов, выполнять оркестрацию сетевых сервисов, управлять отдельными VNF и управлять ресурсами NFVI, выделяемых под VNF. Доступно подключение SDN-контроллеров для управления сетевым компонентом, необходимым для управления трафиком, который будет поступать в VNF. Так как этот проект продвигается самим ETSI, то есть вероятность, что он будет одним из самых успешных. Open-O Данный проект является китайским ответом на тренд по созданию системы оркестрации сетевых функций. Список контрибьюторов говорит сам за себя: China Mobile, China Telecom, Huawei, ZTE, Hong Kong Telecom, Ericsson, Intel, Gigaspaces, Canonical, Infoblox, RedHat. И наличие в этом списке западных вендоров пускай вас не смущает – лидерами там являются именно китайские компании. Первый релиз уже состоялся и доступен для скачивания . Функционал представлен следующими компонентами: Архитектура позволяет создавать вокрфлоу сервиса с помощью стандарта TOSCA, управлять сетями с помощью SDN-оркестратора и сетевыми функциями с помощью NFV-оркестратора. Доступны коннекторы к сторонним SDN-контроллерам и системами управления NFVI через VIM. Очевидно, что китайский рынок телеком-операторов будет ориентироваться на этот продукт и вряд ли мы увидим расцвет других инициатив на этом азиатском направлении. А с учетом того, что китайский рынок мобильной и фиксированной связи является самым большим в мире, то очевидно, что многие решения по управлению гигантскими потоками данных именно на этом рынке могут показать себя с лучшей стороны. Гигантские всплески трафика и работа с Большими Данными от большого количества подписчиков позволит протестировать инновационные подходы именно на этом рынке. SONATA Этот проект появился за счет европейского гранта на НИОКР в области сетей 5G под названием Horizon 2020 — инициатива, при которой к 2020 году должны появится сети 5G, которые позволят повысить скорость передачи данных для мобильных абонентов. При этом те сервисы, которые будут оказываться подписчикам должны иметь маленькую задержку и широкие возможности. Частью решения этой задачи является создание системы оркестрации сетей связи и сетевых функций. Проект SONATA должен был предоставить возможность дизайна сетевых функций и оперативное управление созданными сетевыми функциями. В партнерах проекта указаны следующие компании: Atos, NEC, Thales, Telefonica, Nokia, BT и несколько европейских университетов. Сам проект имеет очень академическую направленность и глубокую проработку с точки зрения технологий. Нацеленность в приоритете на обкатку подходов нового технологического тренда, а не скорейшую коммерческую эксплуатацию. Первый релиз уже доступен для скачивания , хотя по данным github’а видно, что в текущую первую версию продолжается контрибьюция кода и соответственно нельзя назвать этот релиз стабильным. Функционал представлен следующими компонентами: SONATA SDK позволяет производить дизайн сервисов и тестирование. SONATA Service Platform позволяет запускать созданные сервисы и управлять их жизненным циклом. Описание архитектуры доступно здесь (pdf). Что делать телеком-операторам сейчас? Что уже сейчас могут делать операторы связи, которые хотят подготовиться к следующему технологическому тренду? Крупные западные и азиатские телеком-операторы уже завершают стадии пилотирования и proof of concept и переходят на постепенное внедрение данных решений на продуктивный трафик. Новые участки сети оснащаются архитектурой виртуализированных сетевых функций. Новые сервисы проектируются с использованием agile-подхода и на основе распределенной инфраструктуры. В России операторы чаще всего ориентируются на решения, которые поставляют западные или азиатские вендоры, прошедшие обкатку на уже развернутых сетях. Возглавить этот тренд и начать внедрять инновации одними из первых на нашем рынке – это прерогатива крупных игроков, но те, кто первым воспользуется новой волной, получат максимум отдачи за счет раннего обучения персонала и поиска оптимального решения для своих нужд. Начать можно с пилотирования тех open source проектов, которые представлены в обзоре. После успешного опыта на открытых и бесплатных проектах, можно будет сделать выбор коммерческого проприетарного продукта, с учетом того, что зачастую телеком-операторы концентрируют свою экспертизу на операционных процессах, а разработку и поддержку решения оставляют за проверенным вендором. Кого выбрать из вендоров, каждый оператор решит сам, но такие отчеты как Magic Quadrant by Garnter часто являются тем вектором внимания, на который ориентируются многие потребители решений от вендоров. Недавний рейтинг от Gartner в области OSS систем показывает, кто поставляет самые продвинутые коммерческие системы в этой отрасли. Следует заметить, что под зонтиком OSS как раз и располагаются решения в области управления NFV-инфраструктурой и экосистемой VNF: Видно, что в отчете Gartner помимо «железных» вендоров Nokia, Huawei, HPE, IBM и Ericsson так же присутствуют чисто софтварные компании – Netcracker, Amdocs, Oracle. При выборе своего вендора следует иметь в виду заинтересованность «железных» компаний в попутной продаже своих аппаратных устройств в комплексе с программными продуктами по управлению «железом». Софтварные компании лишены этого недостатка и чаще других являются мульти-вендорными по отношению к «железу». При этом, можно выбрать на долгосрочнную перспективу и open source продукт, но нужно продумать на горизонте 3-5-7 лет, кто будет оказывать поддержку и писать патчи для багфикса.
https://habrahabr.ru/post/318320/
habrahabr
Личный опыт: как мы выбирали DLP-систему
['dlp', 'обзор', 'опыт']
Добрый день всем! В статье расскажу, как тестировали 5 систем, что в них понравилось, а что нет. Мнение субъективное, зато на практике, а этого в сети мало (anti-malware приводит сравнение и...
Добрый день всем! В статье расскажу, как тестировали 5 систем, что в них понравилось, а что нет. Мнение субъективное, зато на практике, а этого в сети мало ( anti-malware приводит сравнение и подчеркивает, что оно базисное + на Хабре об этом писали , но получилась сравнительная таблица, что у кого есть/нет). Мы же пробовали функционал и меряли под себя, потратили почти полгода и можем поделиться опытом. Заранее приношу извинения разработчикам – по минусам продуктов пройдусь как есть (о плюсах они и сами хорошо рассказывают). Для тех, кто не хочет читать статью полностью, – выводы и советы по выбору DLP сразу: Всегда проверяйте заявленный функционал. У нас была куча довольно глупых ситуаций, когда продукт не соответствовал официальному описанию. Подготовьте детальное ТЗ и отдайте его для заполнения вендору. Но даже в этом случае проверяйте результат. Разработчик всегда активно говорит только о сильных сторонах, о проблемах нет. Используйте во время теста предлагаемые возможности софта по максимуму, а не только те, которые планируете приобретать. Например, мы расширили список требований в ТЗ, когда увидели функционал, который нам понравился. Ведите статистику сами, как и итоговый отчет. В критерии обязательно включите пункты: результативность за период времени, стабильность серверных, клиентских и агентских частей, конфликты с другими системами и качество поддержки, т.к. этих важных данных, даже сильно усредненных, вы не найдете нигде. Обратите внимание на безопасность самой DLP. Ведь там будет лежать такой архив, что любая база данных с персданными в сравнении с ним меркнет. Создайте системе стресс-нагрузку. Нагружайте серверную часть, как только сможете! Ставьте агентов на критичных пользователей. Создавайте политики избыточной сложности. Не отказывайтесь от помощи техподдержки, отдавайте решение проблем им. Чем раньше вы поймете, где у системы предел, тем объективнее сделаете выбор. Да и маты пользователей лучше выслушать сразу)). Все-таки DLP это не только система, но еще и услуга – и нужно сразу определить, насколько качественно реализовано первое и второе. Большааая суть Итак, к делу – начнем обзор. Zecurion Установить и настроить систему сможет даже ребенок. Вопрос пары часов – самостоятельно и без мануала! Причем неважно, на одну ОС ставятся компоненты или разносятся – в обоих случаях все довольно очевидно. С настройками тоже все хорошо, поначалу даже глаза разбегаются. Например, то, что в других DLP называется просто “контроль Интернет”, тут разбито на кучу групп, причем на каждую можно назначать свои правила. Есть много моделей работы – полноценный перехват, аудит, блокировки. Вообще охват каналов передачи у Зекуриона довольно обширный, это отметили все коллеги. Но вот когда дело дошло до работы с информацией – полезли косяки. Что понравилось: Большой охват каналов, разбитие индивидуальных настроек по группам или логическим блокам. Возможность реакции в зависимости от содержания документов и вообще работа с текстовым содержимым. Эмуляция прокси на агентском решении. Что не понравилось: Нелогичная модульность . Если наличие нескольких серверных частей воспринимается позитивно, то наличие ДВУХ агентов воспринимается, мягко говоря, странно. Сложно сказать, какой логике это служит, лично мне такое решение не понравилось – оба агента выполняют, по сути, одну и ту же роль. Работа с архивом. Когда руки дошли до работы с перехваченной информацией – мнение о Зекурион резко изменилось. Интерфейс выполнен по технологии MMC, и, думаю, понятны все проблемы такого решения. Работать с архивом очень сложно – выборки данных, найденные нарушения просматривать неудобно. Во многих местах работа идет даже не с выборками из БД, а с фильтрацией журналов, и все вытекающие отсюда проблемы очевидны. Агенты. С агентами был ряд проблем, админы в курсе ситуации – у нас договоренность удалять агента только в крайнем случае и только по согласованию. Поэтому мы видим все проблемы и сохраняем статистику. Комп может начать жутко тупить просто от наличия агента, без объяснимых причин. Никаких возможных конфликтов, несовместимости с ПО и прочего, что помогло бы понять причину, найти не удалось. Итого: Огорчили непроработанные инструменты для работы с архивом, а архив там копится очень немалый – БД разрастается с фантастической скоростью! Да, есть инструменты выборки, есть сжатие данных, есть разнообразные опции фильтрации – но это все не решает проблему устаревшего интерфейса. То, что в других системах делается в 2 действия, здесь может потребовать и 10, и 20 операций. Infowatch На тест нам отдали 5-ю версию. Система контролирует базовый список каналов (почта, интернет, мессенджеры, устройства хранения, печать) и имеет ряд предопределенных аналитических функций. На них и основана вся логика системы. Еще до первого использования стало понятно, с системой не все так просто. Дело в том, что решение использует сразу несколько независимых друг от друга продуктов и платформ. Часть функционала вынесена в один продукт, часть – в другой. Абсолютно непонятно, зачем систему настолько усложнили. В целом можно было бы смириться с этой бедой, но возникают проблемы архитектурного плана – из трех решений анализ работает только для одного. Например, для почты анализ работает нормально, для скайпа под вопросом (смотря какой агент установлен), для вайбер – не работает вообще. Что понравилось: Проработанный и довольно приятный пользовательский интерфейс. Каналов контроля не так много в траффик монитор. Но зато сразу, без всякого мануала, понятно, как ими пользоваться и за что они отвечают. Хорошо структурированная подача перехваченной информации. Все разбито на группы, все пошагово, все логично и просто. Что не понравилось: Агенты. Достаточно сказать, что их несколько. Скайп контролируется одним агентом, Вайбер – другим. И речь не про разные “модули” одного решения – это абсолютно несвязанные решения. Архитектура системы. Обычно система работает либо в WIN, либо в UNIX. А тут требуется сразу две платформы. Зачем – непонятно. Продукты разобщены – есть Traffic Monitor, есть Device Monitor. Как я уже говорил, они на разных платформах, но на самом деле это одна и та же система. А есть еще Endpoint Security и Personal Monitor – вроде бы задачи смежные, но это абсолютно другое решение, никак не совместимое с первыми двумя. Почему так – опять же непонятно, ведь то же “рабочее время” было бы полезно в DLP. Закрадываются мысли, что сделано это разделение, чтобы впарить вместе с DLP еще несколько продуктов и увеличить общий чек. Функциональность. Пока работаешь с Traffic Monitor – все отлично, консоль шустрая и приятная, все очень просто, работает система быстро. Но как только переходишь к другим задачам (и другим консолям) – начинается мрак. Тут можно блокировать, но нельзя создавать теневую копию. Здесь можно создавать теневую копию, но нельзя в ней ничего искать. Устройства хранения вообще контролируется во всех трех платформах, причем везде по-своему. В процессе работы возникает проблема – нужно лезть в разные системы, нельзя просто кликнуть на событие два раза и увидеть все подробности, как сделано во ВСЕХ других решениях. Итого: Мы с коллегами и руководством сошлись во мнении, что за предлагаемое решение цена неоправданно высокая, с учетом того, что она представляет из себя некую “солянку” из разношерстного софта, никак не соединенную вместе. Searchinform Система состоит из множества приложений и клиентских, и серверных. После установки на рабочем столе появляется столько иконок, что поначалу испытываешь состояние близкое к шоку. Потом ситуация сглаживается: по факту, нужных компонентов 3-4, остальное – запускается однократно и после настройки не используется. Все компоненты исключительно приложения для Windows, никакой мультиплатформенности не предусмотрено. Есть некий веб доступ, но он работает только для графических отчетов. Что касается контроля каналов, то тут все очень хорошо – закрыты практически все пути. Можно логировать и изменения файловой системы, и изменения в конфигурациях машин, короче, вплоть до записи видео действий пользователя. Заблокировать в системе можно не все, зато с доказательствами проблем нет. Что понравилось: Много разносторонних каналов и методов перехвата. Много неDLP`шных, но полезных возможностей, по типу аудита оборудования, шифрования, блокировки объектов файловой системы. Классное средство поиска по архиву. Масса опций, поиски, фильтрации, выборки, группировки. Нет ограничения на сложность политик безопасности – в одной настройке может быть любая комбинация: регулярка паспорта, фингерпринт документа, словарь, морфология, категоризация, учет опечаток, поиск похожего смысла и т.п. Стабильность – единственная система, которая во время нашего теста не глючила. Что не понравилось: Блокировка каналов. Блокировать можно далеко не все перехватываемые каналы. И нет контентных правил блокировки, все исключительно по атрибутам. Сложный интерфейс. Начать работу с системой под силу не каждому: много консолей и в каждой запутанный интерфейс, над которыми еще нужно поломать голову, чтобы разобраться. Либо читать мануал, что ни в одной другой системе не потребовалось. Количество консолей 9 консолей. Они серьезно?! Итого: В плане работы с архивом КИБ действительно силен. Расстроил слабый функционал блокировок по контенту и напрягли консоли. Работу ТП стоить упомянуть отдельно. Возникшие косяки и пожелания были решены во время пилота, когда мы еще не заплатили ни копейки. Возможно, роль сыграла наша денежность, но факт остается фактом: работали с нами хорошо. Falcongaze Сказать, что система разворачивается просто – недостаточно, редко увидишь настолько простой в установке продукт. Разработчик утверждает, что полноценное развертывание занимает считанные часы – на самом деле оно занимает минуты! На первых порах складывается впечатление, что продукт очень простой и в администрировании – все основные действия выполняются логично и как нечто, само собой разумеющееся. Количество контролируемых каналов достаточно обширно – в дополнение к базовым, есть такие возможности, как запись звука с микрофона, онлайн-подключения и другие специфические каналы, список можно найти в любом обзоре, поэтому я не буду на нем останавливаться. Что понравилось: Очень много различных каналов контроля, в дополнение к основным, есть такие вещи как Viber, скрины, кейлоггер, поиск и т.д. Проработанный механизм выборки данных. Удобно искать какие-то конкретные вещи. Комплект поставки (шаблоны, политики, даже Abbyy OCR) можно использовать через пять минут после установки агентов перехвата. Эффективность пользователя, как отдельный и довольно проработанный канал контроля: кто, что делал и сколько по времени, очень хорошо видно. Что не понравилось: Обработка данных. Большая задержка в получении данных, связанная с особенностями обработки, (индексирование) – может измеряться часами. Отчеты. Бестолковые отчеты: есть несколько проработанных, с которыми можно иметь дело и отдавать начальству, но основная масса отчетов абсолютно бесполезна. Глюки. Если при тестировании некоторых других систем пользователи страдали от проблем с агентами, то тут мы сами оказались на их месте, т.к. к агентским добавились еще и серверные глюки – политика, проверки вполне могут повиснуть, утащив вместе с собой консоль. Причем ситуация не всегда решается перезапуском. Блокировки. У меня сложилось впечатление, что система отчасти недоделана, отчасти – реализована, что называется, для галочки. Поясню на примере. В ПО заявлен функционал блокировки через прокси. Такая функция действительно есть, но нужно видеть, как она сделана! Пользователю доступен мастер настройки правил блокировки, в котором все параметры выбираются вручную. Например, желаете заблокировать вложения Gmail – пожалуйста, система такое позволяет, садитесь в Шарк и смотрите траффик, когда поймете какую часть URI блокировать – мастер к вашим услугам. Желаете залочить отправку на dropbox? – нет ничего проще: заливаете тестовый док, попутно просматривая траффик, ищете нужный кусок, добавляете его в правило, проверяете и всего делов-то! Не забываем воспроизвести все способы закачки. И это нужно делать для всех задач. А блокировок на основании содержания нет. Итого: Система имеет мощные возможности по сбору различных данных, но кроме просмотра архива ничего не позволяет с ними делать. То есть возможная реакция на инцидент одна – уведомить админа. Блокировки заявлены, но работают специфически. Да и вообще все работает специфически – может конечно это нам не повезло, но называть ее безглючной язык не поворачивается. Device Lock Тест заходил тяжело – мы заведомо знали, что нет необходимого нам функционала, т.к. система работает только на агентах, что в нашем случае не всегда возможно. Как бы то ни было, решили тестировать, так как разработчик заверял, что много функционала мы не видели. Система ставится очень просто, клиент-серверная архитектура, присущая DLP-решениям, здесь носит весьма условный характер. Агенты вообще могут работать без связи с сервером, поэтому установка происходит фактически, как у обычной программы. Разворачивается все крайне быстро, есть специальные средства для администрирования настроек – это довольно удобно. Работа с самой системой не вызывает особых затруднений, все очень понятно. Что понравилось: Система простая. Конечно все проблемы, присущие MMC никуда не делись, зато все очень понятно и ожидаемо. Очень хорошая работа с устройствами. Грамотное деление устройств на типы – например, мобильники (IOS, PALM, WinPhone и т.д.) разделены на разные категории, для каждой можно создать свое правило. Контекстуальные блокировки доступны для любых контролируемых каналов. Если документ содержит, например, фио или данные кредитной карты – его можно заблокировать, вне зависимости от метода передачи, будь то хоть почта, хоть удаленный сеанс или даже скайп! Система слабо зависит от сервера и способна работать без связи с ним. Раз настроенные правила будут работать, если работает агент. Более того, доступны режимы офлайн и онлайн для любых каналов и для каждой политики. Все это можно настроить индивидуально. Что не понравилось: Работа исключительно на агентах. Нет возможности контролировать сеть, нет возможности блокировать на прокси, практически нет интеграций с корпоративными системами (почтарями и т.д.) Работа с архивом. Архив ведется, но фактически, пользователю доступна не выборка, а фильтрация полученных данных. Из-за этого проблемы, во-первых, со скоростью, во-вторых, с возможностями – доступно очень мало элементов для фильтрации. Полученные результаты не имеют предпросмотра, для изучения нужно каждый открывать и смотреть – это начинает раздражать после первой же более-менее серьезной задачи. Есть средство поиска текста по архиву, но оно поставляется отдельно, а сами поисковые возможности не идут ни в какое сравнение с теми же Сёрчем и Фалконом. Аналитика. Вся аналитика отрабатывает в реальном времени, и, вроде как, это момент положительный. Но по факту это не всегда так. Доступны регулярные выражения и поиск с морфологией, ну еще различные атрибутивные правила. Этого хватает только для очень простых блокировок, что далеко не всегда позволяет решить прикладные задачи. Нет некоторых инструментов. Нет технологии сверки файлов по цифровым отпечаткам и поиска измененного текста внутри документов. Это дало бы возможность задать в систему список конфиденциальных файлов и конфиденциального содержания, включить блокировку для всех каналов и больше туда никогда не заходить. Итого: Система кардинально отличается от аналогов – она сделана для “работы в моменте”. Взаимодействие с архивом, расследования, поиск данных – это все проработано плохо. Ну и работа только на агентах: их не поставишь на телефоны и планшеты, даже если они корпоративные – у всех остальных это решается через прокси. Не буду делать каких-то глобальных выводов – для каждой организации они будут свои, ведь у всех разные требования к технологиям и функционалу. Надеюсь только, что мой обзор пригодится кому-то в нелегком деле выбора DLP-системы.
https://habrahabr.ru/post/318324/
habrahabr
19 неожиданных находок в документации Node.js
['Node.js', 'документация', 'разработка', 'полезные приёмы']
Мне хотелось бы думать, что я вполне прилично знаю Node. Вот уже три года, как ни один из сайтов, над которыми я работал, не обходится без него. Но документацию до сих пор я как следует не...
Мне хотелось бы думать, что я вполне прилично знаю Node. Вот уже три года, как ни один из сайтов, над которыми я работал, не обходится без него. Но документацию до сих пор я как следует не читал. Мне нравится записывать полезные вещи об интерфейсах, свойствах, методах, функциях, типах данных, и обо всём прочем, что относится к веб-разработке. Так я заполняю пробелы в знаниях. Сейчас я занят документацией к Node.js, а до этого проработал материалы по HTML, DOM, по Web API, CSS, SVG и EcmaScript. Чтение документации Node.js открыло мне немало замечательных вещей, о которых я раньше не знал. Ими я хочу поделиться в этом небольшом материале. Начну с самого интересного. Так же я обычно делаю, когда показываю новому знакомому свои гаджеты. 1. Модуль querystring как универсальный парсер Скажем, вы получили данные из какой-нибудь эксцентричной БД, которая выдала массив пар ключ/значение в примерно таком виде: name:Sophie;shape:fox;condition:new . Вполне естественно полагать, что подобное можно легко преобразовать в объект JavaScript. Поэтому вы создаёте пустой объект, затем – массив, разделив строку по символу « ; ». Дальше – проходитесь в цикле по каждому элементу этого массива, опять разбиваете строки, теперь уже по символу « : ». В итоге, первый полученный из каждой строки элемент становится именем свойства нового объекта, второй – значением. Всё правильно? Нет, не правильно. В подобной ситуации достаточно воспользоваться querystring . const weirdoString = `name:Sophie;shape:fox;condition:new`; const result = querystring.parse(weirdoString, `;`, `:`); // результат: // { //   name: `Sophie`, //   shape: `fox`, //   condition: `new`, // }; 2. Отладка: V8 Inspector Если запустить Node с ключом --inspect , он сообщит URL. Перейдите по этому адресу в Chrome. А теперь – приятная неожиданность. Нам доступна отладка Node.js с помощью инструментов разработчика Chrome. Настали счастливые времена. Вот руководство на эту тему от Пола Айриша. Надо отметить, что данная функция всё ещё носит статус экспериментальной, но я ей с удовольствием пользуюсь и до сих пор она меня не подводила. 3. Разница между nextTick и setImmediate Как и в случае со многими другими программными механизмами, запомнить разницу между этими двумя функциями очень просто, если дать им более осмысленные имена. Итак, функция process.nextTick() должна называться process.sendThisToTheStartOfTheQueue() . А setImmediate() - sendThisToTheEndOfTheQueue() . Кстати, вот полезный материал об оптимизации nextTick начиная с Node v0.10.0. Маленькое отступление. Я всегда думал, что в React props должно называться stuffThatShouldStayTheSameIfTheUserRefreshes , а state – stuffThatShouldBeForgottenIfTheUserRefreshes . То, что у этих названий одинаковая длина, считайте удачным совпадением. 4. Server.listen принимает объект с параметрами Я приверженец передачи параметров в виде объекта, например, с именем «options», а не подхода, когда на входе в функцию ожидается куча параметров, которые, к тому же, не имеют имён, да ещё и должны быть расположены в строго определённом порядке. Как оказалось, при настройке сервера на прослушивание запросов можно использовать объект с параметрами. require(`http`)  .createServer()  .listen({    port: 8080,    host: `localhost`,  })  .on(`request`, (req, res) => {    res.end(`Hello World!`);  }); Эта полезная возможность неплохо спряталась. В документации по http.Server о ней – ни слова. Однако, её можно найти в описании net.Server , наследником которого является http.Server . 5. Относительные пути к файлам Путь в файловой системе, который передают модулю fs , может быть относительным. Точка отсчёта – текущая рабочая директория, возвращаемая process.cwd() . Вероятно, это и так все знают, но вот я всегда думал, что без полных путей не обойтись. const fs = require(`fs`); const path = require(`path`); // почему я всегда делал так... fs.readFile(path.join(__dirname, `myFile.txt`), (err, data) => {  // делаем что-нибудь полезное }); // когда мог просто поступить так? fs.readFile(`./path/to/myFile.txt`, (err, data) => {  // делаем что-нибудь полезное }); 6. Разбор путей к файлам Обычно, когда мне нужно было вытащить из пути к файлу его имя и расширение, я пользовался регулярными выражениями. Теперь понимаю, что в этом нет совершенно никакой необходимости. То же самое можно сделать стандартными средствами . myFilePath = `/someDir/someFile.json`; path.parse(myFilePath).base === `someFile.json`; // true path.parse(myFilePath).name === `someFile`; // true path.parse(myFilePath).ext === `.json`; // true 7. Раскраска логов в консоли Сделаю вид, будто я не знал, что конструкция console.dir(obj, {colors: true}) позволяет выводить в консоль объекты со свойствами и значениями, выделенными цветом. Это упрощает чтение логов. 8. Управление setInterval() Например, вы используете setInterval() для того, чтобы раз в день проводить очистку базы данных. По умолчанию цикл событий Node не остановится до тех пор, пока имеется код, исполнение которого запланировано с помощью setInterval() . Если вы хотите дать Node отдохнуть (не знаю, на самом деле, какие плюсы можно от этого получить), воспользуйтесь функцией unref() . const dailyCleanup = setInterval(() => {  cleanup(); }, 1000 * 60 * 60 * 24); dailyCleanup.unref(); Однако, тут стоит проявить осторожность. Если Node больше ничем не занят (скажем, нет http-сервера, ожидающего подключений), он завершит работу. 9. Константы сигнала завершения процесса Если вам нравится убивать, то вы, наверняка, уже так делали: process.kill(process.pid, `SIGTERM`); Ничего плохого об этой конструкции сказать не могу. Но что, если в команду вкралась ошибка, вызванная опечаткой? В истории программирования известны такие случаи. Второй параметр здесь должен быть строкой или соответствующим целым числом, поэтому тут немудрено написать что-нибудь не то. Для того, чтобы застраховаться от ошибок, можно поступить так: process.kill(process.pid, os.constants.signals.SIGTERM); 10. Проверка IP-адресов В Node.js имеется встроенное средство для проверки IP-адресов . Раньше я не раз писал регулярные выражения для того, чтобы это сделать. На большее ума не хватило. Вот как это сделать правильно: require(`net`).isIP(`10.0.0.1`) вернёт 4 . require(`net`).isIP(`cats`) вернёт 0 . Всё верно, коты – это не IP-адреса. Возможно вы заметили, что в примерах я использую для строк одинарные кавычки. Мне так делать нравится, но я подозреваю, что выглядит это странно, поэтому считаю нужным об этом упомянуть, хотя и сам толком не знаю – зачем. В общем – это мой стиль. 11. Символ конца строки, os.EOL Вы когда-нибудь задавали в коде символ конца строки? Да? Всё, тушите свет. Вот, специально для тех, кто так делал, замечательная штука: os.EOL . В Windows это даст \r\n , во всех остальных ОС — \n . Переход на os.EOL позволит обеспечить единообразное поведение кода в разных операционных системах. Тут я сделаю поправку, так как в момент написания материала недостаточно в эту тему углубился. Читатели предыдущей версии этого поста указали мне на то, что использование os.EOL может приводить к неприятностям. Дело в том, что здесь нужно исходить из предположения, что в некоем файле может использоваться или CRLF( \r\n ), или LF ( \n ), но полностью быть уверенным в подобном предположении нельзя. Если у вас имеется проект с открытым исходным кодом, и вы хотите принудительно использовать определённый вариант перевода строки, вот правило eslint , которое, отчасти, может в этом помочь. Правда, оно бесполезно, если с текстами поработает Git. И, всё же, os.EOL – не бесполезная игрушка. Например, эта штука может оказаться кстати при формировании лог-файлов, которые не планируется переносить в другие ОС. В подобном случае os.EOL обеспечивает правильность отображения таких файлов, скажем, для просмотра которых используется Блокнот в Windows Server. const fs = require(`fs`); // жёстко заданный признак конца строки CRLF fs.readFile(`./myFile.txt`, `utf8`, (err, data) => {  data.split(`\r\n`).forEach(line => {    // делаем что-нибудь полезное  }); }); // признак конца строки зависит от ОС const os = require(`os`); fs.readFile(`./myFile.txt`, `utf8`, (err, data) => {  data.split(os.EOL).forEach(line => {    // делаем что-нибудь полезное  }); }); 12. Коды состояния HTTP В Node имеется «справочник» с кодами состояния HTTP и их названиями. Я говорю об объекте http.STATUS_CODES . Его ключи – это коды состояний, а значения – их названия. Объект http.STATUS_CODES Вот как этим пользоваться: someResponse.code === 301; // true require(`http`).STATUS_CODES[someResponse.code] === `Moved Permanently`; // true 13. Предотвращение ненужных остановок сервера Мне всегда казалось малость странным то, что код, похожий на приведённый ниже, приводит к остановке сервера. const jsonData = getDataFromSomeApi(); // Только не это! Нехорошие данные! const data = JSON.parse(jsonData); // Громкий стук падающего сервера. Для того, чтобы предотвратить подобные глупости, прямо в начале приложения для Node.js можно поместить такую конструкцию, выводящую необработанные исключения в консоль: process.on(`uncaughtException`, console.error); Я, конечно, нахожусь в здравом уме, поэтому пользуюсь PM2 и оборачиваю всё, что можно, в блоки try…catch , когда программирую на заказ, но вот в домашних проектах… Хочу обратить особое внимание на то, что такой подход никоим образом не относится к « лучшим практическим методам разработки », и его использование в больших и сложных приложениях, вероятно, идея плохая. Решайте сами, доверять ли посту в блоге, написанному каким-то чуваком, или официальной документации. 14. Пара слов об once() В дополнение к методу on() , у объектов EventEmitter имеется и метод once() . Я совершенно уверен, что я – последний человек на Земле, который об этом узнал. Поэтому ограничусь простым примером, который все и так поймут. server.once(`request`, (req, res) => res.end(`No more from me.`)); 15. Настраиваемая консоль Консоль можно настроить с помощью нижеприведённой конструкции, передавая ей собственные потоки вывода: new console.Console(standardOut, errorOut) Зачем? Не знаю точно. Может, вы захотите создать консоль, которая выводит данные в файл, или в сокет, или ещё куда-нибудь. 16. DNS-запросы Мне тут одна птичка насвистела, что Node не кэширует результаты запросов к DNS. Поэтому, если вы несколько раз обращаетесь к некоему URL, на запросы, без которых можно было бы обойтись, тратятся бесценные миллисекунды. В подобном случае можно выполнить запрос к DNS самостоятельно, с помощью dns.lookup() , и закэшировать результаты. Или – воспользоваться пакетом dnscache , который делает то же самое. dns.lookup(`www.myApi.com`, 4, (err, address) => {  cacheThisForLater(address); }); 17. Модуль fs: минное поле Если ваш стиль программирования похож на мой, то есть, это что-то вроде: «прочту по диагонали кусок документации и буду возиться с кодом, пока он не заработает», тогда вы не застрахованы от проблем с модулем fs . Разработчики выполнили огромную работу, направленную на унификацию взаимодействия Node с различными ОС, но их возможности не безграничны. В результате, особенности различных операционных систем разрывают гладь океана кода как острые рифы, которые ещё и заминированы. А вы в этой драме играете роль лодки, которая может на один из рифов сесть. К несчастью, различия, имеющие отношение к fs , не сводятся к привычному: «Windows и все остальные», поэтому мы не можем просто отмахнуться, прикрывшись идеей: «да кто пользуется Windows». (Я сначала написал тут целую речь об анти-Windows настроениях в веб-разработке, но в итоге решил это убрать, а то у меня самого глаза на лоб полезли от этой моей проповеди). Вот, вкратце, то, что я обнаружил в документации к модулю fs . Уверен, кого-нибудь эти откровения могут клюнуть не хуже жареного петуха. Свойство mode объекта, возвращаемого fs.stats(), различается в Windows и в других ОС. В Windows оно может не соответствовать константам режима доступа к файлам, таким, как fs.constants.S_IRWXU . Функция fs.lchmod() доступна только в macOS. Вызов fs.symlink() с параметром type поддерживается только в Windows. Опция recursive , которую можно передать функции fs.watch() , работает только на Windows и macOS. Функция обратного вызова fs.watch() принимает имя файла только в Linux и Windows. Вызов fs.open() с флагом a+ для директории будет работать во FreeBSD и в Windows, но не сработает в macOS и Linux. Параметр position , переданный fs.write() , будет проигнорирован в Linux в том случае, если файл открыт в режиме присоединения. Ядро игнорирует позицию и добавляет данные к концу файла. (Я тут не отстаю от моды, называю ОС от Apple «macOS», хотя ещё и двух месяцев не прошло после того, как старое название, OS X, отошло в мир иной). 18. Модуль net вдвое быстрее модуля http Читая документацию к Node.js, я понял, что модуль net – это вещь. Он лежит в основе модуля http . Это заставило меня задуматься о том, что если нужно организовать взаимодействие серверов (как оказалось, мне это понадобилось), стоит ли использовать исключительно модуль net ? Те, кто плотно занимается сетевым взаимодействием систем, могут и не поверить, что подобный вопрос вообще надо задавать, но я – веб-разработчик, который вдруг свалился в мир серверов и знает только HTTP и ничего больше. Все эти TCP, сокеты, вся эта болтовня о потоках… Для меня это как японский рэп . То есть, мне вроде бы и непонятно, но звучит интригующе. Для того, чтобы во всём разобраться, поэкспериментировать с net и http , и сравнить их, я настроил пару серверов (надеюсь, вы сейчас слушаете японский рэп) и нагрузил их запросами. В результате http.Server смог обработать примерно 3400 запросов в секунду, а net.Server – примерно 5500. К тому же, net.Server проще устроен. Вот, если интересно, код клиентов и серверов, с которым я экспериментировал. Если не интересно – примите извинения за то, что вам придётся так долго прокручивать страницу. Вот код client.js . // Здесь создаются два подключения. Одно – к TCP-серверу, другое – к HTTP (оба описаны в файле server.js). // Клиенты выполняют множество запросов к серверам и подсчитывают ответы. // И тот и другой работают со строками. const net = require(`net`); const http = require(`http`); function parseIncomingMessage(res) {  return new Promise((resolve) => {    let data = ``;    res.on(`data`, (chunk) => {      data += chunk;    });    res.on(`end`, () => resolve(data));  }); } const testLimit = 5000; /*  ------------------  */ /*  --  NET client  --  */ /*  ------------------  */ function testNetClient() {  const netTest = {    startTime: process.hrtime(),    responseCount: 0,    testCount: 0,    payloadData: {      type: `millipede`,      feet: 100,      test: 0,    },  };  function handleSocketConnect() {    netTest.payloadData.test++;    netTest.payloadData.feet++;    const payload = JSON.stringify(netTest.payloadData);    this.end(payload, `utf8`);  }  function handleSocketData() {    netTest.responseCount++;    if (netTest.responseCount === testLimit) {      const hrDiff = process.hrtime(netTest.startTime);      const elapsedTime = hrDiff[0] * 1e3 + hrDiff[1] / 1e6;      const requestsPerSecond = (testLimit / (elapsedTime / 1000)).toLocaleString();      console.info(`net.Server handled an average of ${requestsPerSecond} requests per second.`);    }  }  while (netTest.testCount < testLimit) {    netTest.testCount++;    const socket = net.connect(8888, handleSocketConnect);    socket.on(`data`, handleSocketData);  } } /*  -------------------  */ /*  --  HTTP client  --  */ /*  -------------------  */ function testHttpClient() {  const httpTest = {    startTime: process.hrtime(),    responseCount: 0,    testCount: 0,  };  const payloadData = {    type: `centipede`,    feet: 100,    test: 0,  };  const options = {    hostname: `localhost`,    port: 8080,    method: `POST`,    headers: {      'Content-Type': `application/x-www-form-urlencoded`,    },  };  function handleResponse(res) {    parseIncomingMessage(res).then(() => {      httpTest.responseCount++;      if (httpTest.responseCount === testLimit) {        const hrDiff = process.hrtime(httpTest.startTime);        const elapsedTime = hrDiff[0] * 1e3 + hrDiff[1] / 1e6;        const requestsPerSecond = (testLimit / (elapsedTime / 1000)).toLocaleString();        console.info(`http.Server handled an average of ${requestsPerSecond} requests per second.`);      }    });  }  while (httpTest.testCount < testLimit) {    httpTest.testCount++;    payloadData.test = httpTest.testCount;    payloadData.feet++;    const payload = JSON.stringify(payloadData);    options[`Content-Length`] = Buffer.byteLength(payload);    const req = http.request(options, handleResponse);    req.end(payload);  } } /*  --  Start tests  --  */ // flip these occasionally to ensure there's no bias based on order setTimeout(() => {  console.info(`Starting testNetClient()`);  testNetClient(); }, 50); setTimeout(() => {  console.info(`Starting testHttpClient()`);  testHttpClient(); }, 2000); Вот – server.js . // Здесь созданы два сервера. Один – TCP, второй – HTTP. // Для каждого запроса серверы преобразуют полученную строку в объект JSON, формируют с его использованием новую строку, и отправляют её в ответ на запрос. const net = require(`net`); const http = require(`http`); function renderAnimalString(jsonString) {  const data = JSON.parse(jsonString);  return `${data.test}: your are a ${data.type} and you have ${data.feet} feet.`; } /*  ------------------  */ /*  --  NET server  --  */ /*  ------------------  */ net  .createServer((socket) => {    socket.on(`data`, (jsonString) => {      socket.end(renderAnimalString(jsonString));    });  })  .listen(8888); /*  -------------------  */ /*  --  HTTP server  --  */ /*  -------------------  */ function parseIncomingMessage(res) {  return new Promise((resolve) => {    let data = ``;    res.on(`data`, (chunk) => {      data += chunk;    });    res.on(`end`, () => resolve(data));  }); } http  .createServer()  .listen(8080)  .on(`request`, (req, res) => {    parseIncomingMessage(req).then((jsonString) => {      res.end(renderAnimalString(jsonString));    });  }); 19. Хитрости режима REPL Если вы работаете в режиме REPL , то есть, написали в терминале node и нажали на Enter , можете ввести команду вроде .load someFile.js и система загрузит запрошенный файл (например, в таком файле может быть задана куча констант). В этом режиме можно установить переменную окружения NODE_REPL_HISTORY="" для того, чтобы отключить запись истории в файл. Кроме того, я узнал (как минимум – вспомнил), что файл истории REPL, который позволяет путешествовать в прошлое, хранится по адресу ~/.node_repl_history . Символ подчёркивания « _» — это имя переменной, которая хранит результат последнего выполненного выражения. Думаю, может пригодиться. Когда Node запускается в режиме REPL, модули загружаются автоматически (точнее – по запросу). Например, можно просто ввести в командной строке os.arch() для того, чтобы узнать архитектуру ОС. Конструкция вроде require(`os`).arch(); не нужна. Итоги Как видите, читать документацию – дело полезное. Много нового можно найти даже в той области, которую, вроде бы, знаешь вдоль и поперёк. Надеюсь, вам пригодятся мои находки. Кстати, знаете ещё что-нибудь интересное о Node.js? Если так – делитесь :)
https://habrahabr.ru/company/ruvds/blog/318322/
habrahabr
Пятничный пост: opensource CRM уходящего года
['бред сивой кобылы', 'crm', 'opensource', 'redmine', 'teamer', 'odoo', 'openproject', 'mycollab', 'orangescrum', 'tuleap', 'rss crm', 'taiga']
Встречаясь с огрехами и ошибками удобства очередной CRM/системы управления проектами — возникает мысль написать-таки свой велосипед, однако экономическая ситуация в нашей стране, да и...
Встречаясь с огрехами и ошибками удобства очередной CRM/системы управления проектами — возникает мысль написать-таки свой велосипед, однако экономическая ситуация в нашей стране, да и отсутствие многих часов времени на контроль останавливает меня от столь разумного шага, поэтому — приходится выбирать из того, что есть. А раз уж все равно выбирать — почему бы не написать об этом? Disclaimer Все ниженаписанное следует воспринимать как легкое чтиво и словоблудие воспаленного разума, навеянное пятницей уходящего года. Не стоит искать тут серьезную аналитику или логичный формат изложения. Зачем мне система управления проектами? Мой типичный юзкейс — это несколько десятков проектов и постоянно всплывающие то тут, то там задачи. Тут — сделать новый прототип, чтобы проект мог развиваться дальше, там — посоветовать заказчику как лучше организовать систему уведомления клиентов, где-то еще висит пачка юзабилити-аудитов, к которой неплохо бы приступить после 2х ночи. Что делать? Типовые задачи юзабилиста — аудиты, прототипы, консультации. Дополнительно — слова любви для дизайнеров, верстальщиков и копирайтеров (в рамках надзора), а также контроль подрядчиков, утвержденных заказчиком. Обязательно тут же и работа с некоторыми клиентами, как новыми, так и старыми, которые хотят видеть обновления. Итого : мне нужна система, которая позволяет видеть одновременно немалое количество проектов, задач, выделять их на срочные и не очень, а также составлять «расписание выполнения», в том числе для сторонних лиц. Еще желательно иметь под рукой Гантт, вики и канбан-доску до кучи. Также мне очень приятно пользоваться красивым продуктом, поскольку отсутствие дизайна, нечитабельные шрифты и многое другое нагоняет на меня тоску (читай — снижает производительность). Немаловажным является наличие мобильного приложения или возможности комфортно работать хотя бы с популярных устройств (про смартфон Lenovo на Intel вообще молчу, сам виноват). 1. Redmine О чем еще можно подумать, когда слышишь слова «опенсорс», «много функционала», «таск-менеджер». Конечно, о редмайне. Я пробовал работать в нем раз 5, и каждый раз через некоторое время мозг начинал брыкаться. Как и практически любая система, написанная программистами для программистов — Редмайн являет собой целый мир функционала, небрежно рассованный тут и там. Огромное количество надстроек, допилок, модулей и прочих радостей позволяет превратить Редмайн практически в швейцарский нож, способный решать любую задачу максимально эффективно. С одной оговоркой — если сменить дизайн. Сделать свой скин, натянуть его на оболочку — только в этом случае Редмайном можно пользоваться, не испытывая постоянное навязчивое желание клацнуть крестик в правом верхнем углу и забыть все это как страшный сон. Однако, это субъектив чистой воды — я знаю не одну сотню компаний, для которых Redmine стал манной небесной и всея спасителем. Одно могу сказать точно — никогда не приступайте к разработке собственной CRM, не поработав в 1С Бухгалтерии и Redmine. Подойдет : для всех Обучение : требуется Установка : требуется программист или системный администратор Готовность к использованию из коробки : требует доработки Мобильное приложение : не менее 5 софтин от различных команд, некоторые работают вполне комфортно (тот же RedminePM), однако по функциональности они уступают ПК-версии версии и имеют проблемы с совместимостью (на SGS3 RedminePM работает нормально, на Lenovo A536 нередки вылеты, а на Xiaomi Mi5 софтинка вообще не запустилась). 2. Teamer Его нельзя назвать Opensource, да и вообще его сложно назвать CRM, однако он тут (возможно пригодится кому-то, кто о нем не слышал). Тимер абсолютно бесплатен, чем и прекрасен. Что удивительно, он еще жив и даже дышит. Конечно, его нельзя использовать как полновесную CRM или систему управления проектами (функционал обрезан донельзя), однако как «задачник» для небольшой команды Тимер — лучшее решение. Не стоит забывать что в этой команде не должно быть программистов, поскольку Teamer не поддерживает интеграции с Git и многого другого, что несомненно нужно для качественного написания кода. Когда мы много работали с контентом и доработкой интернет-магазинов Тимер был нашей палочкой-выручалочкой, но как только требования стали расти — пришлось с сожалением расставаться с полюбившимся задачником. Подойдет : для небольших команд Обучение : минимальное Установка : проста до невозможности Готовность к использованию из коробки : да Мобильное приложение : нет 3. Odoo Несмотря на позиционирование оной как сильной ERP, на мой вкус Odoo — расширенный аналог Trello. Очень расширенный, к которому справа приделали интернет-магазин, слева — управление складом и еще с какого-то боку учет. В буржреалиях возможно оно и работает, однако «у нас» слаженной работы всех этих чудес ожидать сложно, просто учитывая реалии ведения бизнеса. С проектами в Odoo работать сложно, нет адекватной 3х уровневой иерархии, многие рабочие панели требуют дополнительных переходов, чтобы посмотреть нужную информацию. Однако, если цель состоит в том, чтобы облегчить работу отделу продаж — Odoo CRM может быть полезной, для программистов также есть немало того, что может пригодиться в повседневной работе. Хотя для последних есть более узкоспециализированные системы, которые я бы охотнее посоветовал. Подойдет : для отделов продаж / команд программистов Обучение : минимальное Установка : простая Готовность к использованию из коробки : требует настройки Мобильное приложение : удобное, когда работает… на имеющихся у меня 3х устройствах, к сожалению, этого продемонстрировано не было. Вроде бы заполнил данные, в мобклиенте их видно, при попытке зайти с десктопа — их нет, и многие другие радости в том же стиле. 4. Openproject Приятная, простая и удобная система управления проектами, которой мы пользовались более 6 месяцев. В стандартной сборке Openproject есть удобный таск-менеджер, вики для новых сотрудников, понятная диаграмма Ганта, есть возможность работать по методологиям Agile/Scrum и многие другие вкусности. Однако, в определенный момент его начинает не хватать… и тут приходит время «проблемы редмайна». Или ты допиливаешь текущую систему под свои нужды, или пилишь велосипед. Мы пошли дальше… Подойдет : для небольших и средних команд Обучение : требуется небольшое Установка : требуется программист или системный администратор Готовность к использованию из коробки : да Мобильное приложение : как такового мобильного приложения нет, но, в принципе, можно работать и с помощью браузера, однако в таком случае об удобстве говорить сложно 5. Mycollab Я не ставил себе целью изучить его опенсорс-версию, благо SAAS-версия в наличии и этого хватило. Впечатление такое — дизайн в стиле bootstrap первых версий, очень не хватает цветовых “направляющих”, внимание не концентрируется на чем-либо, отсюда сложности с привыканием. После вдумчивого изучения функционала становится понятно, что система ориентирована на управление одним проектом одновременно и вполне подходит для решения типичных задач проджект-менеджера, включая багтрекинг и работу с программистами. В каждом проекте может быть: дашборд, тикеты, сообщения, страницы, файлы, управление пользователями, канбан-доска, гантт и даже биллинг. Есть даже отдельная CRM. Что еще можно хотеть? А вот для большого количества небольших/средних проектов, когда на одной странице ты хочешь видеть множество проектов, задач, подзадач и т.п. — увольте, Mycollab не подойдет. Подсказка : когда после регистрации вас без каких-либо уведомлений выкинет на страницу логина в стиле “вы уходили, но вернулись” не отчаивайтесь, вы зарегистрированы, просто нужно ввести свой логин и пароль еще раз (ю — юзабилити, у — удобство). Подойдет : практически для любых команд Обучение : требуется, есть сложности с дизайном Установка :? (opensource версия не изучалась) Готовность к использованию из коробки : да Мобильное приложение : архаичный дизайн, полное игнорирование каких-либо гайдов Apple… в общем мобильное приложение есть, но скорее для галочки — функциональность ограничена. 6. Orangescrum Судя по сайту эти ребята мало слышали об удобстве сайтов, зато много — о продающих лендингах. Полотна убеждали меня в том, что Оранджскрам является лучшим решением моих проблем, обилие продающих кнопок резало глаз, однако я не сдавался и таки вышел на опенсорс-версию. Убедившись в том, что оная присутствует — я пошел изучать онлайн-версию, которая сразу обрадовала меня количеством подсказок. Ком вопросов по юзабилити рос с каждой секундой, однако, раз 5-7 безуспешно клацнув на подсказки я понял, что нужно жать синюю кнопку сверху и перешел-таки в рабочую область. Первый раз я удивился тогда, когда понял что проекты и задачи — это две разных рабочих области/страницы, причем заходя в проект ты попадаешь на “Обзор проекта”, где есть статусы задач, их тематики (баги там всякие, идеи, релиз, апдейт), задействованные пользователи, лог, а самих задач НЕТ! Чтобы попасть в задачи — тебе нужно или перейти на отдельную страницу с задачами, или навести на иконку справа сверху (никак не промаркированную) и выбрать там “List”. И тогда тебя перекинет куда? Правильно, на отдельную страницу задач. Наблюдая эту особенную логику глаз начал дергатся и появилось нервное желание закурить….однако, продолжим. Осознав все происходящее я четко понял для себя, что опенсорс-версию апельсинового скрама я ставить не буду (боюсь, пострадает не только моя логика), тем более что общий функционал мало отличается от других популярных систем управления проектами, разве что мне показалось, что он еще больше заточен под управление малым количеством проектов. Подойдет : для людей с особенной логикой, небольших команд Обучение : требуется, желательно присутствие врача Установка :? (opensource версия не изучалась) Готовность к использованию из коробки : см. выше Мобильное приложение : как сообщает сайт — приложения в статусе «coming soon» и есть ощущение, что уже давно. 7. Tuleap Могу сказать только то, что он замечательно подойдет для команд программистов. Можно выбрать Scrum или Waterfall и разрабатывать так, как хочется. Есть MediaWiki, Git, Gerrit и Continuous Integration. Также есть Kanban в качестве Service desk. А вот для управления проектами я для себя практически ничего не нашел, отсюда написать что-то большее может только программист, а я, как говорится, кончил. Подойдет : для команд программистов Обучение : требуется небольшое Установка : простая Готовность к использованию из коробки : да Мобильное приложение : существовало с 4 сентября 2015 года по 16 ноября 2015 года на Google Play. Далее исчезло, видимо, так никому и не пригодившись. 8. Really Simple Systems CRM Многообещающее название, однако сайт в стиле 2000х годов намекает, что simple это не всегда easy. Дальнейшее действо показывает, что первое впечатление — почти всегда самое верное. После регистрации меня кидает на страницу логина, где обязательно нужно ввести логин, пароль и, внимание, название компании (!). И без названия компании дальше не пустят. Мозг секунд за 20 подсказал минимум 5 вариантов решения этой проблемы без поля компании, однако, видимо, это за гранью понимания создателей. Кстати, если вы неправильно введете пароль — вам придется вводить название кампании и e-mail заново (напоминает “а что ты думал, в сказку попал….”). Решив-таки свои проблемы с регистрацией я почувствовал себя time-traveler’ом, очутившись в 2000х годах, ностальгически вспоминая DOS, консоль и остановил себя властным движением руки, которая уже собиралась что-то заказать на очередном магазине товаров из прошлого века. Убрав литературную часть можно коротко и сухо сообщить что simple где-то там есть, но вот для решения задач этот самый симпл не подходит вовсе. Подойдет : для компаний типа “совок”, в качестве мстительного совета компании, которой желаешь зла Обучение : не требуется Установка : ??? Готовность к использованию из коробки: … Мобильное приложение: на официальном сайте даже есть статья, рассказывающая о том, что, дескать, «для работы вам не нужно мобильное приложение и делать своё мы не собираемся». Что ж, иного я не ожидал… 9. Taiga / TaigaApp Близкое по русскому духу название сайта и приятный дизайн сразу прельстили меня, а вот упоминание того что данная платформа подходит как для Agile-developer’ов, так и для дизайнеров и проджект-менеджеров заставило сомневаться, ибо швейцарские ножи производятся уже более 100 лет, а вот продукты без четкой ЦА обычно погибают. Еще показалось интересной запись на главной странице “Love your project”, хотя обычно в России первое слово меняется на другое, тоже из четырех букв. В общем — заинтриговали, пойдем смотреть… В наличии 2 типа проектов — Scrum и Kanban. В первом мы видим досочку в стиле Trello с возможностью проставлять баллы за UX/Дизайн/Фронтенд/Бекенд, во втором Backlog с user-stories, список доработок (вопросы, баги, улучшения) и вики. Все это оформлено очень приятно и действительно — в Тайге/с Тайгой приятно работать. Есть даже вполне адекватное мобильное приложение. Однако, надпись на главной странице сайта все же лукавит. Тайга действительно подойдет для команд дизайнеров и программистов, однако не подойдет менеджерам проектов. Если бы они создали раздел “Tasks” с 3х уровневой иерархией — я бы с готовностью посмотрел в их сторону, благо дизайн и юзабилити меня откровенно радуют (хотя мелкие огрехи все равно есть, куда без них). Нечто похожее на задачи реализовано как Epics, хотя их нужно включить в настройках и предназначены они все-таки для другого. Подойдет : для команд дизайнеров, для команд программистов Обучение : не требуется Установка : простая Готовность к использованию из коробки: да Мобильное приложение: TaigaApp, функциональность — хорошая, однако реализация некоторых вещей вызывает вопросы. Например, почему Kanban-доска сделана выпадающими списками, а не, собственно, доской, как в мобильном приложении Trello. Также некоторые моменты можно сделать удобнее, например, заходя в карточку человека мы видим количество активных проектов, но нажать на них и увидеть проекты мы не можем, нужно раскрыть список ниже. В целом — пользоваться можно, хотя требует косметической доработки. Дополнительно ProjectLibre — несмотря на вид в стиле MS Project (или эксельной таблички) вполне удобен для использования, однако явно проигрывает Redmine по всем статьям. LibrePlan — примерно то же, что и ProjectLibre. Функционал есть, однако восторга не вызывает. Дизайн и юзабилити осталось в далеком 200N году. Agilefant не вызвал желания его рассматривать, ввиду очень ограниченного функционала. В конце концов... Скрипя зубами я-таки выбираю вариант доработки Redmine, прощайте гугл-таблицы и Trello. А утешительный приз я вручаю Taiga (ребята, сделайте достойные таски и я ваш, если конечно не успею допилить Redmine). Плюс я очень надеюсь что TaigaApp будет допилен и для простого пользования им не придется привыкать к некоторым ограничениям интерфейса. Также нельзя не посоветовать Openproject — хороший продукт, хоть и не для всех команд. Если что-то забыл или где-то ошибся, не стесняйтесь, тыкайте пальцем. И не стоит забывать что все вышенаписанное — субъективизм чистой воды от человека, который не является ни дизайнером, ни программистом, но обладает странной тягой к прекрасному.
https://habrahabr.ru/post/317552/
habrahabr
Колонны беспилотных грузовиков сохранят время и до 20% топлива
['беспилотные автомобили', 'грузоперевозки']
По прогнозам исследователей, беспилотные грузовики должны войти в транспортную систему в ближайшие годы. Они же предполагают, что автономные транспортные средства могут сэкономить топливо, если...
По прогнозам исследователей, беспилотные грузовики должны войти в транспортную систему в ближайшие годы. Они же предполагают, что автономные транспортные средства могут сэкономить топливо, если будут двигаться в колоннах по несколько грузовиков в каждой. Как стаи птиц или клины истребителей, группы байкеров и гоночных автомобилей, грузовики испытывают меньшее аэродинамическое сопротивление, когда движутся на близком расстоянии. Но создание колонны автомобилей для доставки грузов между центрами распределения или перевозка пассажиров между станциями требует времени. Автомобиль, который прибудет на станцию раньше, вынужден дожидаться других, прежде чем они сформируют колонну и отправятся в путь, что создает неизбежные задержки. Колонны грузовых автомобилей, которые едут вплотную друг к другу для достижения аэродинамической эффективности, могут сэкономить до 20% расходов на топливо. Чем больше автомобилей в одной колонне, тем выше эффективность: первый и последний грузовик в колонне не подвергаются эффекту аэродинамической тени. Инженеры Массачусетского технологического института (МТИ) обнаружили, что есть два эффективных варианта: либо формировать колонну автомобилей из тех, что уже есть, и отправлять по расписанию, либо отправить один раз определенное количество фургонов в одной колонне. Движение фургонов в непосредственной близости друг к другу повышает эффективность использования топлива. Колонны грузовиков, стай птиц и клины истребителей – схожие группы с системной точки зрения. Люди, которые изучают эти системы, смотрят только на показатели эффективности, такие как временная задержка и расход топлива. Ученые из МТИ рассматривают эти показатели в сравнении со стоимостью, расходом энергии и воздействия на окружающую среду. По их мнению это направление исследований может действительно повысить эффективность грузоперевозок. По словам инженеров, во время грузоперевозок, особенно на дальние расстояния, значительная часть топлива расходуется в том числе на попытки преодолеть аэродинамическое сопротивление. Ранее ученые подсчитали, что если несколько грузовиков будут ехать в нескольких метрах друг от друга, один за другим, машины в середине должны испытывать меньшее сопротивление, тем самым сэкономив 20% топлива. Те фургоны, что едут позади, должны сохранить около 15% топлива – немного меньше из-за воздушных потоков, которые образуются сзади. Колонна из пяти грузовиков сэкономит около 17% топлива по сравнению с грузовиками-одиночками, восемь автомобилей дадут 18% экономии и только с 15 фургонами в одной колонне эффективность достигнет 19%. Доцент кафедры аэронавтики и астронавтики МТИ Сертак Караман (Sertac Karaman) и его коллеги разработали математическую модель для изучения влияния различных политик планирования расходов топлива и задержек. Вместе они смоделировали простой сценарий, в котором несколько грузовиков перемещаются между двумя станциями и прибывают на каждую в случайные моменты времени. Модель включает в себя два основных компонента: формулу для представления времени прибытия транспортного средства и для прогнозирования потребления топлива. Группа наблюдала за тем, как время прибытия и потребление топлива меняется в двух стратегиях планирования: политике расписания, в которой транспортные средства, вне зависимости от их количества, формируют колонну и отправляются в определенное время; и политика обратной связи, когда грузовики отправляются в путь только тогда, когда наберется определенное количество автомобилей – стратегии, с которой Караман впервые познакомился в Турции. «Я вырос в Турции, где есть два вида общественного транспорта: обычные автобусы, которые ходят через определенные промежутки времени и другие, где водитель будет стоять на остановке, пока автобус не заполнится, а затем отправится в путь», — отмечает он. В процессе создания моделей движения колонн грузового транспорта исследователи проанализировали множество различных сценариев в рамках двух основных направлений стратегий планирования движения. Чтобы оценить влияние графика на движение, они смоделировали сценарии, в которых колонны отправлялись через равные промежутки времени, например, через каждые пять минут, и сравнивали их с вариантами при других интервалах – по три и семь минут. В соответствии с политикой обратной связи они сравнивали сценарии, в которых отправлялось разное количество машин – сначала три за раз, затем пять за раз. В конечном счете команда нашла оптимальное соотношение, при котором перемещение из одной точки в другую займет наименьшее время при сохранении большего объема топлива. Те колонны, которые ехали по определенному расписанию, оказались более эффективными чем те, которые были разнесены во времени. Аналогичным образом сценарии обратной связи, в которых сначала собиралось определенное количество грузовиков перед отправлением, были более оптимальными чем те, в которых количество грузовиков в колонне постоянно менялось. В ходе исследования также выяснилось, что политика обратной связи чуть более устойчива, чем стратегия с использованием расписания движения – с первой можно сэкономить на 5% больше топлива. Сейчас Караман работает с транспортными компаниями в Бразилии, где он создает для них модели эффективности грузоперевозок. Еще не окончательная ее версия предполагает движение автомобилей на очень близком расстоянии – от 3 до 4 метров, что позволит максимизировать аэродинамическую эффективность. Обычному человеку трудно выдерживать такую дистанцию за рулем грузовика, поэтому Караман предполагает, что потребуются автономные системы вождения. К сожалению, исследование не может охватить все аспекты грузоперевозок. В нем не рассматривалась реакция других автомобилистов, которые не являются частью колонны. Вполне вероятно, что водители не будут в восторге от движения в одном потоке с автономно управляемыми грузовиками, несмотря на то, что последние потенциально могут быть более безопасными. Беспилотные грузовики будут снабжены системой автоматического управления и алгоритмами безопасности на тот случай, если у них спущена шина или обнаружена неисправность. Первые автономные автомобили будут находиться под контролем водителей, но постепенно его роль в управлении сойдет на нет. Когда грузовики сильно разнесены таким образом, что при желании человек может проехать между ними – это одно. Однако сплошные стены из грузовиков протяженностью в несколько сотен метров обескураживает: колонна из 10 грузовиков с шагом экономии топлива в 3-4 метра растянется примерно на 230 метров.
https://geektimes.ru/post/283986/
habrahabr
Умные весы QardioBase: не только вес имеет значение
['qardiobase', 'умные весы', 'умные гаджеты', 'вес человека']
Smart-гаджетов становится все больше, и это, в общем-то хорошо, поскольку возможностей такие устройства предлагают немало. Умные часы, трекеры, пульсометры и, конечно же, весы помогают...
Smart-гаджетов становится все больше, и это, в общем-то хорошо, поскольку возможностей такие устройства предлагают немало. Умные часы, трекеры, пульсометры и, конечно же, весы помогают человеку понять, в каком состоянии находится организм во время тренировки, сна, обычной прогулки. Что касается умных весов, то пока что моделей таких устройств считанные единицы. Среди них выделяется модель QardioBase компании Qardio. Впервые девайс был представлен в январе 2015 года на CES, отгрузка же началась осенью того же года. Мы, Madrobots, получили эти весы одними из первых, и у нас была хорошая возможность их испытать в деле. Результаты испытаний — в этой статье. Основные функции перечислим сразу, а дальше уже будем оценивать дизайн, возможности, приложение и все прочее. Так вот, QardioBase, кроме веса, измеряют индекс массы тела (ИМТ) и полный набор показателей, которые определяют состав тела человека. Это процентное содержание жировой ткани, мышечная и костная масса, водный баланс. Есть даже режим работы для беременных — но об этом поговорим чуть позже. Ну а сейчас — подробности. QardioBase: дизайн На первый взгляд, QardioBase — весы с отличным дизайном. После детального ознакомления с устройством это мнение подтверждается. Весы будут гармонично смотреться практически в любой комнате с любым дизайном — хоть в зале, хоть в ванной. Их корпус — круг, покрытый закаленным стеклом. Под ним — светодиодный дисплей, который показывает результаты измерения. Дисплей в режиме ожидания невидим, изображение проявляется лишь во время выполнения измерений. QardioBase компактнее и легче стандартных весов. Если перевернуть устройство, увидим пластиковую основу. Здесь есть слот, куда вставляются батарейки (8 элементов питания ААА). Почему так много? Дело в том, что для работы устройства нужно всего 4 батарейки. Разработчики решили использовать интересную схему: когда садится первый модуль батареек (4 шт), начинает работать второй. В это время можно заменить батарейки в первом модуле без угрозы утери данных и сброса настроек, как это происходит с некоторыми другими умными весами. Восьми батареек хватит примерно на год использования, после чего можно их заменить или перезарядить, если вы используете аккумуляторы. Точность измерения достаточно высокая — расхождение при замерах, проведенных подряд, составляет не более нескольких десятков граммов. QardioBase: Возможности устройства Функций у этих весов довольно много. Причем здесь важную роль играет наличие дисплея. Например, когда вы наступаете на весы, они показывают улыбающийся смайлик — мелочь, а приятно. Смайлики разработчики решили использовать в качестве простой мотивирующей обратной связи. Если есть прогресс — показывается позитивный смайлик. Прогресса нет — смайлик нейтральный. Ну, а если пользователь двигается в обратном от установленной цели направлении, то весы расстраиваются, показывая грустный смайлик. Все это делает устройство как бы ближе к человеку. Как уже говорилось выше, QardioBase — это «умные» весы. Это означает, в частности, что они передают все данные в фирменное приложение. Если в доме есть Wi-Fi сеть, то все данные устройство будет передавать по беспроводной связи в “облако”. А уже приложение на мобильном устройстве будет получать данные из облака. То есть взвешиваясь, нет необходимости держать мобильное устройство поблизости, отправка данных измерения идет в автоматическом режиме. Если же Wi-Fi сети нет, то данные в приложение можно отправлять напрямую, по Bluetooth Smart. Узнать о том, что измерение было сделано и сохранено в приложении можно благодаря мягкой вибрации. Замеры жировой, костной и мышечной ткани проводятся благодаря наличию биоимпедансного датчика, который, измеряя электропроводность тела, позволяет понять процентное соотношение различных тканей и воды в организме. При замерах такого типа весам нужно контактировать с кожей человека, так что в носках взвеситься не получится. Биоимпедансный датчик можно отключить — это необходимо в случае, если весы используют люди с имплантированными кардиостимуляторами и дефибрилляторами. Что касается режима для будущих мам, то при его включении пользователь начинает отслеживать прогресс в развитии плода. Разработчики предусмотрели возможность добавлять к каждому измерению в приложении свое фото или даже результаты УЗИ, чтобы затем можно было вспомнить каждый шаг на этом пути. Конечно, если нет желания, то фотографии можно и не прикреплять – проблемы нет. Есть и поддержка нескольких профилей. Так что весы можно использовать всей семьей. Если есть риск неправильного срабатывания (в случае, если вес взвешивающихся пользователей похож), то весы на дисплее выводят список доступных профилей. Переключать варианты можно мягким нажатием ступней на поверхность весов. Результатами измерения можно делиться с друзьями или же отправлять информацию своему лечащему врачу. QardioBase: характеристики QardioBase: приложение Настройка весов при помощи приложения — достаточно простой процесс. Сначала, конечно, нужно скачать приложение, оно называется Qardio app. Затем пользователю необходимо создать аккаунт, включить весы, встать на них и следовать инструкциям. Устройство оснащено Wi-Fi модулем, так что данные по беспроводной связи все время передаются в облако, с которым синхронизируется приложение. Есть и Bluetooth модуль на тот случай, если нет доступа к сети, давая возможность синхронизировать данные напрямую. Результаты измерений отображаются и на дисплее весов, о чем говорилось выше, и в приложении. Программа показывает результаты как недавних измерений, так и журнал замеров за продолжительное время. Кстати, пользователь может в приложении задавать цели — например, сбросить вес до определенного параметра или нарастить мышечную массу. Интерфейс приложения интуитивно понятный, работать с программой можно без проблем. Есть различные разделы, где можно видеть обработанные результаты измерений в виде графиков или таблиц. Весы напоминают о необходимости регулярного взвешивания при помощи все того же приложения. Ведь если не следить за динамикой веса, зачем тогда вообще проводить измерения? Приложение можно настроить под себя, убрав какие-то элементы измерений (например, тот же индекс массы тела) в случае необходимости. Результаты замеров можно отправлять в Apple Health — весы совместимы с этой программной платформой. Если у пользователя есть тонометр QardioArm (обзор устройства мы уже готовим), то результаты измерений, сделанных при помощи этого девайса, будут тоже отображаться в приложении. И можно будет видеть связь между собственным весом и давлением крови. В сухом остатке QardioBase — минималистичные умные весы с продуманным набором функций и отличным приложением. С их помощью можно без проблем наблюдать за динамикой изменения собственного веса или других параметров организма. Возможность дополнения этих показаний результатами измерений тонометра QardioArm — еще один плюс в пользу работы с весами. Плюсы: Отличный дизайн; Простое и эффективное приложение; Легкая и простая настройка; Поддержка профилей нескольких пользователей; Интеграция с Apple Health; Точность измерений. Минусы: Требует сразу 8 ААА батареек. QardioBase: где купить? Купить QardioBase в России можно в нашем магазине .
https://geektimes.ru/company/madrobots/blog/283944/
habrahabr
[Бес]полезная гарантия? Как работает сервис русского бренда видеорегистраторов AdvoCam
['Видеорегистратор', 'DVR', 'AdvoCam']
Не так давно в течение нескольких месяцев мне довелось поработать «на телефоне» в техподдержке одного B-бренда мобильной электроники. Впечатления остались самые удручающие – у граждан в основной...
Не так давно в течение нескольких месяцев мне довелось поработать «на телефоне» в техподдержке одного B-бренда мобильной электроники. Впечатления остались самые удручающие – у граждан в основной массе полностью отсутствует понимание того, как и куда обращаться в случае выявления брака в технике, как работает сервис компании и т.д. В этом материале я вместе с руководителем сервисной службы русского бренда AdvoCam Андреем Молокановым расскажу вам, как обстоят дела с гарантийным обслуживанием у одной из отечественных компаний. «Если контора русская значит, нюхай плесневелую штукатурку в поликлинике и слушай ноющих полудохлых бабок. Сервиса ни**я нет, бл**ь. (с) Один из клиентов AdvoCam. Приветствую уважаемых читателей Geektimes! C вами снова Александр Шуб – ведущий российский эксперт-обозреватель тематики автомобильных видеорегистраторов. Мой стаж тестирования устройств данного типа составляет более пяти лет, а число пристально изученных моделей перевалило за две сотни. Я всегда с интересом читаю все без исключения комментарии к своим материалам, так как мне важна обратная связь с моими читателями. С одной стороны, я получаю критику статей и учитываю её в дальнейшей работе. С другой – узнаю, какие ещё вопросы интересуют и волнуют настоящих и будущих владельцев регистраторов. Порой читатели в комментариях сами подсказывают мне актуальные или наболевшие темы, требующие моего пристального изучения и уточнения непонятных моментов. За 2016 год у русского производителя видеорегистраторов AdvoCam вышло свыше пятисот публикаций на сайтах разного калибра, включая крупнейшие тематические ресурсы вроде Geektimes.ru или Mobile-review.com. Конечно, в комментариях не обходилось без негатива – как конструктивного, так и явно надуманного, «высосанного из пальца». Хотелось бы заметить, что при выборе товара потребители зачастую совершают распространённую ошибку – ориентируются исключительно на количество негативных отзывов и комментариев в сети. Казалось бы, что тут может быть неправильного? Но здесь, увы, работает обычная человеческая лень и банальная психология – столкнувшийся с проблемами в модели покупатель обладает огромным желанием высказать своё мнение о товаре как минимум в отзывах на сайтах в интернете. А если уж такой пользователь увидел целую статую о бренде, то непременно выскажется в комментариях. Что тем временем делает потребитель, у которого устройство работает «как часы», а про сервис остались исключительно положительные впечатления? Ничего. Скорее всего, он не станет тратить время, чтобы набирать восторженный комментарий где-нибудь на Яндексе. А если и прочитает материал о компании, то разве что подумает про себя «Отличные ребята, не зря выбрал их продукцию». И будучи довольным всем, кликнет, скорее всего, не будет писать в комментариях о своем сказочном удовлетворении продукцией бренда. Просто прочитает и… кликнет на ссылку следующей статьи. Помимо психологии, есть ещё и такая немаловажная вещь как статистика продаж. Представим ситуацию, когда есть два производителя. Первый продает за месяц, условно говоря, 1 000 устройств, второй – всего 300 штук. У первого уровень брака – 5%. У второго – 10%, в два раза больше. Как это будет представлено в интернет-пространстве? У первого бренда в силу высокого объёма продаж получаем 1 000 * 5% = 50 человек с желанием оставить негативные комментарии. У второго – 300 * 10% = 30 человек, готовых излить в сеть своё недовольство качеством продукции бренда. Сторонний наблюдатель по отзывам сделает однозначный вывод, у второй компании негатива меньше, значит продукт более качественный, надо брать! И ОШИБЁТСЯ! Ведь объективно устройства лучше у первого бренда – процент брака меньше, то есть, меньше вероятность нарваться на проблемы с купленным аппаратом. Именно так это работает. Увы, обычный потребитель не задумывается о подобных моментах при оценке того или иного продукта исключительно по абсолютному количеству негативных отзывов в интернете. Теперь обратимся к русским народным регистраторам AdvoCam. Я регулярно вижу отрицательные мнения о регистраторах данного производителя. При этом AdvoCam из года в год входит в ТОП-3 по объёмам продаж автомобильных «черных ящиков» в России. А это уже объективный показатель доверия покупателя и высокого качества продукции. Устройства компании охотно берут на реализацию магазины, бренд не один год представлен практически во всех крупнейших розничных сетях, чем могут похвастаться далеко не все конкуренты. А крупные розничные сети вряд ли бы стали стабильно, из года в год работать с товаром, у которого высокий уровень отказов, брака. Обычно удел низкокачественного ширпотреба – это исключительно рынки и интернет-магазины. С AdvoCam – ничего подобного, продукцией бренда торгуют практически все крупные торговые сети. Но вернемся ближе к тематике данного материала. Как раз ведущие площадки Рунета я люблю больше всего за бесценные комментарии читателей, которые в том числе неоднократно затрагивали работу сервиса AdvoCam по гарантийному и постгарантийному обслуживанию устройств бренда. Критичной точкой, побудившей меня написать эту статью, стала одна из последних публикаций – «От русских для российских условий: обзор актуальной линейки отечественных видеорегистраторов AdvoCam» . В ней читатель Mobile-review.com Владимир Златкин опубликовал ставший топовым комментарий, в котором описал проблемы купленного им регистратора AdvoCam-FD8 Gold GPS. В дальнейшей беседе выяснилось, что модель якобы отдавалась в сервис AdvoCam, где (по словам пользователя, далее цитата) «не желавшие разбираться сотрудники спустя рукава провели диагностику и не подтвердили явный брак». Из чего пользователь сделал закономерный вывод: «У нас в сервисе научились отлично притворяться шлангами». Подобные заявления я не мог оставить без внимания и предложил Владимиру обратиться на e-mail лично к ведущему инженеру русского производителя регистраторов, а по совместительству руководителю сервисной службы бренда AdvoCam — Андрею Молоканову. А меня попросил поставить в копию всей переписки с сервисом, чтобы я, как журналист, смог разобраться в сути проблем потребителя и объективно описать ситуацию всем заинтересованным. В дальнейшей переписке выяснилось… что модель НИ РАЗУ не была в сервисах AdvoCam. Кто же её чинил? Как оказалось, единственным местом дислокации регистратора на время ремонта был собственный сервис одной из крупнейших в России сетей бытовой электроники, в магазине которой и был приобретён злосчастный регистратор. И непосредственно в AdvoCam об инциденте никто не знал до момента появления комментария под моей статьей и моего же желания докопаться таки до истины и найти виноватого в проблемах рядового пользователя. В общем, мы с Андреем Молокановым решили сесть, побеседовать в подробностях и донести до пользователей кое-какую крайне полезную и важную информацию. Как в реальности организована работа сервиса AdvoCam, почему далеко не всегда непосредственно производитель отвечает за ремонт устройств, какие ошибки допускают клиенты в попытках «достучаться» до техподержки. Об этом и многом другом пойдет речь в данном материале. Далее полученная мной информация будет изложена в наиболее удобной для восприятия, на мой взгляд, форме – «вопрос-ответ». Подчёркиваю: ответы не являются прямой речью Андрея Молоканова, но содержат полученные мной сведения, а также личный опыт и любопытную сопутствующую информацию. Андрей Молоканов материал до публикации внимательно посмотрел, так что, со всем, мной написанным, он полностью согласен – ничего нигде я не переврал. Итак, поехали. Как же так вышло, что пользователь вашего регистратора Владимир Златкин заявлял о «бесполезных специалистах сервиса AdvoCam»: А выяснилось, что гаджетом занимались только работники торговой сети, продавшей читателю устройство? Неужели ремонтом проданных моделей бренда может заниматься кто-то помимо авторизованных официальных сервисов производителя? Дело в том, что обслуживать устройства может не только AdvoCam, но и сервисная служба продавца. Главным образом это касается крупнейших розничных сетей типа «Юлмарт» или «М.Видео». Внимательно посмотрите на чек покупки – там неспроста может быть указана информация о гарантийном обслуживании. Подобным образом как раз предпочитают действовать крупные сетевые магазины, которые организуют так называемую «гарантию по чеку». Как определить, куда же вам обращаться с проблемным устройством? Возьмите руководство пользователя вашей модели AdvoCam и откройте на последней странице. Если страница гарантийного талона заполнена по всем правилам, значит, продавец слагает с себя ответственность по сервису и всецело возлагает ремонт на AdvoCam. Если же талон выглядит вот так… …то есть он пуст, внимательно изучайте чек товара. Там с вероятностью 99,9% будет информация от магазина с указанием контактов собственного сервисного центра. Зачем это нужно розничным магазинам? Ведь так они снимают с бренда-производителя практически всю «головную боль» по гарантийному обслуживанию товара и берут обязательства на себя?! Во-первых, в глазах покупателя это делает продавца «круче». То есть, вас не отсылают в сервис бренда, а как бы проявляют заботу – мол, мы не будем гонять потребителя по непонятным адресам, а сами займемся решением ваших проблем. В отдельных сетях существует практика, когда по определенным группам товаров, тем же регистраторам, при обращениях по гарантии практически сразу же производится замена аппарата на новый. Это, опять же, имиджевый подход, чтобы сделать продавца более привлекательным в глазах покупателя и мотивировать приобретать в дальнейшем электронику или иные вещи именно здесь. А отремонтированные вещи затем, скажем, выставляются на продажу с уценкой. Или сдаются магазином обратно производителю. Который, например, потом разбирает поломанные устройства на запчасти. Во-вторых, взятие на себя гарантийных обязательств открывает отличные перспективы дополнительного заработка. Догадываетесь, какого? Правильно, речь о продаже дополнительной расширенной гарантии. Скажем, у «М.Видео» есть «Быстросервис» с весьма соблазнительными условиями. Мало того, что гарантия расширяется до 2, 3 или 5 лет, так вам еще и произведут замену на новый товар, если нынешний нельзя починить в течение трех дней. В зависимости от выбранного срока и цены аппарата, клиенту предлагается доплатить за расширенную гарантию до 42 000 рублей! Подозреваю, что для регистраторов консультанты-продавцы запросто убеждают покупателей купить допгарантию – скажем, для товаров за 5 000-9 999 рублей она стоит всего около 1 000 на два года. Я человек простой – знаю, что если не истекло 14 дней, можно обратиться в магазин и быстро обменять бракованный товар без проволочек на новый. Или вообще вернуть деньги обратно без объяснения причин. А все, что после 14 дней, – это уже по всем вопросам в сервис производителя. Для начала замечу, что видеорегистратор подпадает под категорию «сложного технического товара». Поэтому прийти в место покупки и быстро без аргументов вернуть деньги или произвести обмен на новое устройство не получится. Прежде следует получить заключение о наличии неисправности. А так как непосредственно продавец не обладает необходимой компетенцией для оценки и диагностики продукта, аппарат направляется для получения заключения либо производителю, либо в собственный сервис продавца. С другой стороны, часто покупатели не знают о следующей особенности. Согласно закону «О защите прав потребителей» (ЗоЗПП), вы вовсе не обязаны по прошествии 14 дней самостоятельно заниматься взаимодействием с сервисом бренда. В течение всего гарантийного срока потребитель имеет право отдать бракованный товар продавцу, которому придется самостоятельно «разруливать» все вопросы с сервисным центром. Об этом следует помнить в первую очередь, если в вашем городе фирменный сервис компании отсутствует, а товар приобретался, скажем, у местного интернет-магазина. В ЗоПП сказано, что оплата доставки туда-обратно даже в случае гарантийного ремонта ложится на плечи (точнее, кошелек) покупателя. Поэтому в целях законодательно подтверждённой возможности сэкономить на отправки поломанного аппарата в сервис обращайтесь с проблемным товаром к продавцу, а не к производителю. Есть одна лазейка касательно того, что по закону вы не можете вернуть «просто так» продавцу сложный технический товар надлежащего качества в срок 14 дней с момента покупки. Крупнейшие федеральные сети магазинов электроники как раз оставляют гарантийный талон пустым, чтобы покупатель мог возвратить товар без проблем в течение двух недель. Если же «гарантийник» заполнен – увы, регистратор надлежащего качества уже не вернешь. Только в случае брака и с проверкой-экспертизой через сервис. Подход крупных сетевых магазинов вроде бы достоин похвалы и на руку покупателю. В краткосрочной перспективе – да. А если с моделью первые пару недель все в порядке, но после вскроется реальный брак, который потребует помощь квалифицированных специалистов сервисного центра производителя? Вместо этого потребитель получит подконтрольный магазину собственный сервис без знания различных технических нюансов конкретной модели, доступа к оригинальной сервисной документации производителя и, что совсем уж печально, возможного отсутствия на складе необходимых запчастей. Вот мы и затронули больную тему – как у AdvoCam обстоят дела с сервисами по всей России? Или покупателям вне мегаполисов без отправки посылок никак не обойтись? Всего по стране у AdvoCam насчитывается чуть больше 120 сервисных центров, в которых можно отремонтировать продукцию AdvoCam. Важно – речь идёт именно о сервисах, в которых вы «на месте» получаете полноценный ремонт моделей. К примеру, местные специалисты при необходимости заказывают со склада центрального сервисного центра требуемые запчасти и самостоятельно производят замену бракованных или вышедших из строя деталей. Сервис-провайдером AdvoCam является компания «Скай Сервис». Это и есть всероссийская сеть авторизованных центров бренда, где пользователь получает квалифицированную помощь. Инженеры AdvoCam, если требуется, всегда приходят на помощь и консультируют своих коллег в других городах. Это выгодно отличает AdvoCam от большинства конкурентов. Только компании уровня Samsung могут позволить себе содержание своих сервисов по всей России. Менее крупные бренды в лучшем случае ограничиваются дюжиной городов, а жителям остальных населенных пунктов предлагают присылать устройства в Москву. Есть и другой вариант, когда компания также пользуется услугами сервис-провайдера с покрытием в 40-50 городов. Однако толку от этого никакого – полученные на ремонт аппараты всё равно отправляют в Москву. Как вы понимаете, с тем же успехом покупатель мог бы воспользоваться законным правом затребовать исполнение гарантийных обязательств напрямую у продавца. К слову, необходимость заказа запчастей из центрального московского сервиса – единственная небольшая, но все же ложка дегтя в региональной сервисной «бочке меда» AdvoCam. Как вы понимаете, любой регистратор – сложное техническое устройство с парой десятков наименований запчастей. Каждую запчасть в идеале сервису хорошо бы иметь в количестве 5-10 штук. На 120 сервисов выходит порядка 24 000 запчастей. Это на одну модель. А в активе AdvoCam – шесть аппаратов, три модификации (без GPS), одна IP-камера и один комплект видеонаблюдения. Затраты на логистику и организацию складского хранения на всех сервисных точках полного наименования полного перечня запчастей для всех моделей регистраторов бренда были бы грандиозными. А это, увы, означает заморозку значительного числа денежных ресурсов. Что привело бы к росту розничных цен на устройства – пострадали бы все потребители, в том числе и те, у кого никаких поломок не было и не случится. Хранить всю номенклатуру запчастей на всех точках обслуживания позволяют себе только крупнейшие международные бренды уровня Apple, причем не «для понта», а в силу высокого уровня продаж – iPhone’ов любой модели у нас продается в десятки раз больше, чем любой модели регистраторов. В случае iPhone типовые устройства продаются миллионами штук, что автоматически подразумевает широкую востребованность сервисных центров и целесообразность их своевременного снабжения запчастями. Впрочем, по запросу региональных сервисов московский склад AdvoCam всегда старается обеспечить максимально быструю доставку требуемых запчастей. Поэтому нет смысла пытаться отослать проблемное устройство в Москву – срок доставки и ожидание в очереди аппаратов будут либо сопоставимым, либо бОльшим в сравнении с местным ремонтом. Плюс учтите, что в Москве вашему устройству наверняка придётся отстоять более длинную очередь моделей на ремонт, чем в авторизованном сервисе в каком-нибудь менее крупном городе. С логистикой и с тем, кто за что отвечает по гарантии, разобрались. А что делать, если мною утеряны и гарантийный талон, и чек? В ЗоЗПП сказано, что отсутствие гарантийного талона и чека не является основанием для отказа принять товар в сервис: производитель обязан «принять товар ненадлежащего качества у потребителя и в случае необходимости провести проверку качества товара». Правда, как на практике реализуется этот механизм, знают далеко не все. Один из действенных способов – написание жалобы на имя руководителя сервисной организации (именно сервиса, где у вас отказались принять устройство). Как правило, уже на этапе угрозы о подготовке такой «бумажки» желание спорить у представителей сервисной точки резко пропадает. По-хорошему же нормальные производители, такие как AdvoCam, руководствуются следующей нормой закона. Если указанные документы утеряны и выяснить дату покупки не представляется возможным, гарантия исчисляется 15 месяцев с момента производства устройства. У AdvoCam между выпуском и появлением модели на полке продавца обычно проходит не более одного месяца. Так что, по сути покупатель ничего не теряет в сроках обслуживания. Общая очевидная рекомендация – сохраняйте документы на приобретение до конца гарантийного срока изделия. Ремонт – это долго и нудно, не желаю даже связываться с сервисом. Лучше напишу в комментариях, что вы продаете товары с качеством уровня «китайский ширпотреб» и приведу явно относящиеся к браку недостатки. И да, не буду уточнять, что я даже на горячую линию техподдержки не обращался, не то что отдавал модель в сервис. Помните, что от регистратора может зависеть, признают вас однажды виновным в ДТП или нет. Признавать открыто, что вы пользуетесь бракованным аппаратом, способным подвести в нужный момент, довольно странно. Что касается сроков ремонта – они, что вполне логично, зависят от сложности поломки. Проще всего с программными проблемами – сброс настроек, переустановка или обновление прошивки, форматирование карты памяти и так далее не требуют множества времени, максимум день-два. Если в случае выявления проблем с моделью вам лень даже позвонить в техподдержку – закажите обратный звонок , с вами свяжутся в будние дни с 10:00 до 18:00. В противном случае – если у вашего аппарата есть проблема, но вы ее упорно никак не хотите решать, кроме как жаловаться в комментариях к статьям – ну извините, тут вам никто не поможет. Два дня на переустановку прошивки??? Именно так. Не забывайте о такой вещи как очередность – ваш аппарат не единственный в сервисе и может оказаться в очереди на «прием» к специалисту. Сложности, как правило, возникают лишь в случае необходимости ожидать поставку определенного комплектующего. В таком случае срок действительно может растянуться до прописанных в законе 45 рабочих дней из-за логистики запчасти из Москвы в целевой российский город, откуда и поступил запрос сервиса. Россия – огромная страна с протяженностью 10 000 километров. Отправлять любую запчасть в отдаленные точки сервисов – да, это требует времени. Увы и ах! Если производить отправку самолетом или службами срочной доставки – затраты на сервис резко возрастают, что влияет на цену конечного устройства. И опять-таки потребители, у которых все работает, оплачивают из своего кармана некоторое количество проблемных клиентов в удаленных от Москвы регионах. В случае аппаратных проблем процедура ремонта выглядит следующим образом. В течение одного-двух дней проводится диагностика для выявления причин неисправности. Затем устраняется проблема и еще несколько дней делается «прогон» регистратора, чтобы инженер сервиса удостоверился в нормальной работе устройства. В случае программных проблем, как было сказано выше, ремонт займет максимум один-два дня. Стоит ли тратить время на ожидание ремонта, может лучше игнорировать проблемы (но при этом активно расписывать в комментариях под статьями AdvoCam) и спокойно себе ездить? Помните, что видеорегистратор – это ваш личный «черный ящик», который может понадобиться всего один раз в жизни. Но так, что в противном случае в отсутствие камеры вы можете потерять много денег и нервов. А в дополнение может так случиться, что «отдуваться» придется не только по административному, но и по уголовному кодексу. Так что я бы не рискнул выезжать на дорогу, не будучи уверенным в стабильной и безглючной работе автомобильной камеры. Впрочем, поступать ли вот таким образом, каждый решает сам. Все тот же пользователь пишет: «У меня нет уверенности что после ремонта там не заглючит что-нибудь еще. Обычный жизненный опыт — дешевые вещи часто себя так ведут». Цена модели далеко не всегда является показателем того, как она себя будет вести и какой результат покажет. Например, в вопросе стабильности работы тайваньские видеопроцессоры NovaTek ничуть не уступают продуктам американской Ambarella, более дорогим за счет «раскрученности» марки. Модель AdvoCam-FD Black на процессоре NovaTek стоит от 5 850 рублей. Устройство – хит продаж на протяжении почти двух лет и, по всей видимости, ещё долго не будет снято с производства. Модель прошла столько этапов усовершенствований, что у нее попросту не осталось слабых мест и источников критичных проблем. AdvoCam-FD Black на процессоре NovaTek – хитовый надежный бюджетник за 5 850 рублей. Или последний AdvoCam-FD One, модель конца 2016 года за 4 550 рублей. В устройстве установлен бюджетный процессор Generalplus 2159, о котором почти никто ничего не знает, но эта «жемчужина» показывает качество видеозаписи практически на уровне моделей с процессорами NovaTek. Разработчики убрали практически все дополнительные, второстепенные функции (вроде GPS-модуля). Но оставили главное – «железо», способное обеспечить высокое качество видео. То, ради чего, собственно, подавляющее большинство потребителей и покупает автомобильный регистратор. В итоге инженеры получили доступный аппарат с максимальным качеством съемки, который если бы был «нафаршированным» более раскрученным процессором и дополнительными функциями стоил бы не меньше 7-8 тысяч рублей. Собственно, AdvoCam-FD One и снимает на уровне регистраторов за 7-8 тысяч, но стоит при этом менее 5 000 рублей. AdvoCam-FD One – не менее надёжная сверхбюджетная модель за 4 550 рублей. Этот вопрос ещё будет затронут ниже, пока же скажу так. Если вы желаете максимально снизить вероятность получить бракованный товар, выбирайте пользующуюся спросом модель, которая присутствует на рынке минимум полгода с момента запуска в производство. Этого срока обычно хватает, чтобы производитель собрал обратную связь с покупателей, устранил все «детские болезни» и внес все критичные аппаратные и программные улучшения. То есть, по сути «допилил» бы модель, предельно снизив в последних партиях уровень отказов по сравнению с первыми партиями. Я написал на e-mail в техподдержку AdvoCam, в результате – ни ответа, ни привета! Это и есть хваленый российский сервис? Примерно с такой жалобой ко мне на почту обратился в июле 2016 года один из читателей Mobile-review. Пользователь написал на e-mail info@advocam.ru, получил ответ, отправил следующее письмо и… Тишина! Далее я обратился в сервис AdvoCam и получил ответ «Да мы ему писали и не раз, он похоже почту не получает (возможно, письма в спаме)». Ситуация в итоге благополучно разрешилась, а я решил озвучить некоторые советы и уберечь от проблем при обращении в сервис по телефону или через интернет. E-mail. Если вы ведете переписку со специалистом AdvoCam и давно не получали писем, то есть переписка оборвалась на полуслове, проверяйте папку «Спам». С высокой вероятностью ответ на ваше обращение будет именно там. Почтовые сервисы по-разному в зависимости от установок по умолчанию или настроек пользователей реагируют на письма. Особенно, как это нередко бывает, если в приложении содержится исполнительный или бинарный файл. Также почтовые сервисы очень любят выборочно отправлять в «Спам» первое письмо новых адресатов. Подобное происходит нечасто, но все же имеет место быть, с чем я лично порой сталкиваюсь. Звонок на «горячую линию». Не далее как в ноябре 2016 года в сервис AdvoCam поступило следующее письмо, цитирую с сохранение авторской орфографии и пунктуации, только запикиваю звёздочками откровенные выражения и красный цвет шрифта заменю на черный: «На ваш горячий телефон х** дозвонишься, надо прийти и наклей нах** приклеить телефоны бл**ь к ушам. За***ло, третий день звоню, до п**ды, ни техподдержка ни опт ни**я не отвечают на звонки. На**й я связался с вашими регистраторами? Если контора русская значит, нюхай плесневелую штукатурку в поликлинике и слушай ноющих полудохлых бабок. Сервиса ни**я нет, бл**ь. Без уважения, *** ***, +798*** Перезванивайте уже бл**ь скорее, зае***и». Действительно, клиенту никто не ответил на два звонка – потому как один был сделан в субботу, а второй – в понедельник в восемь часов утра. Тогда как в разделе контактной информации на сайте AdvoCam указано, что единая справочная служба работает с 10:00 до 18:00 с понедельника по пятницу. Либо вы можете заказать на сайте обратный звонок , при первой же возможности оператор свяжется с вами. Что и было сделано сервисной службой AdvoCam в приведённом выше случае. Уточню, что сервис работает в Москве – по Московскому времени. А звонивший, видимо, набирал номер в разгар рабочего дня – но по Владивостокскому времени, когда в Москве было ранее утро. Понятно, что ему никто не ответил. Форма обратной связи. На сайте бренда также можно заполнить форму , где следует представиться, указать контакты, описать проблему и ожидать звонка инженера. Здесь возникают две проблемы. Во-первых, вам могут не перезвонить. Почему? Связь-то односторонняя, потому если в блоке «Как с вами связаться» пусто, специалист никак не сможет до вас «достучаться». Во-вторых, чуть ли не 30% обратившихся считают форму обратной связи лишь поводом к обстоятельной переписке или длительному диалогу. Типичное сообщение: «Здравствуйте, у меня регистратор AdvoCam, есть проблемы с записью». Сотруднику техподдержки приходится писать/звонить и выпытывать все подробности вместо того, чтобы сразу прийти к пользователю с готовым решением. Лучше всего, если в форме обратной связи владельцем аппарата будет предоставлена следующая информация: полное название модели, ее серийный номер, версия прошивки, сведения о карте памяти. И, конечно, развернутое описание проблемы. Именно развёрнутое описание. Сразу, в первом обращении. А не просто «У меня ничего не работает». То, что люди обращаются в сервисные центры, хоть на что-то влияет? AdvoCam работает над улучшением качества своих продуктов? Даже крупнейшие производители электроники не в состоянии предусмотреть и исключить все ошибки и глюки-баги своих устройств. Которые варьируются порой от важных программных недоработок до самопроизвольного взрыва аккумулятора. Напомню, «костяк» AdvoCam – это специалисты с почти 20-летним стажем в сфере разработки и производства профессиональных систем видеонаблюдения. В России на собственном заводе в городе Александров Владимирской области осуществляется предсерийная тестовая сборка всех моделей бренда. Образцы каждой новой модели трясут на вибростендах сутки напролет, испытывают в температурных камерах на устойчивость к экстремальным условиям эксплуатации. В общем, всячески готовят к русским реалиям. Всё это вкупе с опытом инженеров AdvoCam позволяет максимально избегать ошибок и проблем уже к моменту подготовки новинок к крупносерийному производству. Тем не менее, как это заведено у компаний любого калибра, после выпуска устройств проводится сбор обратной связи – от сервисов, пользователей, продавцов. Как правило, на выявление всех скрытых «косяков» уходит 3-6 месяцев. Если проблемы некритичны и касаются софта, обычно прошивка «выкатывается» после накопления некоторой массы исправлений. Ведь не будешь же предлагать «обновку» после исправления каждого незначительного бага. В любом случае после поступления сигнала специалисты проверяют, носит ли проблема массовый характер, или же это единичный случай отдельно взятого пользователя. И устанавливают приоритет устранения. Потребителю после выхода обновления нужно лишь скачать архив с сайта AdvoCam ( отсюда , либо со страницы-описания модели), распаковать и скопировать на карту памяти и вставить в регистратор – прошивка установится автоматически. При покупке регистратора, как и в случае приобретения любого технически сложного устройства, следует понимать, что выбор аппарата — это палка о двух концах. Если вы желаете получить самый-самый современный и технологически продвинутый продукт, то в любом случае станете невольными бета-тестером, даже если речь идет об устройствах компаний уровня Apple. По первым партиям новинок производитель собирает отзывы, вносит «правки», устраняет ошибки/проблемы и улучшает изделие. Чтобы с наиболее высокой вероятностью не оказаться в рядах таких «тестировщиков» – лучше присматриваться к моделям, которые вышли полгода-год назад. В случае, если к тому же аппарат пользовался значительным спросом, наверняка и в сервисе не возникнет задержек с ремонтом – запчастей будет предостаточно. Однако покупая модель с такой задержкой относительно времени появления в продаже, вы получаете далеко не флагманскую спецификацию и не самое современное в технологическом плане устройство. Зато уже отработанное, все «детские болезни» в котором производитель вылечил. Если говорить о моделях AdvoCam, только AdvoCam-FD One и AdvoCam-FD8 Red-II GPS+ГЛОНАСС были выпущены осенью 2016 года. AdvoCam-FD One еще наверняка предстоят улучшения и доработки. Потому, что в продаже он появился только осенью 2016 года. Кстати, на фотографии обратите внимание – на плату нанесено название бренда, а в артикуле – название модели. Это 100% признак авторской русской разработки AdvoCam, а не брендирования китайской готовой модели (так называемый ОЕМ). А ниже – пример крупного и известного у нас в стране тайваньского бренда. У аппарата которого на плате удалось обнаружить лишь указание китайского завода-изготовителя (а, скорее всего, и разработчика?). По моему опыту, подобное «указание авторства» встречается на основной массе продаваемых в России регистраторов. Завод-производитель указан на материнской плате, а компания, чье название красуется на корпусе модели – нет. Вернемся к AdvoCam. Все остальные устройства актуальной линейки присутствуют на рынке от полугода и дольше, а потому в них уже «пофиксили» основные проблемные моменты. Упомянутый выше хитовый бюджетник AdvoCam-FD Black и вовсе вышел в марте 2014 года и, по словам бренда, за прошедшее время «допилен как только можно». В «старожилы» можно записать и AdvoCam-FD8 Red-II GPS+ГЛОНАСС, так как он по сути создан на базе выпущенного в 2013 году хитового AdvoCam-FD8 Profi RED. В обновленной версии установлена более современная матрица OmniVision 4689, вместо пятилинзового – шестилинзовый стеклянный объектив, а односистемную GPS-антенну заменили гибридной GPS/ГЛОНАСС. В остальном как корпус, так и элементная база остались прежними. Так что, аппарат уже достаточно «вылизан» и отработан. Вывод Подытоживая, я бы дал читателям следующие рекомендации касательно гарантийного обслуживания видеорегистраторов AdvoCam. 1. Если последняя страница инструкции к регистратору не заполнена, то, скорее всего, на чеке будет указано, что гарантийные обязательства берет на себя непосредственно продавец и подконтрольный ему сервис. В таком случае специалисты AdvoCam не ремонтируют ваше устройство. Тем не менее, в случае халатного на ваш взгляд исполнения продавцом устройства ремонта по гарантии обращайтесь на горячую линию бренда AdvoCam — 8(800) 333-92-70 или на e-mail info@advocam.ru. В случае обращения по почте можете смело меня ставить в копию – буду помогать разбираться в ситуации. Если же вы хотите гарантированно получить право обращаться по возникшим проблемам к максимально квалифицированным по продукции бренда специалистам (а «универсалам» из сервиса розничного магазина), требуйте у продавца при покупке регистратора заполнения гарантийного талона. Продавец не имеет права вам в этом отказать. 2. Вы не обязаны самостоятельно заниматься отправкой устройства в сервис. На протяжении всего периода гарантии (в том числе, когда гарантийным талон AdvoCam заполнен) разбираться с бракованным устройством и брать на себя доставку аппарата в официальный сервис должен непосредственно продавец. Ваша задача – лишь отдать продавцу проблемный гаджет. 3. Если вы наблюдаете признаки брака в аппаратной или программной работе регистратора, незамедлительно обращайтесь в сервис AdvoCam. В среднем срок ремонта не превышает нескольких рабочих дней и, как правило, может затягиваться лишь по причине ожидания прихода запчастей из московского центрального в региональный сервис. Это выгодная «сделка» в сравнении с регистратором, который может подвести вас в самый важный момент. 4. Даже если утерян гарантийный талон и чек, вы все равно можете обратиться в сервис AdvoCam. Однако в таком случае срок гарантии будет составлять 15 месяцев с момента выпуска вашего экземпляра модели. 5. Если вы обратились на электронную почту AdvoCam и не получили ответа – проверьте папку «Спам». Если вы отправили сообщение на сайте бренда через форму обратной связи и не получили ответ – вспомните, указывали ли телефон или иные контактные данные. Наконец, если по телефону «горячей линии» никто не отвечает – проверьте, звоните ли вы в рабочие часы. Если же на ваши письма по e-mail и через форму обратной связи не отвечают, никто не берет трубку и не перезванивает (вдруг вы «самый везучий» пользователь), пишите мне на schub.alexandr@yandex.ru – буду брать ситуацию под личный контроль. Надеюсь, информация от меня и руководителя сервисной службы русского производителя видеорегистраторов AdvoCam Андрея Молоканова была полезной для вас и поможет при обращениях в сервисы бренда. Если у вас есть дополнения, замечания или вы хотите поделиться личным опытом сдачи видеорегистраторов в сервис – обязательно пишите в комментариях! P.S. Напоминаю читателям – по вопросам выбора регистраторов или иным моментам тематики автомобильных регистраторов не стесняйтесь обращаться ко мне лично на мою личную электронную почту schub.alexandr@yandex.ru. Отвечаю каждому, кто мне пишет. Ещё раз благодарю всех за внимание к моим статьям!
https://geektimes.ru/company/advocam/blog/283982/
habrahabr
Несчастное будущее человека проявляется в трёхлетнем возрасте
['дети', 'преступность', 'успех в жизни', 'умственное развитие']
Недостаток умственного развития в детстве — сильный индикатор проблем во взрослой жизни. Фото: Reuters/ Michaela Rehle Говорят, что судьбы не существует, а каждый человек сам хозяин своего...
Недостаток умственного развития в детстве — сильный индикатор проблем во взрослой жизни. Фото: Reuters/ Michaela Rehle Говорят, что судьбы не существует, а каждый человек сам хозяин своего счастья. Мол, если упорно трудиться, то обязательно добьёшься успеха в своём деле. К сожалению, многочисленные исследования раз за разом показывают, что будущее человека сильно зависит от его детских способностей. Например, в США уровень школьных оценок и стандартных тестов хорошо коррелирует с будущим успехом в жизни . А вот IQ ребёнка гораздо слабее влияет на будущее, чем добросовестность, усердие, и самодисциплина (то есть главные факторы для получения хороших оценок в тесте). У умных детей шанс добиться успеха, то есть высокого дохода, всего на 1−2% выше , чем у глупых. Как выясняется, среди детей можно определить не только будущих учёных и академиков, руководителей крупнейших корпораций и миллиардеров, но и будущих «неудачников», которые будут безработными, совершать преступления или хронически болеть. Это видно с трёх лет. 40-летнее долговременное исследование жизненных успехов людей с младенческого возраста показало, что будущих неудачников можно распознать практически с пелёнок. Ключевые факторы — умственные способности ребёнка, коммуникационные способности и поведенческие тесты. Авторы научной работы надеются, что их труд поможет исправлять судьбы людей, корректируя их развитие с пелёнок, а вовсе не послужит для «отбраковки» детей по внешним факторам. Они показывают, что помощь в развитии определённых способностей в детстве реально помогает человеку. Да и всему обществу, ведь снижение преступности и заболеваемости выгодно для всех, поскольку уменьшает налоговую нагрузку и повышает уровень жизни всех окружающих. Поэтому политики, по идее, крайне заинтересованы в развитии способностей маленьких детей — это именно то, что в будущем сделает жизнь в стране безусловно лучше. Это идеальная долговременная инвестиция в наше будущее. Данное долговременное исследование закладывает фундаментальную научную базу для тезиса о том, что детские навыки определяют будущее человека, его здоровье, занятость и экономический успех. В рамках этой работы учёные проанализировали имеющийся 40-летний массив данных о развитии поколения людей, родившихся в одном городе Денидин (Новая Зеландия). В исследовании участвовали 1037 человек, родившихся в 1972-1973 гг (Dunedin Multi­disciplinary Health and Development Study). Сейчас эти людям по 42-44 года, так что можно сделать определённые выводы. 40-летний массив данных служил материалов для различных исследований, но сейчас авторы изучили его новым способом: с помощью сегментации населения. Им удалось выделить конкретный сегмент (22% выборки), на которых приходится значительная часть негативных эффектов, свойственных «неудачникам»: травмы с выплатами по страховке (36% всех страховых выплат в выборке); лишний вес (40%); курение сигарет (54%); получение социальных выплат (66%); неполные семьи (77%); получение фармацевтических рецептов (78%); уголовные преступления (81% от общего количества). Особенно показательна статистика по уголовным преступлениям: 22% детей совершают 81% всех преступлений, когда вырастут. В общем-то, в таком распределении нет ничего удивительного, потому что оно соответствует распределению Парето в теории вероятностей (20% детей — 80% преступлений). Главное то, что учёным удалось изолировать конкретные факторы для этих 20% детей. Эти результаты довольно интересные. Ведь они вовсе не означают, что улучшение способностей детей автоматически приведёт к снижению безработицы, преступности и т.д. Ведь если подтянуть самых отстающих до среднего уровня, то в статистической выборке появятся другие 20% отстающих, и так до бесконечности. 20% отстающих будут всегда. И вполне возможно, что уже именно на их долю будет приходиться большинство безработных и преступников в будущем. Просто преступники и безработные станут более образованными, способными и талантливыми, чем раньше. Но кто сказал, что их станет меньше? В конце концов, эти предположения косвенно подтверждаются самими учёными. Они разделили разные социальные группы на новые подгруппы. Выячснилось, что среди самых бедных существуют те же самые 20% наименее талантливых детей, на которых потом приходится 80% преступлений. И в самой богатой социальной группе тоже есть те 20% детей, на которые потом приходятся 80% преступлений. Эта группа «будущих преступников» характеризуется теми же признаками: более низкими умственными способностями, по сравнению со сверстниками из своей социальной группы, более низкими результатами когнитивных и поведенческих тестов. Учёные делают логичный вывод, что мы не в силах значительно улучшить социальное положение семей с маленькими детьми, зато в наших силах улучшить их умственное развитие. Возможно, это поможет. Психологи высказывают разные теории, почему низшие 20% детей становятся «отбросами общества» в будущем. Одна из теорий гласит, что это связано со школьным опытом. Плохая успеваемость в школе и негативный школьный опыт готовят детей к такой судьбе в будущем — по окончании школы они уже готовы сражаться с системой. «Они прогуливают школу, выпускаются без подготовки, не могут найти работу и скатываются в низшие слои общества», — объясняет профессор психологии и неврологии Терри Моффитт (Terrie Moffitt), ведущий автор исследования. Научная работа опубликована 12 декабря 2016 года в журнале Nature Human Behavior (doi:10.1038/s41562-016-0005).
https://geektimes.ru/post/283990/
habrahabr
Умный дом на .NET — релиз ThinkingHome 3.0
['умный дом', 'домашняя автоматизация', 'thinking home', 'noolite', 'управление светом', 'mqtt']
Привет! Сегодня я наконец-то могу поделиться с вами результатами своей работы на протяжении последних двух лет! Вчера вечером я выпустил новую версию 3.0 системы управления умным домом...
Привет! Сегодня я наконец-то могу поделиться с вами результатами своей работы на протяжении последних двух лет! Вчера вечером я выпустил новую версию 3.0 системы управления умным домом ThinkingHome . ThinkingHome — это программа (.NET Windows service), с помощью которой вы можете организовать на своем компьютере управляющий центр умного дома. Это центр, который дружит между собой "железки" с разными интерфейсами от разных производителей, позволяет автоматизировать работу с ними (писать скрипты на JavaScript) и управлять всем этим хозяйством через веб-интерфейс. Под катом более подробное описание системы, список изменений в новой версии и небольшое объявление для тех, кто ненавидит Windows :) Платформа ThinkingHome — не просто программа, управляющая устройствами! Это платформа, на основе которой вы можете реализовать (в виде плагинов) любой функционал, доступный для компьютера, при этом не заботясь о решении базовых задач, вроде логирования или сохранения данных между запусками системы. Вам доступны: Система плагинов — отвечает за подключение плагинов и их взаимодействие (плагины могут использовать API и подписываться на события друг-друга). Это значит, что вы можете подключить себе плагин, который написал для себя другой человек и этот плагин будет совместим с вашими плагинами. Плагины пишутся на языке C#. API логирования — позволяет писать информацию в лог и гибко настраивать хранение логов. Например, вы можете хранить логи в текстовых файлах в течение месяца и при этом сообщения о критичных ошибках дополнительно отправлять на почту. Внутри используется NLog . API хранения данных в БД — вы просто пишете классы на C# и сохраняете их в БД (используется NHibernate в качестве ORM). Для миграции структуры БД — ecm7migrator . Инфраструктура HTTP API — вы можете пометить метод своего плагина специальным атрибутом и он станет доступен для вызова по HTTP. Инфраструктура веб-интерфейса — ваш плагин может добавлять в систему собственные типы виджетов для стартового экрана или даже новые разделы интерфейса. Клиент-серверная шина сообщений — вы можете пушить сообщения с сервера на клиент или с клиента — всем остальным клиентам. Например, при получении нового значения температуры с датчика вы можете отправить его во все браузеры (!), в которых открыт веб-интерфейс системы, чтобы они обновили графики температуры на уже открытой странице. Внутри шины сообщений используется SignalR . API локализации — позволяет вам отображать интерфейс на нескольких языках и гибко это настраивать. Ядро системы и все базовые плагины поддерживают русский и английский языки. В комплекте идут готовые плагины: Плагин сценариев добавляет в систему сценарии — небольшие программы на языке JavaScript, которые пишутся через веб-интерфейс. С их помощью можно реализовать любую логику по автоматическому управлению домашними устройствами (для этого в сценариях доступен API плагинов). Например, вы можете написать сценарий, который автоматически выключает теплый пол и свет во всем доме, если днем больше часа не срабатывал ни один датчик движения. Редактор сценариев выглядит примерно так: Плагин MQTT — тут всё просто: вы можете получать данные от других устройств и отправлять им команды по протоколу MQTT. Например, этот протокол поддерживает контроллер Wiren Board . Плагин nooLite позволяет управлять электроприборами с помощью системы nooLite . Можно управлять освещением, вентиляцией, теплым полом и любыми другими электроприборами. Даже чайником :) Плагин микроклимата собирает и сохраняет в БД информацию о температуре и влажности с датчиков nooLite . Данные отображаются в виде графиков в веб-интерфейсе. Выглядит примерно так: Плагин будильник/таймер позволяет включить в заданное время звуковой сигнал или выполнить заданный сценарий. Например, можно настроить, чтобы в 8 утра жалюзи во всем доме сами открывались, а в 22 часа — сами закрывались. Плагин прогноза погоды — отображает в веб-интерфейсе прогноз погоды для заданных городов. Информаця о погоде загружается из OpenWeatherMap API . Результат выглядит примерно так: Что нового? В новой версии мы сделали большое количество новых доработок. Кроме того, были полностью переписаны многие части системы, чтобы увеличить скорость работы и сделать более удобный API. Основные изменения: новая тёмная тема оформления ( раньше было так ); новый интерфейс стартовой страницы (удобно настраивается через редактор); виджеты и API nooLite для стартовой страницы; полноэкранный режим для редактора сценариев; поддержка нескольких языков (см. выше); поддержка протокола MQTT (см. выше); клиент-серверная шина сообщений (см. выше) + уже используется в виджетах; полностью переписано ядро веб-интерфейса; API для запуск перидодических действий на клиенте доступен chart.js (средство для отображения графиков); переподключение к приемникам nooLite, если приемник был недоступен, потом снова стал доступен; ускорен старт сервиса; и множество более мелких доработок. Документация Чтобы постороннему человеку хоть как-то возможно легче было разобраться со всеми этими штуками, мы написали документацию . Мы очень старались описать всё подробно и понятно! В результате получилось почти 50 страниц текста (если распечатать на А4) и больше сотни примеров кода (мы писали это почти 3 месяца). Результат выложен на сайте http://system.thinking-home.ru . Для тех, кто ненавидит Windows Исторически так сложилось, что проект был написан на C#. В принципе, это неплохой вариант, учитывая количество готовых библиотек и очень высокое качество средств разработки. Однако, у этого варианта есть существенный (для многих — критичный) недостаток — приложению нужен .NET Framework, который работает только под Windows. Так было до недавнего времени, но сейчас ситуация изменилась. Летом зарелизился кросс-платформенный .NET Core, а в ноябре вышла его версия 1.1. Мы рады сообщить, что уже начали портировать ThinkingHome на .NET Core. Разработка ведется в отдельном репозитории . Весь код пишется на маке и тестируется в macOS и linux. Сейчас уже портировано ядро системы и часть базовых плагинов (таймеры, работа с БД, сценарии). При портировании значительная часть кода полностью переписывается. Определенно новая версия будет значительно лучше старой в плане архитектуры, API и производительности. Если вы вдруг хотите поучаствовать, мы будем рады любой помощи! (А если не хотите участвовать, всё равно зайдите на github и кликните по звездочке :) Вместо заключения Очень много хотел рассказать, не уверен, что всё получилось понятно. Буду рад ответить на вопросы в комментариях. Попробуйте установить приложение и написать собственные плагины . Создайте issues , если найдете ошибки и присылайте пулл реквесты . Добавляйтесь в нашу группу вконтакте , чтобы быть в курсе новостей проекта. Мне будет очень приятно, если вам понравится! UPD: 24.12.2016 20:00 Исправил недочет в дистрибутиве. Те, кто скачал дистрибутив, пожалуйста, скачайте заново.
https://geektimes.ru/post/283958/
habrahabr
Обзор аудиоплеера HIFIMAN HM901U
['плеер', 'HiFiMAN', 'HM901U']
Аудиоплееры компании HIFIMAN знакомы многим аудиофилам. Одни считают их лучшими в своем классе, другие — неоправданно дорогими, третьи смотрят как на забавную диковинку за много денег. Вообще точка...
Аудиоплееры компании HIFIMAN знакомы многим аудиофилам. Одни считают их лучшими в своем классе, другие — неоправданно дорогими, третьи смотрят как на забавную диковинку за много денег. Вообще точка зрения любителей качественного воспроизведения музыки очень сильно разнится во взглядах на аппаратуру, а многие категоричные утверждения базируются лишь на доводе «я художник, я так вижу». Но в одном многие сходятся: HIFIMAN старается выпускать продуманные и качественные устройства, внося с течением времени доработки и устраняя выявленные недостатки. Плеер HM901U позиционируется как улучшенная версия модели HM901 («U» от слова «upgrade»). В эпоху тачскинов, сенсорного управления и миниатюризации такой неоправданно большой и малофункциональный девайс для простого обывателя выглядит странно, но это лишь добавляет интриги: что ожидать от столь крупного и узкопрофильного устройства? Упаковка без излишеств — картонная коробка черного цвета с золотистым лого производителя: К плееру прилагаются зарядное устройство и аксессуары. Зарядка двухполюсная (±8,4 В) и с фирменным разъемом. От гнезда USB HM901U не заряжается. Список аксессуаров скромный: кабель-переходник, отвертка с четырьмя винтами, microSD карта на 4 Гбайт с переходником. HM901U даже по меркам «аудиофильских» плееров крупноват (117 х 72 х 28 мм), но предшественник был не меньше. По словам производителя, HM901U  — улучшенная в плане качества звучания версия HM901. Основа электронной начинки — пара ЦАП ES9018, операционные усилители 2OPA627 и OPA2107. Органы управления, их взаимное расположение, диагональ экрана — все перекочевало с предшественника. Солидным весом почти в 300 грамм плеер обязан батарее — вес литиевого аккумулятора составляет почти треть от общего. Как можно узнать из маркировки, источник питания двухполярный. Этим объясняется невозможность быстрой зарядки от USB и предпочтение в пользу крупного зарядного устройства — время полной зарядки составляет около 5 часов. Сколько потребовалось бы на «заправку» аккумулятора от USB с учетом потерь на сложном преобразователе и ограничение в 2,5 ватта (все-таки USB 3.0 ещё редки), даже сложно представить. Под батареей расположен отсек со съемной платой усилителей: Для демонтажа печатной платы нужно лишь отодвинуть пружинный фиксатор в углу. Идея менять усилители по собственному вкусу очень хороша, так как дает возможность подстроить плеер под собственные вкусы и наушники. При заказе плеера у производителя есть возможность выбрать комплектную плату усилителя. В описываемом экземпляре установлена плата «Power» с выходной мощностью 90 мВт. Всего в ассортименте не менее шести съемных «модулей», значительно отличающихся характеристиками: Все воспроизводимые файлы предлагается хранить на SD-карте, вместимость которой может достигать 256 Гбайт. По современным меркам более чем достаточно, а быстрый процесс замены позволяет носить с собой фонотеки под разное настроение и задачи. На правом торце расположены движковые органы управления: включения, уровня сигнала, Hold; никуда не делось традиционное отверстие для сброса. Восьмипозиционный аналоговый регулятор громкости очень удобен в использовании, причем как тактильно, так и на слух. К программному обеспечению плеера лишь одно мелкое нарекание: долго загружается. В остальном оно очень подходит под общий стиль HM901U: простое как палка и предельно понятное. Главное меню состоит из десяти пунктов: Текущее воспроизведение — смысл явствует из названия: Надо отметить, что отсутствие тачскина нисколько не сказывается на удобстве управления. Так, перемотка с помощью кнопок проходит почти так же быстро, как и тычок пальцем в нужном месте прогресс-бара. Избранное — без комментариев, наиболее «приоритетные» треки. SD-карта — отображает все содержимое карты памяти: Исполнитель, альбом, жанр — сортировка музыки по соответствующим критериям: Пункт «Все песни» похож на «SD-карта», но без иерархии каталогов: Пункт «S/PDIF выход» предлагает лишь одно действие — вкл/выкл; то же касается «Извлечь SD-карту». В «настройках» сосредоточены все основные опции, коих немного: Каких-либо расширенных возможностей вроде многополосных эквалайзеров, эффектов и прочего в ПО не предусмотрено. Одним такой аскетизм не понравится, другим придется по вкусу; дело личных предпочтений. Считать отсутствие развесистого древа настроек недостатком не следует. Ещё несколько настроек: В работе HM901U удобен и приятен, особенно если есть просторный карман для ношения; впрочем, при таком качестве звука значительные габариты большим минусом не являются. Металлический корпус приятно лежит в руке и с легкостью переносит будни повседневного обращения. Крупные кнопки и регуляторы позволяют управлять работой наощупь, не вынимая устройство из сумки. Аккумулятора хватает на заявленные 9 часов или чуть больше, если громкость не переваливает за среднюю отметку. Качество звука отличное. Тестировался плеер совместно с наушниками Edition X и Edition S , произведенными той же HiFiMAN. Ввиду значительных различий конструкции наушников впечатления разные, но сугубо положительные. Особенно порадовала возможность тонко настраивать громкость, отсутствие искажений в сложных сценах, хорошая детализация. На сайте производителя есть раздел «где послушать», коим настоятельно советуем воспользоваться. HM901U — тот случай, когда однократное прослушивание дает больше, чем два-три абзаца описаний звучания, изобилующих терминами электроакустики. Технические характеристики HiFiMAN HM901U Цифро-аналоговый преобразователь: 2x ES9018 Операционные усилители: 2x OPA627, 2x OPA2107 Диапазон воспроизводимых частот: 20 Гц — 20 КГц Уровень помех (линейный выход): 0,008% Соотношение сигнал/шум: 106 дБ Поддерживаемые форматы: MP3, AAC, WMA, OGG, APE, WAV, FLAC, AIFF, ALAC(M4A), DSD(DFF) Карты памяти: SD, до 256 Гбайт Регулятор громкости: аналоговый Карта усилителя: 90 мВт выходной мощности, сигнал/шум 104 дБ, уровень помех менее 0,03% Время работы от аккумулятора: 9 часов Материал корпуса: металл Габариты: 117 x 72 x 27 мм Вес: 294 г
https://geektimes.ru/company/hfhe/blog/283988/
habrahabr
Кошмар перед новым годом: что нужно знать про рак
['рак', 'здоровье', 'генетика', 'медицина', 'медицина будущего', 'ДНК']
По данным Всемирной организации здравоохранения, за 2012 год в Европе, СНГ, Прибалтике, Турции и Израиле среди всех причин смерти рак составлял 22 %. По количеству летальных исходов этот мрачный...
По данным Всемирной организации здравоохранения , за 2012 год в Европе, СНГ, Прибалтике, Турции и Израиле среди всех причин смерти рак составлял 22 %. По количеству летальных исходов этот мрачный рекорд могут побить разве что сердечно-сосудистые заболевания. Эта страшная статистика широко известна. Тема онкологических заболеваний – одна из самых горячих в науке. Эту область изучают клеточные биологи, генетики, молекулярные биологи, биоинформатики и даже экологи. Абитуриенты, студенты биологических и медицинских факультетов, а также некоторые великие ученые по-прежнему мечтают найти «лекарство от рака». The game is on. Мир замер в ожидании спасительного решения. Ученые уже включили бензопилу CRISPR/Cas9, и анализируют ДНК опухолей. То тут, то там возникают новые препараты. Тем обиднее за Оливера Сакса, известного нейробиолога и популяризатора науки, погибшего от неоперабельной или метастазирующей меланомы всего за три месяца до регистрации эффективного лекарства от этого агрессивного вида рака. Дьявол в мелочах Исследовать ДНК злокачественных образований можно на разных этапах профилактики или лечения болезни. Представим себе кого-то, кто заботится о здоровье и знает историю своей семьи. Этого человека беспокоит, что его дед по материнской линии умер от рака прямой кишки, а у его матери подозрение на рак поджелудочной железы. При этом его отец здоров. Нашему герою интересно, кто внес основной вклад в генетический материал, связанный с работой его пищеварительной системы, и как ему планировать свою жизнь в долгосрочной перспективе. Если на этом этапе наш герой сделает специальный анализ ДНК, в лаборатории изучат определенные участки его генома и сравнят их с типичными. Здесь возможно несколько вариантов развития событий: в ассоциированных с болезнью локусах обнаружат либо мутации, либо безопасные или ассоциированные с патологией изменения. Ассоциация с патологией означает, что в мировых генетических базах данных зарегистрировано определенное число статистически важных случаев заболевания конкретным видом рака при выявлении аналогичной мутации. Онкологические заболевания относят к мультифакториальным: обычно их развитие обусловлено одновременными мутациями в разных генах. Однако в отдельных видах рака существуют особые гены, предопределяющие исход болезни для каждого второго случая. Избежать ложноположительных или ложноотрицательных результатов нельзя. Поскольку во все сложные биологические процессы, к которым относится и канцерогенез, почти всегда вовлечен не один ген, а несколько, результат анализа (то есть вывод о предрасположенности к заболеванию) носит вероятностный характер. Отбор локусов ДНК для анализа – отдельная большая задача, ведь нужно тщательно выбрать фрагменты, достоверно ассоциированные с заболеванием. В целом, существует довольно много исследований по анализу ассоциаций между мутациями и заболеваниями, однако нередко найденные ассоциации ложноположительные .Это связано с исследованием геномов людей преимущественно европеоидной расы, что серьезно мешает сделать персонализированную медицину общедоступной в ближайшее время. Безусловно, прогноз на основе генетического анализа на мутации вырисовывается пессимистичный. Но не следует воспринимать его как приговор – пусть это будет мотивацией для пересмотра своего образа жизни. При этом нужно обязательно проходить регулярные обследования для выявления возможных патологий и сообщать о результатах анализа врачу. Впрочем, «провериться» необходимо и тем, у кого не было обнаружено онкогенных мутаций. Внимание к женской груди Для примера рассмотрим рак молочной железы. Девушкам и женщинам, близкие родственницы которых сталкивались с этой патологией, обязательно к прохождению исследование генов BRCA1 и BRCA2. Пациенткам с недавно диагностированным раком молочной железы это также рекомендовано для выбора лечения. Женщинам от 40 лет и старше необходимо пройти обследование, а также каждый год делать маммографию. Немного молекулярной биологии, чтобы понять, что именно происходит, когда в гене есть мутация. Для примера возьмем знакомый BRCA1 (сокращение от «breast cancer»). Исходно это ген-супрессор опухоли, который синтезирует белок, отвечающий за репарацию, т.е. «починку» ДНК. Если исправить химические повреждения в молекулах невозможно, то гены BRCA1 подключают другие белки. Так запускается процесс клеточной смерти, и клетка с нарушенной ДНК уничтожается. Вот как это работает: у женщины есть две копии гена BRCA1 (одна от мамы, одна от папы), и даже если функционирующей окажется только одна из них, белок будет вырабатываться. Он-то как раз и восстанавливает ДНК при нарушениях. Если же поломаны обе копии гена, то BRCA1 перестает нормально функционировать и чинить ДНК. В таком случае риск рака груди очень высок. Смотрите глубже Теперь рассмотрим ситуацию, когда рак у человека не был диагностирован. По сути, у него в ткани какого-то органа появилась клетка, которая развивается не по той же программе, что и остальные. При этом она не воспринимается собственными иммунными клетками как патология и продолжает активно делиться. С одной стороны, это непонятное образование мешает нормальной работе органа. С другой – оно обрастает кровеносными сосудами, специально стимулируя их рост, и забирая ресурсы здоровых тканей. В начале этого года вышла статья о том, что раковую опухоль можно воспринимать как отдельную экосистему внутри собственного тела .. Ученые предлагают новый подход к лечению рака – концепцию «экологической терапии». Она заключается в том, что организм представлен как экосистема, а клетки, взаимодействующие между собой и с раковой опухолью – как отдельные виды. В отличие от традиционного видения противоопухолевой терапии, этот метод предполагает воздействие на все элементы «экосистемы», а не только применение «оружия» по отношению к раковым клеткам. Множить сущности по необходимости Если по-честному, то называть раком и лимфому, и саркому не совсем правильно. Впрочем, в обоих случаях протекают действительно похожие процессы: появляется группа клеток, отличающихся от окружения, которые при самом неблагоприятном стечении обстоятельств начинают мигрировать и захватывать новые органы. Исходно рак (карцинома) – злокачественное новообразование эпителиальной ткани, выстилающей внутренние полости органов. В иной плоскости лежит онкогематология – заболевания, связанные с клетками крови и лимфы. В Genotek исследуется предрасположенность к 33 онкологическим заболеваниям . Вероятность каждого из них оценивается по определенному показателю или группе маркеров, обоснованных несколькими публикациями. Учёные классифицируют случаи заболеваний особым способом. И, что важно, в медицине уже существуют эффективные лекарства от некоторых видов рака: меланомы, лимфомы Ходжкина, саркомы мягких тканей и других. К сожалению, пока их использование на территории России недоступно. Катарсис против рака Рак лечат несколькими способами. В общих чертах опишем два наиболее распространенных. Среди традиционных подходов наиболее предпочтительным является оперативное лечение. Если опухоль операбельная и состояние пациента позволяет, то его отправляют к хирургу. В противном случае проводится химиотерапия – в пациента через катетер заливают «коктейль» из цитостатиков – веществ, которые препятствуют клеточному делению. Логика здесь такая: в самых важных органах взрослого человека уже не наблюдается активного роста клеток, при этом опухоль растет, пока они делятся. Если мы ограничим эту способность клеток, то сможем убить опухоль. Неприятными последствиями химиотерапии становятся явления, связанные как раз с потребностью в делении клеток: выпадение волос, отмирание ворсинок кишечника, повреждение кожи и потеря фертильности у мужчин. Существуют и другие виды традиционного лечения, но при их обзоре возникает неизгладимое впечатление, что даже при сохранении жизни противораковая терапия существенно ухудшает ее качество. Поэтому мы бы хотели сосредоточиться на лекарствах нового поколения. Круглосуточная доставка яда Иммунотерапия – инновационный метод лечения рака. Идея, которая лежит в его основе, очень проста: противодействовать заболеванию методами иммунной системы, мобилизовав собственную или синтезировав ее подобие. Это позволит доставлять те же яды, но адресно, а не пуская их по всему кровотоку. При таком подходе нужно взять некий белок с поверхности опухолевой клетки, далее синтезировать антитело, которое способно его распознать, а затем связать это антитело с сильным ядом, который бы высвобождался при взаимодействии белка и антитела. Это позволит уменьшить циркуляцию отравляющего вещества в крови, с одной стороны, и увеличить ее в микроокружении опухоли – с другой. Прорывы в противоопухолевой терапии таких фармацевтических гигантов, как Merck, Bayer или Sanofi, связаны с разработкой лекарств, направленных на лечение отдельных заболеваний. Back to the DNA ДНК-тестирование позволяет исследовать генетические маркеры, то есть узнавать последовательности генов, которые ассоциированы с теми или иными видами онкологических заболеваний. Зная, в каком участке гена находится «поломка», можно понять, где конкретно требуется восстановление. Более того, это помогает при подборе конкретного лекарства. Не нужно проводить биопсию – забор живой ткани, сравнимый по тяжести с операцией. В будущем, где победила персонализированная высокотехнологичная медицина, человек сможет вылечить онкологическое заболевание гораздо быстрее и эффективнее. Для этого ему будет достаточно сдать биологический образец на анализ и – при подтверждении неблагоприятного диагноза – получить персональное лекарство, сделанное по шаблону: антитело на белок клеток опухоли, связанное с медикаментом. Финальная ремарка для читателей из России. Помимо суровой статистики смертности от онкологических патологий, есть ещё более грустный момент: на территории нашего государства возможности использования противоопухолевой иммунотерапии сильно ограничены. Поэтому старайтесь ограничивать себя и близких от стресса, вести здоровый образ жизни и регулярно проходить обследование. Онкология на ранних стадиях легко оперируется и поддается лечению, поэтому своевременное выявление рисков и профилактика так важны. Всего вам доброго и с наступающими праздниками. Ваш Genotek.
https://geektimes.ru/company/genotek/blog/283992/
habrahabr
Распределение Пуассона и футбольные ставки
['теория вероятностей', 'статистика', 'ставки на спорт']
Если объединить статистические данные спортивных соревнований с распределением Пуассона, то можно рассчитать вероятное количество мячей, которые будут забиты во время футбольной игры. На этом...
Если объединить статистические данные спортивных соревнований с распределением Пуассона, то можно рассчитать вероятное количество мячей, которые будут забиты во время футбольной игры. На этом основании можно понять откуда берутся букмекерские ставки, а также научиться самостоятельно их рассчитывать с помощью R. В конце XIX в. русский экономист и статистик польского происхождения Владислав Борткевич, проанализировав данные в 14 корпусах прусской армии за 20 лет, придумал способ предсказывать случаи гибели солдат от удара копытом лошади. Для этого он одним из первых использовал на практике распределение Пуассона . Результаты его расчетов показаны в таблице. Смертность от удара лошади Согласно формуле Пуассона Наблюдения 0 108.67 109 1 66.29 65 2 20.22 22 3 4.11 3 4 0.63 1 5 0.08 0 6 0.01 0 Как видим теоретико-вероятностные вычисления отлично сочетаются с реальными данными. Можно ли применить этот способ в ставках на спорт, чтобы развлечься и заработать? Формула Пуассона В учебнике по теории вероятностей Б В. Гнеденко дается такое определение теоремы Пуассона. Если же говорить простым языком, то на основе этой формулы можно рассчитать распределение вероятностей для событий, которые: происходят за единицу времени или на единицу площади; дискретны, их можно пронумеровать; независимы друг от друга; не имеют верхней границы, по крайней мере — теоретической; Можно привести уйму примеров из повседневной жизни: количество пострадавших от удара молнии, от ДТП, количество рекламных звонков и сообщений, число поломок лифта за год, изюминок в пасхальном куличе и т. д. Для нас же интерес представляют примеры из спорта. Футбольная статистика Оказывается, количество забитых мячей в футбольном матче очень хорошо вписывается в Пуассоново распределение. Так, на диаграмме слева мы видим число голов, забитых каждой командой в каждом из 380 матчей чемпионата Испании 2008–2009 годов. На диаграмме справа подсчитаны теоретические данные модели. Диаграммы очень похожи, следовательно есть основания считать, что модель Пуассона может объяснить соотношение мячей, забитых командой в течение матча. Теперь немного о спортивных ставках. Те, кто захаживает в букмекерские конторы, может увидеть их на табло. Вот, как выглядят некоторые ставки на игру команд английской Премьер-Лиги в ближайший понедельник. Англия — Премьер-лига 1 x 2 Манчестер Юнайтед — Сандерленд 1,25 6,80 15,00 Челси — Борнмут 1,39 5,10 10,50 Халл — Манчестер Сити 10,50 5,80 1,35 1 — победа первой команды x — ничья 2 — победа другой команды. Достаточно мельком взглянуть на турнирную таблицу и станет понятно, почему так высоки ставки и возможный выигрыш в случае победы Сандерленда над Манчестер Юнайтед. За каждый рубль в этом случае можно заработать 15 рублей, в случае же победы команды Манчестер Юнайтед выигрыш будет всего 1.25 рублей. Попробуем теперь сами рассчитать ставки на игру Манчестер Юнайтед против Манчестер Сити, которая должна состояться 26-го февраля 2017 г . Несмотря на то, что у двух клубов названия похожи, МС играет на своем поле, а МЮ — в гостях. Прежде, чем воспользоваться формулой Пуассона надо рассчитать значение µ , а для этого надо получить среднее количество забитых и пропущенных мячей участников игры относительно среднего для всех команд. µ MU — Ожидаемое количество забитых мячей для Манчестер Юнайтед µ MC — Ожидаемое количество забитых мячей для Манчестер Сити Тогда µ MU = нападение МЮ ✕ оборона МС ✕ среднее количество забитых на выездных матчах. µ MC = нападение МС ✕ оборона МЮ ✕ среднее количество забитых голов на своем поле. За весь сезон 2015/2016 было 380 футбольных игр, в которых команды у себя дома забили 567 мяча (1.49 за игру), а в гостях — 459 (1.20 за игру). (5:563)$ echo 'scale=5;567/380;459/380' | bc -q 1.49210 1.20789 Далее, считаем коэффициенты нападения МЮ, нападения МC, оборона МЮ и обороны МС. На выездных матчах Манчестер Юнайтед забивал в среднем 1.15 мячей за игру, а пропускал — 1.36. (5:552)$ echo 'scale=5;22/19;26/19' | bc -q 1.15789 1.36842 У себя дома Манчестер Сити забивал в среднем 2.47 мячей за игру, а пропускал — 1.10. (5:553)$ echo 'scale=5;47/19;21/19' | bc -q 2.47368 1.10526 Теперь те же самые значения мы взвешиваем относительно общих средних значений. Относительное среднее нападения МЮ на чужом поле равно 0.958, а относительное среднее обороны МС на своем поле — 0.915. (5:554)$ echo 'scale=5;22/19/1.20789;21/19/1.20789' | bc -q .95860 .91503 Относительное среднее обороны МЮ на чужом поле равно 0.917, а относительное среднее нападения МС на своем поле — 1.657. (5:555)$ echo 'scale=5;26/19/1.49210;47/19/1.49210' | bc -q .91711 1.65785 И наконец, перемножая все промежуточные средние значения, находим µ . µ MU = 1.06 µ MC = 2.27 (5:556)$ echo 'scale=5;.95860*.91503*1.20789;1.65785*.91711*1.49210' |bc -q 1.05948 2.26863 Голы по Пуассону Теперь мы можем посчитать вероятности на разные исходы этой встречи. В R это делается очень просто, но можно срезать углы и воспользоваться статистическим онлайн калькулятором . > dpois(x=(0:5), lambda=2.26863) [1] 0.10345381 0.23469843 0.26622195 0.20131970 0.11417998 0.05180642 > dpois(x=(0:5), lambda=1.05948) [1] 0.346636014 0.367253924 0.194549094 0.068706958 0.018198412 0.003856171 Итак, вероятности распределены следующим образом. Голы 0 1 2 3 4 5 МЮ 34.663% 36.725% 19.454% 6.870% 1.819% 0.385% МС 10.345% 23.469% 26.622% 20.131% 11.417% 5.180% Вероятность того, что Манчестер Юнайтед не забьет ни одного гола составляет 34.663%, то же самое для Манчестер Сити — 10.345%, вероятность нулевого исхода встречи равна их произведению и составляет 3.586%. Матрица всех результатов от 0:0 до 5:5. > a=dpois(x=(0:5), lambda=1.05948) > b=dpois(x=(0:5), lambda=2.26863) > A=a%*%t(b) > A [,1] [,2] [,3] [,4] [,5] [,6] [1,] 0.0358608180 0.0813549276 0.092282115 0.0697846579 0.0395788921 0.0179579724 [2,] 0.0379938195 0.0861939186 0.097771055 0.0739354494 0.0419330446 0.0190261126 [3,] 0.0201268459 0.0456603665 0.051793239 0.0391665649 0.0222136111 0.0100788929 [4,] 0.0071079969 0.0161254150 0.018291300 0.0138320641 0.0078449589 0.0035594618 [5,] 0.0018826951 0.0042711387 0.004844817 0.0036636988 0.0020778943 0.0009427947 [6,] 0.0003989356 0.0009050372 0.001026597 0.0007763231 0.0004402975 0.0001997744 Попробуем теперь рассчитать вероятность победы каждой из сторон, вероятность ничейного исхода и наконец определимся со ставками. Начнем с ничейного результата. Перемножаем векторы событий для МЮ и МС, и считаем сумму диагональной матрицы. Ставка 1 к 5.264 . > sum(diag(A)) [1] 0.1899577 > 1/sum(diag(A)) [1] 5.26433 Шансы победы МС равны сумме всевозможных 1:0, 2:0, … 5:0, 2:1, 3:1, … и т. д. до 5:4. Ставка равна 1.619 . sum(A[1,2:6])+sum(A[2,3:6])+sum(A[3,4:6])+sum(A[4,5:6])+A[5,6] [1] 0.6174305 1/(sum(A[1,2:6])+sum(A[2,3:6])+sum(A[3,4:6])+sum(A[4,5:6])+A[5,6]) 1.619615 Шансы победы МЮ поменьше, соответственно побольше будет ставка и денежный выигрыш — 1 к 5.191 . > 1 - (sum(A[1,2:6])+sum(A[2,3:6])+sum(A[3,4:6])+sum(A[4,5:6])+A[5,6] + sum(diag(A))) [1] 0.1926118 > 1/(1 - (sum(A[1,2:6])+sum(A[2,3:6])+sum(A[3,4:6])+sum(A[4,5:6])+A[5,6] + sum(diag(A)))) [1] 5.19179 Ставки сделаны! Ставки на игру 1 x 2 Манчестер Сити — Манчестер Юнайтед 1.620 5.264 5.192 Конечно, модель Пуассона довольно проста и не учитывает множество факторов и обстоятельств: новый игрок, новый тренер, статус матча, обстоятельства клуба и т. д. Тем не менее Elihu Feustel умудряется на ставках зарабатывать миллионы , используя математические алгоритмы. Использованные материалы How to calculate football betting odds using Poisson Distribution Распределение Пуассона на примере футбольных ставок Football stats and results Абсолютная точность и другие иллюзии. Секреты статистики
https://habrahabr.ru/post/318150/
habrahabr
Исследование датасета с IMDB
['dataScience', 'dataVisualisation', 'python', 'imdb']
Проблематика Фильмы — это круто, фильмы вдохновляют нас, наполняют уверенностью, в общем дают нам многое. И поэтому в этой статье я бы хотел рассказать вам об исследовании тенденций...
Проблематика Фильмы — это круто, фильмы вдохновляют нас, наполняют уверенностью, в общем дают нам многое. И поэтому в этой статье я бы хотел рассказать вам об исследовании тенденций современного кинематографа с помощью инструментов анализа данных, который уже был презентован в финале Science Slam ITMO University 2.0. Полный выпуск доступен здесь . Однажды на Кинопоиске я наткнулся на незнакомый фильм. Это оказался «Зеленый Слоник» - пресловутая лента эпохи VHS. Те, кто слышали про него, могут понять впечатления, которые я ощутил после прочтения странички об этом фильме на Википедии… Но дурацких фильмов пруд пруди и стоит ли им вообще уделять хоть какое-то внимание? А вот рейтинг этого фильма оказался аномально высоким. И это очень удивило, ведь как такой откровенный кинематографический «шлак» набирает рейтинг выше среднего(по всем фильмам). И вот я, полон скептицизма и недоверия к Яндексу системе рейтингования, вооружился инструментами для анализа и визуализации данных на основе python стека (sklearn, pandas, matplotlib, numpy) и решил разобраться почему у подобных фильмов могут появляться приличные рейтинги. Под катом вы найдёте интересные и неочевидные выводы о современном (и не очень) кинематографе, а также много иллюстраций к ним. Данные в первую очередь Итак, начинать надо с поиска данных, которые мы собственно и собираемся анализировать. Конечно, не очень хотелось собирать данные вручную, а хотелось сразу сосредоточиться именно на их анализе. Поэтому я тут же начал искать нужный датасет в интернете. Нашёл его в том месте, куда стоило заглянуть в первую очередь - на сайте kaggle.com . Это оказался датасет, содержащий более 5000 фильмов с известного сайта о кинематографе imdb . В признаковом описании каждого фильма содержалось немало категориальных и вещественных признаков, с которыми вы можете ознакомиться на страничке датасета страничке датасета . Но так как мне изначально был интересен именно рейтинг Кинопоиска, поиск нужного датасета продолжился. АПИ Кинопоиска оказался закрыт, а писать парсер html страничек сервиса было лень не было времени из-за завала на учебе. Поэтому я решился и написал в службу поддержки Кинопоиска с просьбой предоставить датасет для исследования исключительно в академических целях. К большому удивлению мне даже ответили, но ответили негативно. В итоге найти ничего другого не удалось. Датасет с Кинопоиска я обязательно соберу, но не ранее, чем после сессии. А сейчас для анализа пришлось взять тот датасет IMDB.  Из чего состоит статья Исследование найденного датасета разделилось на две объёмные части: Обучение алгоритма предсказания (рейтинг фильма является целевой меткой) Поиск интересных и нетривиальных корреляций в данных В данной статье я хотел бы уделить больше внимания именно второй части исследования, но лишь замечу, что в первой части я пробовал обучать большое количество разных моделей. Точность предсказания, которой удалось добиться с помощью градиентного бустинга составляет 0.4 балла (mse ошибка) по шкале IMDB. Но процесс построения предсказательной модели заслуживает отдельной статьи, а в этой предлагаю сосредоточиться на втором пункте. Начнём Вторую часть своего исследования я начал с того, что взял алгоритм линейной регрессии с lasso регуляризацией, обученный в первой части и построил диаграмму весовых коэффициентов признаков. Давайте взглянем на неё:   Столбцы «Режиссер», "[123] Актёр" соответствуют количеству лайков на Facebook у соответствующих личностей. «Формат» — это соотношение сторон картинки. «Лица» — это интересный вещественный признак, отражающий количество лиц на постере фильма. Значение остальных признаков очевидно. На данной диаграмме можно отметить несколько интересных моментов: Длительность фильма даёт положительный вклад в рейтинг фильма(видимо длинные фильмы лучше заходят зрителям) Год даёт отрицательный вклад (то есть чем новее фильм, тем больше вероятность, что рейтинг окажется низким) Количество лиц на постере тоже даёт негативный вклад   Последний пункт у меня, как у поклонника фильма «Отель Гранд-Будапешт», вызвал негодование, но с алгоритмом не поспоришь. Жанр Теперь давайте взглянем на, пожалуй, главный признак киноленты — «Жанр». На первой диаграмме отображена первая топ десятка жанров, на второй жанры с 11 по 20 место по среднему рейтингу. Оказывается наибольший рейтинг набирают документальные, биографические и исторические фильмы. В свою очередь с большим отрывом наименьший рейтинг набирают фильмы из жанра ужасов. Страна производства Достаточно интересный результат можно наблюдать на диаграмме, отражающей средний рейтинг фильма из различных стран. Давайте рассмотрим топ шестерку стран по среднему рейтингу: Как видим наиболее рейтинговые фильмы (в среднем) снимают в Великобритании, после которой идёт Франция, а вот Австралия на третьем месте стала весьма интересной неожиданностью. Лично мне трудно было сходу вспомнить хоть какой-то  высокорейтинговый фильм из Австралии. Погуглив, удалось выяснить, что недавно вышедший фильм «Безумный Макс: Дорога ярости». А вот то, что американцы, заняли место вне топ тройки, весьма удивляет.  А теперь давайте взглянем на финансовую составляющую — на затраты каждой из стран на своё кинопроизводство: Тут всё вполне ожидаемо, США лидирует с огромным отрывом, правда это не состыкуется с предыдущей диаграммой. Получается, что американцы нерационально используют свои ресурсы, раз тратят больше, но по качеству проигрывают. Хотя никто не отрицает, что они могут брать не качеством, а количеством. Время Теперь давайте рассмотрим как разные признаки фильмов зависят от времени. На данном графике отображается средний рейтинг фильмов в какой-то момент времени: Можем увидеть, что средний рейтинг фильмов растёт обратно пропорционально году выпуска фильма.  В свою очередь этот факт не состыковывается с содержанием следующего графика: На данном графике отображена динамика изменения среднего бюджета фильма. Из последних двух графиков можно сделать вывод, что с годами мы тратим на фильмы больше, а получаем их по качеству ниже. Также весьма интересную картину дала зависимость средней длительность фильма от времени: Можно видеть, что самые длительные фильмы снимали в 70е годы. Это очень трудно поддаётся объяснению и можно быть уверенным, что никто точного ответа на это не знает. Можно лишь предположить, что в 70е годы видео- и аудиоаппаратура получила серьёзное развитие, в то же время у режиссеров и сценаристов было море идей и поэтому им было трудно остановить поток мыслей. А в наше время уже снято настолько много фильмов, что уже трудно придумать что-то новое и поэтому фильмы делают короче. Выводы Как видим Data Mining исследование даёт весьма интересные результаты и могут быть использованы для анализа различных текущих процессов в одной из самых динамичных и быстроразвивающихся индустрий мира. Хорошим примером использования этих зависимостей на практике является сериал «Карточный домик». О том, как компания Netflix подбирала режиссеров и актеров с помощью методов анализа данных вы можете почитать здесь .
https://habrahabr.ru/post/318330/
habrahabr
Часто задаваемые вопросы о тёмной энергии
['тёмная энергия', 'тёмная материя', 'вселенная', 'чаво', 'faq']
[Шон Майкл Кэррол – космолог, профессор физики, специализируется на тёмной энергии и ОТО, занимается исследованиями на факультете физики в Калифорнийском Технологическом институте – прим....
[ Шон Майкл Кэррол – космолог, профессор физики, специализируется на тёмной энергии и ОТО, занимается исследованиями на факультете физики в Калифорнийском Технологическом институте – прим. перев. ] Что такое «тёмная энергия»? Это то, что заставляет Вселенную ускоряться, если на самом деле существует некая сущность с таким свойством. Видимо, я должен спросить – что означает «ускорение» Вселенной? Во-первых, Вселенная расширяется: Хаббл показал, что удалённые галактики убегают от нас со скоростями, примерно пропорциональными расстоянию до них. «Ускорение» означает, что если вы измерите скорость одной из этих галактик, а затем вернётесь к ней через миллиард лет, и измерите скорость снова, то увидите, что она увеличилась. Галактики удаляются от нас с возрастающей скоростью. Но это какое-то объяснение простыми словами. Можно ли это объяснить более абстрактно и научно? Относительное расстояние между удалёнными галактиками можно просуммировать в единый показатель, «масштабный коэффициент», часто записываемый, как a(t) или R(t). Это, по сути, «размер» Вселенной – хотя и не совсем, поскольку Вселенная может быть бесконечно большой. Точнее говоря, это относительный размер пространства от одного момента времени до другого. Расширение Вселенной означает увеличение масштабного коэффициента со временем. Ускорение Вселенной означает его увеличение с ускорением – то бишь, с положительной второй производной. Значит ли это, что постоянная Хаббла, измеряющая скорость расширения, растёт? Нет. «Постоянная» Хаббла (или «параметр» Хаббла, раз уж он изменяется со временем), описывает скорость расширения, но это не просто производная масштабного коэффициента: это производная, делённая на сам коэффициент. Почему? Потому, что так она становится безразмерной и не меняется при смене соглашений. Константа Хаббла – это множитель, показывающий скорость изменения масштабного коэффициента Вселенной. Если Вселенная замедляется, постоянная Хаббла уменьшается. Если постоянная Хаббла увеличивается, Вселенная ускоряется. Но существует промежуточный режим, при котором Вселенная расширяется, но постоянная Хаббла уменьшается – и мы думаем, что наша Вселенная живёт именно в таком режиме. Скорости отдельных галактик увеличиваются, но удвоение размера Вселенной отнимает всё больше и больше времени. Иначе говоря: закон Хаббла соотносит скорость галактики v с расстоянием до неё d в уравнении v = H * d. Эта скорость может увеличиваться, даже если параметр Хаббла уменьшается; если он уменьшается медленнее, чем растёт расстояние. А что, астрономы реально ждали миллиард лет, чтобы провести повторное измерение скоростей галактик? Нет. Мы меряем скорости очень удалённых галактик. Поскольку свет перемещается с фиксированной скоростью, один световой год за год, мы смотрим в прошлое. Реконструкция истории скоростей и их отличия в прошлом открывает нам факт ускорения Вселенной. А как измерить расстояние до удалённой галактики? Это непросто. Самый надёжный метод – через «стандартную свечу» – некий достаточно яркий объект, который видно издалека, и чья собственная яркость известна заранее. Затем можно подсчитать расстояние до него, просто измерив его яркость. Чем он тусклее, тем дальше. К сожалению, стандартных свечей не существует. Так как же они поступили? К счастью, у нас есть метод, чуть уступающий наилучшему: стандартизируемые свечи. Сверхновые особого типа, типа Ia , очень яркие, и обладают не совсем, но примерно одинаковой яркостью. К счастью в 1990-х Марк Филипс открыл удивительное взаимоотношение между собственной яркостью и временем, которое требуется сверхновой для того, чтобы потускнеть после достижения максимальной яркости. В итоге, если мы измеряем яркость, и она со временем падает, мы можем сделать поправку на эту разницу, и построить универсальную шкалу яркостей, которую можно использовать для измерения расстояний. А почему сверхновые типа Ia оказались стандартизируемыми свечами? Мы точно не уверены – в основном, всё подсчитано эмпирически. Но есть идея – мы думаем, что эти сверхновые получаются, когда белые карлики притягивают материю снаружи, пока не достигнут предела Чандрасекара и не взорвутся. И поскольку это ограничение одинаково по всей Вселенной, неудивительно, что у сверхновых получается схожая яркость. Отклонения, вероятно, происходят из-за разных составов звёзд. А как узнать, когда возникнет сверхновая? Никак. Они появляются редко, где-то раз в сто лет для средней галактики. Поэтому нужно смотреть сразу на кучу галактик широкоугольными камерами. Конкретно, сравниваются изображения неба, сделанные в разные моменты времени, отстоящие на несколько недель друг от друга (обычно изображения делаются в новолуние, когда небо темнее всего) – как раз такое время требуется сверхновым, чтобы резко прибавить в яркости. При помощи компьютеров изображения сравниваются в поисках новых ярких точек. Затем эти точки изучаются, чтобы выяснить, действительно ли это сверхновые типа Ia. Это, конечно же, очень тяжело, и было бы невозможным, если бы не ряд последних технологических новшеств – камеры с ПЗС-матрицами и гигантские телескопы. Сегодня можно быть уверенным, что в результате наблюдений сверхновые можно будет собирать десятками – но когда Перлмуттер начинал работу со своей группой, это было совсем не очевидно. И что же они обнаружили, проделав такую работу? Большинство астрономов (почти все) ждали, что Вселенная будет замедляться – галактики будут притягиваться друг к другу через гравитацию, что и замедлит их движение. Но оказалось, что удалённые сверхновые получаются более тусклыми, чем это ожидалось – признак того, что они расположены дальше, чем было предсказано, то есть, Вселенная ускоряется. Почему космологи так быстро приняли этот результат? Ещё до объявления результатов в 1998 году было ясно, что с Вселенной что-то не так. Было похоже на то, что возраст Вселенной был меньше, чем возраст её старейших звёзд. Материи было меньше, чем предсказывали теоретики. На крупных масштабах структуры были не такие выраженные. Открытие тёмной энергии решило все эти проблемы одним махом. Всё встало на свои места. Поэтому, хотя люди справедливо осторожничали, после этого наблюдения Вселенная стала намного понятнее. А откуда мы знаем, что сверхновые выглядят тусклее не из-за того, что их что-то заслоняет, или из-за того, что в прошлом всё было по-другому? Вопрос правомерный, и две команды, изучающие сверхновые, очень активно трудились над его анализом. Никогда нельзя быть уверенным на 100%, но можно постоянно получать новые подтверждения. К примеру, астрономы давно знали, что заслоняющая материя рассеивает голубой свет легче, чем красный, в результате чего звёзды, находящиеся за облаками газа и пыли, «краснеют». Можно искать такое покраснение, и в случае со сверхновыми оно оказывается незначительным. Более того, сейчас у нас есть обилие независимых доказательств, приводящих к одному и тому же выводу – так что, похоже, что изначальные измерения при помощи сверхновых нам не врали. А правда, что есть независимые доказательства существования тёмной энергии? О, да. Простейший аргумент – вычитание. Реликтовое излучение сообщает нам полное количество энергии, включая материю, во Вселенной. Локальные измерения галактик и скоплений дают общее количество материи. Оказывается, что материи существует всего 27% от общей энергии, что оставляет нам 73% в форме какой-то невидимой нам субстанции, но не материи: «тёмной энергии». Такого количества хватает для объяснения ускорения Вселенной. Другие доказательства – акустические барионные осцилляции (волны на крупномасштабных структурах, чей размер помогает изучать историю расширения Вселенной) и эволюция структур по мере расширения. Ну ладно, и что такое тёмная энергия? Рад, что вы спросили! У тёмной энергии есть три главных свойства. Во-первых, она тёмная. Мы не видим её, и насколько нам говорят измерения, она вообще не взаимодействует с материей (если взаимодействует, то это превосходит возможности наших наблюдений). Во-вторых, она равномерно распределена. Она не скапливается в галактиках и скоплениях, или же мы обнаружили бы её, изучая их динамику. В-третьих, она постоянна. Плотность тёмной энергии (количество энергии на кубический световой год) остаётся постоянным по мере расширения Вселенной. Она не рассеивается, подобно материи. Два последних свойства позволяют нам называть её «энергией», а не «материей». Тёмная энергия не ведёт себя, как частицы, обладающие локальной динамикой и рассеивающиеся по мере расширения Вселенной. Тёмная энергия – это что-то другое. Интересная история. А чем конкретно может оказаться тёмная энергия? Ведущий кандидат на это место – самый простой: «энергия вакуума» или «космологическая константа». Поскольку мы знаем, что тёмная энергия равномерно распределена и постоянна, то первое, что приходит в голову – это что она идеально распределена и идеально постоянна. Это будет энергия вакуума: фиксированное количество энергии, которой обладает каждый кусочек космоса, и которое не меняется ни при переходе от одного места к другому, ни с течением времени. Одна стомиллионная эрга на кубический сантиметр, если вам интересно. А что, вакуумная энергия ничем не отличается от космологической константы? Да. Не верьте тому, кто отрицает это. Когда эту идею впервые придумал Эйнштейн, он не думал о ней, как об «энергии», он думал о ней, как о модификации способа, которым кривизна пространства-времени взаимодействует с энергией. Но оказывается, что это одно и то же. Если кто-то не поверит в это, спросите, какими наблюдениями он собирается отличать их друг от друга. А разве вакуумная энергия происходит не от квантовых флуктуаций? Не совсем. Целая гора всяких явлений может создавать энергию пустого пространства, и некоторые из них полностью классические, не имеющие ничего с квантовыми флуктуациями. Но к классическим явлениям, приводящим к возникновению этой энергии, добавляются ещё и квантовые флуктуации. Они довольно сильные, и это приводит нас к проблеме космологической константы. Что за проблема космологической константы? Если бы нам была известна только классическая механика, то космологическая константа была бы просто числом – для неё не было бы причин быть особенно большой или малой, положительной или отрицательной. Мы просто измерили бы её и успокоились. Но наш мир не классический, а квантовый. И в квантовой теории поля классические величины должны подвергаться квантовым поправкам. В случае энергии вакуума эти поправки имеют вид энергии виртуальных частиц, флуктуации которых происходят в вакууме пустого пространства. Мы можем сложить количество энергии, получающееся в этих флуктуациях, и получим бесконечность. Это, по-видимому, неправда, и мы подозреваем, что преувеличиваем подсчёт. Например, в этот грубый подсчёт входят флуктуации всех размеров, включая длины волн меньше планковской длины, на которых, возможно, пространство-время теряет свою концептуальную достоверность. Если мы просуммируем только длины волн большие, чем планковская длина, мы получим прикидку величины космологической константы. И в результате выходит в 10 120 больше наблюдаемого значения. Эта разница и есть проблема космологической константы. Почему космологическая константа такая маленькая? Никто не знает. Пока мы не умели работать со сверхновыми, многие физики верили в существование скрытой симметрии или динамического механизма, обнуляющего космологическую константу, поскольку мы были уверены в том, что она меньше наших оценок. Теперь же нам нужно объяснить как то, почему она маленькая, так и то, почему она ненулевая. А, кроме того, существует проблема совпадения – почему совпадают порядки величин плотности тёмной энергии и материи. Вот, насколько всё плохо: в настоящий момент лучшим объяснением значения космологической константы служит антропный принцип. Если мы живём в мультивселенной, в которой значения энергии вакуума отличаются в разных районах, можно сказать, что жизнь может существовать (а также делать наблюдения и выигрывать нобелевские премии) только в тех районах, в которых энергия вакуума гораздо меньше оценочной. Если бы она была большой и положительной, галактики и даже атомы разорвало бы. Если бы она была большой и отрицательной, Вселенная быстро бы реколлапсировала. В таких ситуациях типичный наблюдатель получил бы значение, близкое к наблюдаемому. Стивен Вайнберг сделал это предсказание в 1988 году, задолго до открытия ускорения Вселенной. Но он не сильно его отстаивал, просто сказал, что «если всё будет именно так, то мы увидим примерно следующее». С этими подсчётами много проблем, особенно, когда мы начинаем вовлекать «типичных наблюдателей», даже если поверить в существование мультивселенной. Я с удовольствием поразмышляю о мультивселенной, но довольно скептически отношусь к нашей возможности сделать какие-либо предсказания, касающиеся наблюдаемых величин, относящихся к этой теоретической платформе. Нам нужна простая формула, предсказывающая космологическую константу как функцию всех остальных констант природы. У нас её нет, но мы стараемся её вывести. Предлагаемые варианты работают с квантовой гравитацией, дополнительными измерениями, червоточинами, суперсимметрией, нелокальностью и другими интересными, но умозрительными идеями. Пока ещё ничего не прижилось. Влияли ли какие-либо эксперименты на развитие теории струн? Да: ускорение Вселенной. До этого теоретики предполагали необходимость описания Вселенной с нулевой энергией вакуума. Когда же появился шанс отличия её от нуля, встал вопрос, можно ли впихнуть этот факт в теорию струн. Оказалось, что это не так сложно сделать. Проблема в том, что если найти одно решение, находится абсурдно большое количество других. Такой ландшафт теории струн убивает надежду на одно уникальное решение, способное объяснить реальный мир. Это было бы неплохо, но науке приходится брать то, что предлагает природа. Что за проблема совпадения? При расширении Вселенной материя размывается, а плотность тёмной энергии остаётся постоянной. Значит, относительная плотность тёмной энергии и материи со временем сильно меняется. В прошлом материи было больше, в будущем тёмная энергия будет доминировать. Но сегодня их примерно поровну. Когда числа могут отличаться в 10 100 раз или больше, разница в три раза не считается. С чего это нам так повезло родиться, когда тёмной энергии достаточно много, чтобы её открыли, и достаточно мало, чтобы такие попытки заслужили нобелевку? Либо это совпадение (почему бы и нет), либо мы живём в какое-то особенное время. Частично по этой причине люди так охотно принимают антропный принцип. Вселенная получается какой-то несообразной. Если у тёмной энергии постоянная плотность, а пространство расширяется, значит ли это, что энергия не сохраняется? Да, и это нормально. В чём разница между тёмной энергией и энергией вакуума? Тёмная энергия – общепринятый термин равномерно распределённой и постоянной субстанции, заставляющей Вселенную ускоряться. Энергия вакуума – один из кандидатов на роль тёмной энергии, который идеально распределён и постоянен. Так что, есть другие кандидаты на роль тёмной энергии? Да. Вам нужно просто что-то довольно равномерно распределённое и постоянное. Выясняется, что большинство таких вещей теряют плотность, поэтому найти источники постоянной энергии непросто. Простейшая и лучшая из идей – квинтэссенция, просто скалярное поле, заполняющее Вселенную, и медленно изменяющееся со временем. А идея квинтэссенции естественна? Не особенно. Изначально планировалось, что рассмотрев нечто динамическое и изменяющееся, а не просто фиксированное, можно найти какое-то хитроумное объяснение тому, почему тёмная энергия такая слабая, и может быть объяснить и проблему совпадения. Но эти надежды не оправдались. Добавились только новые проблемы. Согласно квантовой теории поля, скалярным полям нравится быть тяжёлыми. Но в случае с квинтэссенцией скалярное поле должно быть нереально лёгким, 10 -30 от массы самого лёгкого нейтрино (но не нулевым). И это уже одна проблема, а вторая – лёгкое скалярное поле должно взаимодействовать с обычной материей. Даже если такое взаимодействие будет хилым, должна быть возможность его обнаружить – а его не нашли. Конечно, это не только проблема, но и возможность – может, лучшие эксперименты найдут «силу квинтэссенции», и мы, наконец, разберёмся с тёмной энергией. Как ещё мы можем проверить идею квинтэссенции? Напрямую – использовать сверхновые, только умнее. В общем: построить карту расширения Вселенной с такой точностью, чтобы было видно, меняется ли со временем плотность тёмной энергии. Обычно это представляется в виде попытки измерения параметра w уравнения состояния тёмной энергии. Если w равен -1, то тёмная энергия постоянна – это энергия вакуума. Если w чуть больше -1, плотность тёмной энергии уменьшается. Если оно чуть меньше -1 (например, -1,1), то плотность тёмной энергии растёт. По многим теоретическим причинам это опасно , но мы всё же должны следить за этим. Что такое w? Он называется параметром уравнения состояния, потому что связывает давление тёмной энергии p с его плотностью энергии ρ, через w = p/ρ. Конечно, никто не измеряет давление тёмной энергии, поэтому определение довольно глупое – но это просто исторический случай. Имеет значение то, как тёмная энергия меняется со временем, но в ОТО это напрямую связано с параметром уравнения состояния. Значит ли это, что давление тёмной энергии отрицательное? Именно. Отрицательное давление означает, что субстанция тянет, а не толкает – как вытянутая пружина, тянущая внутрь с обоих концов. Часто это называют натяжением. Поэтому я предлагал термин «плавного натяжения» вместо «тёмной энергии», но опоздал. Почему тёмная энергия заставляет Вселенную ускоряться? Потому что она постоянная. Эйнштейн говорит, что энергия заставляет пространство-время искривляться. В случае Вселенной, это искривление проявляется в виде искривления пространства (а не пространства-времени) и расширения Вселенной. Мы измерили кривизну пространства, и она по сути нулевая. Поэтому постоянная энергия приводит к постоянной скорости расширения. В частности, параметр Хаббла близок к константе, и если вспомнить закон Хаббла, v = H*d, вы поймёте, что если H – практически постоянная, то v будет увеличиваться из-за увеличения расстояний. Вот вам и ускорение. Если отрицательное давление подобно натяжению, почему она не стягивает всё вместе, а расталкивает в стороны? Иногда можно услышать выражения типа «тёмная энергия ускоряет Вселенной из-за отрицательного давления». Строго говоря, так и есть, но всё немного наоборот: такое выражение даёт лишь иллюзию понимания. Вам говорят, что «сила гравитации зависит от плотности и утроенного давления, поэтому если давление равно и противоположно плотности, гравитация будет отталкивать». Звучит разумно, но никто не объяснит вам, почему гравитация зависит от плотности и тройного давления. И вообще, от этого зависит не сила гравитации, а локальное расширение пространства. Вопрос «почему натяжение не стягивает вещи вместе?» правомерен. Ответ состоит в том, что тёмная энергия ни на что не давит и ничего не тянет. Она не взаимодействует с обычной материей, а также равномерно распределена в пространстве, поэтому любое натяжение, которое она оказывала бы в одном направлении, компенсировалось бы ровно таким же в противоположном. Вселенную ускоряет непрямой эффект тёмной энергии, работающий через гравитацию. На самом деле тёмная энергия заставляет Вселенную ускоряться, потому что она постоянная. Похожа ли тёмная энергия на антигравитацию? Нет. Тёмная энергия это не антигравитация, а просто гравитация. Представьте мир с нулевой тёмной энергией, за исключением двух пузырей тёмной энергии. Эти два пузыря не отталкиваются, они притягиваются. Но внутри пузырей тёмная энергия расталкивает пространство, и оно расширяется. Такие вот чудеса неэвклидовой геометрии. Это новая отталкивающая сила? Нет. Это просто новы тип источника старой силы – гравитации. Никаких новых сил. В чём разница между тёмной энергией и тёмной материей? Это абсолютно разные вещи. Тёмная материя – это некая, пока не открытая нами, частица. Мы знаем о её существовании, потому что видим, как она влияет при помощи гравитации на различные объекты (галактики, скопление, крупномасштабные структуры, реликтовое излучение). Она составляет 23% от Вселенной. Но по сути, это старая добрая материя, просто такая, которую мы (пока) не можем зафиксировать. Она скапливается под воздействием гравитации и рассеивается при расширении Вселенной. Тёмная энергия, с другой стороны, не скапливается и не рассеивается. Она не сделана из частиц, это нечто совсем другое. А может, нет никакой тёмной энергии, просто нужно слегка подправить гравитацию на космологических масштабах? Это возможно. Существует не менее двух популярных подходов к этой идее: гравитация f®, которую помогали разрабатывать Марк Филипс и я, и гравитация DGP – Двали, Габададзе и Порати. Первый подход – феноменологический, в нём просто меняется уравнение поля Эйнштейна через исправление действия в четырёх измерениях, а второй использует дополнительные измерения, которые можно зафиксировать только на больших расстояниях. У обеих есть проблемы – не обязательно непреодолимые, но серьёзные – с новыми степенями свободы и сопутствующей этому нестабильностью. Модифицированная гравитация достойна серьёзного рассмотрения. Но, как и в случае с квинтэссенцией, она порождает больше проблем, чем решает, по крайней мере, пока. Я предпочитаю следующие прогнозы шансов на успех: космологическая константа: 0,9, динамическая тёмная энергия = 0,09, модифицированная гравитация = 0,01. Что тёмная энергия говорит о будущем Вселенной? Зависит от того, что такое тёмная энергия. Если это вечная космологическая постоянная, то Вселенная продолжит расширяться, охлаждаться и опустошаться. В результате не останется ничего, кроме пустого пространства. Космологическая постоянная может быть постоянной временно; то есть, в будущем может произойти фазовый переход, после которого энергия вакуума уменьшится. Тогда Вселенная, возможно, реколлапсирует. Если тёмная энергия динамическая, то возможно всё. Если она динамическая и увеличивающаяся (w меньше -1 всегда), мы даже можем получить Большой разрыв . Что же дальше? Мы хотели бы разобраться с тёмной энергией (или модифицированной гравитацией) путём улучшенных космологических наблюдений. Это означает измерения параметра уравнения состояния, а также улучшение наблюдений за гравитацией в галактиках и кластерах для сравнения различных моделей. К счастью, в то время как в США отказываются от амбициозных научных проектов, Европейское космическое агентство разрабатывает спутник для измерения тёмной энергии . Разрабатываются и наземные научные проекты, и большой обзорный телескоп (Large Synoptic Survey Telescope) должен дать нам очень много после его запуска. Но ответ может оказаться скучным – тёмная энергия будет простой космологической константой. Это просто одно число, и что с ним можно сделать? В этом случае нам, очевидно, потребуются улучшенные теории, а также вклад из смежных эмпирических источников данных – ускорителей частиц, поисков пятой силы, проверок гравитации – отовсюду, где можно получить информацию о том, как пространство-время и квантовая теория поля сочетаются на базовом уровне. Что в науке здорово – в конце книжки нет правильных ответов, до всего необходимо докапываться самостоятельно. И тёмная энергия – одна из крупнейших задач.
https://geektimes.ru/post/283994/